"Nu vom vinde tehnologia noastră de recunoaștere facială instituțiilor care aplică legea din SUA chiar acum și până nu există o legislație federală puternică bazată pe drepturile omului, nu vom vinde această tehnologie pentru aplicarea legii ", a declarat Brad Smith, un înalt oficial Microsoft la o masă rotundă găzduită de Washington Post.
Dincolo de utilizarea de către poliție, Microsoft intenționează să pună la punct mecanisme pentru a evalua utilizarea acestei tehnologii controversate chiar și în afara poliției, a adăugat el.
„În ultimii doi ani ne-am concentrat pe dezvoltarea și punerea în aplicare a principiilor solide care să ne ajute în utilizarea recunoașterii faciale și am solicitat în mod repetat o reglementare guvernamentală puternică”, a spus Smith.
Microsoft s-a angajat să lucreze cu alți susținători ai legislației în acest domeniu și a declarat că profită de ocazie „pentru a consolida procesele de revizuire pentru clienții noștri care doresc să utilizeze această tehnologie la scară largă ".
Gebru explică în primul rând că sunt erori mari în identificarea fețelor persoanelor de culoare, iar asta înseamnă o rată de detecție mai mică pentru cei cu pielea mai închisă și, implicit, arestarea unor oameni nevinovați.
Și când identificarea se face în mod corect, tehnologia poate fi folosită în mod abuziv, cum s-a întâmplat la un protest din Baltimore unde poliția s-a folosit de imaginile colectate pentru a-i identifica pe participanți, comparând imaginile cu pozele de pe rețelele sociale.
Apoi mai este conceptul de ”automation bias” care se referă la faptul că, deși un polițist, văzând o imagine livrată de sistem, consideră că nu seamănă cu cea a suspectului, îl va aresta pe acel suspect doar fiindcă sistemele de recunoaștere spun că în proporție de 99% este persoana căutată. De multe ori detecțiile semnalate de sistem pentru persoanele de culoare sunt mult mai inexacte decât cele realizate de oamenii care se uită la poze și compară.
Gebru spune că, luate împreună, trei lucruri sunt periculoase când este vorba de recunoașterea facială: încrederea excesivă în tehnologie, tendința de a o folosi în mod impropriu și lipsa de transparență.
Dar politia americana are bias-uri iar comunistii au bani.
Hai sa nu comparam mere cu pere. Sa ne aducem aminte ca pana si ceva "simplu" in ochii unora precum masinile autonome nu sunt 100% reglementate. Si inca se pun intrebari cine e responsabil in cazul unui accident (pentru ca au fost cazuri).
Si iata o chestie mai simpla. Amprenta pe care o lua iPhone-ul, tu crezi ca e stocata intr-un fisier pe hard disk? Biometricele au regim special si cand le folosesti trebuie sa indeplinesti niste cerinte. Iar acolo unde nu se poate sau ramane loc de dubiu, nu se permite.
Da, normal ca FB foloseste si se lauda cu asta. Dar asta nu inseamna ca iti dai baza de date oricui fara consimtamant.