Sistemele de recunoaștere facială nu sunt încă fiabile, mai ales când este vorba despre persoane non-caucaziene, conform unui raport al Guvernului american publicat joi, care consolidează dubiile legate de implementarea tot mai amplă a acestei tehnologii bazate pe inteligență artificială, informează AFP.
Recunoașterea facială identifică eronat persoanele asiatice și de culoare de 100 de ori mai des decât persoanele caucaziene, potrivit acestui studiu care a analizat zeci de algoritmi, scrie Agerpres.
Cercetătorii de la National Institute of Standards and Technology (NIST), un centru afiliat guvernului, au reperat și doi algoritmi care atribuiau sexul eronat femeilor de culoare în 35% dintre cazuri.
28 noiembrie - Profit Financial.forum
Recunoașterea facială este deja larg utilizată de către autorități, forțe de ordine, aeroporturi, bănci, magazine și școli. Tehnologia este folosită și pentru deblocarea anumitor smartphone-uri.
Numeroși cercetători și apărători ai drepturilor omului încearcă să frâneze această dezvoltare.
Ei estimează că algoritmii comit prea multe erori, că persoane nevinovate ar putea să ajungă la închisoare sau baze de date riscă să fie piratate și utilizate de infractori.