Sistemele de recunoaștere facială comit multe erori

Sistemele de recunoaștere facială comit multe erori
scris 20 dec 2019

Sistemele de recunoaștere facială nu sunt încă fiabile, mai ales când este vorba despre persoane non-caucaziene, conform unui raport al Guvernului american publicat joi, care consolidează dubiile legate de implementarea tot mai amplă a acestei tehnologii bazate pe inteligență artificială, informează AFP.

Recunoașterea facială identifică eronat persoanele asiatice și de culoare de 100 de ori mai des decât persoanele caucaziene, potrivit acestui studiu care a analizat zeci de algoritmi, scrie Agerpres.

Urmărește-ne și pe Google News

Cercetătorii de la National Institute of Standards and Technology (NIST), un centru afiliat guvernului, au reperat și doi algoritmi care atribuiau sexul eronat femeilor de culoare în 35% dintre cazuri.

RAPORT: Atacuri de phishing și malware, apărute în contextul celui mai nou film din seria Star Wars CITEȘTE ȘI RAPORT: Atacuri de phishing și malware, apărute în contextul celui mai nou film din seria Star Wars

Recunoașterea facială este deja larg utilizată de către autorități, forțe de ordine, aeroporturi, bănci, magazine și școli. Tehnologia este folosită și pentru deblocarea anumitor smartphone-uri.

Numeroși cercetători și apărători ai drepturilor omului încearcă să frâneze această dezvoltare.

Ei estimează că algoritmii comit prea multe erori, că persoane nevinovate ar putea să ajungă la închisoare sau baze de date riscă să fie piratate și utilizate de infractori.

viewscnt
Afla mai multe despre
recunoaștere facială
sua