Acum câteva zile m-am întors din Siracusa unde am participat la un curs de specializare în domeniul penal internațional și drepturilor omului la The Siracusa Institute for Criminal Justice and Human Rights.
Printre temele de discuție s-a regăsit și utilizarea tehnologiei de recunoaștere facială în aplicarea legii (depistarea, urmărirea suspecților sau a infractorilor de către organismele specializate), ocazie cu care s-au generat dezbateri vii cu privire la încălcarea art. 8 CEDO (dreptul la viață privată) sau chiar art. 6 CEDO (dreptul la un proces echitabil).
28 noiembrie - Profit Financial.forum
Într-un articol publicat de Association of Computing Machinery (ACM) – Asociația Mașinilor de Calcul – autorii menționează că tehnologia de recunoaștere facială este ˝plutoniul inteligenței artificiale˝, o metaforă care descrie produsul toxic rezultat în urma folosirii AI. Plutoniul, elementul radioactiv 93, este unul dintre cele mai toxice, un produs secundar al energiei nucleare pe bază de uraniu și este componenta principală a deșeurilor nucleare. Plutoniul prezintă un asemenea risc ridicat de toxicitate încât este controlat cu strictețe sub regim internațional, iar producția lui este redusă la minim, dacă nu evitată complet.
Autorii articolului remarcă: ˝În primul rând, tehnologiile de recunoaștere facială, în virtutea modului în care lucrează la nivel tehnic, au deficiențe insurmontabile legate de modul în care acestea schematizează chipurile umane. Aceste erori atât creează, cât și consolidează categoriile discriminate pe baza genului și rasei, cu efecte toxice din punct de vedere social. Al doilea este că, în lumina acestor deficiențe de bază, riscurile acestor tehnologii depășesc cu mult beneficiile, într-un mod care amintește de tehnologiile nucleare periculoase. Recunoașterea facială, pur și simplu prin faptul că este proiectată și construită, este intrinsec toxică din punct de vedere social, indiferent de intențiile producătorilor săi; este nevoie de controale atât de stricte încât ar trebui să fie interzisă pentru aproape toate scopurile practice.˝ (traducere)
Fața este, prin plasarea ei în structura anatomică, un element central al personalității, neputând fi ascunsă. Dacă amprentele pot fi colectate mai greu de la o categorie extinsă a populației, în ceea ce privește fața, aceasta este la dispoziția oricui deține camera care captează imaginile, fie persoană privată sau stat. În plus, statul are deja o bază de date constituită din fotografiile oficiale ale cărților de identitate, permiselor de conducere sau pașapoartelor, iar persoanele private dețin fotografiile noastre personale încărcate pe diverse platforme în mod voluntar sau, mai nou, schematizarea feței noastre s-a realizat prin funcția de identificare a dispozitivelor mobile (Face ID). Prin urmare, nici nu poate exista un termen de comparație între cele două.
Problemele actuale cu care se confruntă acest sistem sunt erorile date de persoanele de gen feminin, afro-americanii și asiaticii, fiecare având particularități distincte. De asemenea, se pune problema existenței unor modificări esențiale ale feței care ar putea declanșa alte erori (accidente, operații estetice).
Chiar și în cazul în care dezvoltarea tehnologiei peste ani ar conduce la reducerea erorilor de mai sus la minim, problema de ordin social pe care personal am susținut-o rămâne: schimbarea comportamentului persoanei pentru a se mula pe comportamentul general acceptat la nivelul societății. Și aici nu discutăm despre evitarea unui comportament ilegal, ci despre comportamente deviante sau nu. Dacă este să ne referim la comportamentele deviante, această categorie se modifică în timp și ceea ce noi am clasifica acum ca fiind un comportament deviant e posibil să fi fost considerat altfel în trecut sau să fie în viitor, și invers. Până la urma și sclavia a fost cândva general acceptată la nivelul societății, iar acum pare de neconceput. Luând un exemplu oarecare, dacă la nivelul societății s-ar acredita ideea ca persoanele care frecventează concertele rock tind să fie mai agresive (conducând poate chiar și la concluzia că reprezintă un comportament deviant, ceva de neconceput la acest moment), atunci, cunoscând că traseul tău este urmărit pe baza tehnologiei de recunoaștere facială, cel mai probabil ai evita să mai asculți muzica preferată de teama unei… discriminări.
Pentru că da, în timp, pe lângă categoriile discriminate la ora actuală, se vor adăuga altele, mult mai multe, iar comportamentul populației va putea fi schimbat numai în baza anumitor prezumții lansate în spațiul public pentru ca firea umană este construită de așa natură încât caută validare la nivelul societății.
În cadrul grupului de dezbateri de la Siracusa unul dintre colegi a afirmat că putem argumenta faptul că fiecare își cedează parte din libertăți atunci când încheie contractul social în vederea obținerii protecției statale. Dar Rousseau începe ˝Contractul social˝ cu o replică celebră: ˝omul se naște liber și pretutindeni este în lanțuri¨. Contraargumentul a venit de la un alt coleg care a afirmat faptul că această tehnologie este ca și cum ai avea câte un polițist la fiecare metru, doar că fiecare dintre aceștia este extrem de inteligent și, cel mai periculos, datele colectate de fiecare sunt prelucrate de toți ceilalți, astfel aducând directă atingere dreptului la viață privată.
Chiar dacă dreptul la viață privată nu face parte din categoria drepturilor absolute, el poate fi limitat numai dacă ingerința este: 1) legitimă și justificată; 2) în concordanță cu legea; 3) necesară într-o societate democratică. Din punctul meu de vedere condițiile de legitimitate și justificare, dacă nu chiar și necesitatea într-o societate democratică, sunt puse în discuție.
Ideea redactării acestui articol a venit și în urma îngrijorării manifestate de ONG-urile APADOR-CH și Centrul de Resurse Juridice în anul 2016 cu privire la achiziționarea de către SRI prin licitație publică a unui sistem pentru promovarea e-guvernării și combaterii fraudelor. Se pare că, din analiza caietului de sarcini, se dorește implementarea unui sistem de tip Big Brother, îndepărtându-se de la scopul declarat.
˝Practic SRI își creează un sistem (unde s-ar putea ca și alții să aibă acces conform descrierii generale) unde ar putea căuta orice informație despre orice persoană fizică care apare într-o bază de date a autorităților publice, nerespectând în mod flagrant legislația privind protecția datelor cu caracter personal și neaplicând nicio măsură de protecție a acestor date. (…)
Sistemele de e-guvernare ne pot ușura viața, dar cetățenii trebuie să aibă încredere faptul că instituțiile publice colectează informațiile într-un scop bine precizat și nu pentru orice alt scop viitor.
De aceea interoperabilitatea datelor personale în zona de eguvernare trebuie să se bazeze pe transparență (cetățeanul să poate vedea în orice moment cine, când și de ce cineva a accesat datele lui) și respectarea principiilor colectării datelor cu caracter personal (limitarea scopului, bază legală, necesitate și proporționalitate, perioada de păstrare, respectarea drepturilor subiecților, notificarea încălcărilor de securitate, analiză de impact a datelor personale, angajarea unui responsabil privind protecția datelor personale, etc.). (…)
De asemenea, accesul la toate datele personale dintr-o bază de date ar trebui de principiu interzis, cu posibilitatea unor excepții pentru date anonimizate sau pseudonimizate. (…)
În primul rând soluția de recunoaștere facială (face recognition) nu are vreo legătura cu niciunul din scopurile proiectului – de prevenire și combatere a fraudei, e clar că scopul trebuie să fie altul.
În al doilea rând este neclar în ce condiții SRI are acces la pozele din pașapoarte și buletine și cu ce scop le folosește.
În al treilea rând, se pare că imaginile de referință sunt doar începutul, ele urmând să creeze o bază de date cât mai largă . Vezi (pag. 130, secțiunea 2.20.1 Imagini de referință, paragraful 2) „Numărul și varietatea depozitelor de date comune este prevăzut să crească în continuare”– deci nu se va limita la pozele din buletine.
Prin corelarea acestor informații cu cele din analiza comportamentală se pot identifica nu doar imaginile persoanelor, ci și alte detalii despre ele din restul bazelor de date.
De exemplu:
– SRI își face o aplicație astfel încât să „citească” în mod automat Facebook, astfel încât să integreze date de acolo în baza de date de recunoaștere facială: – de exemplu dacă aveți o poză reală la profilul de Facebook, chiar dacă sub alt nume sau un nume incomplet sau comun, SRI poate să conexeze restul de informații din bazele de date proprii cu acel cont de Facebook, pentru a ști că dvs sunteți acel Ion Popescu pe care îl urmărește.
– SRI/Jandarmeria filmează (și preia apoi) sau fotografiază 5000 de participanți la un protest din Piața Universității. Înregistrarea foto/video poate fi, după aceea, procesată și apoi analizată cu software-ul de recunoaștere facială pentru a identifica exact ce persoane au participat pentru a fi contactați ulterior și amendați.˝
Sunt deja țări unde acest sistem a fost implementat și ni se induce ideea că acesta este oricum viitorul, minimizându-i pasul spre pierderea libertății chiar prin integrarea lui în dispozitivele mobile. Dacă îmi deschid telefonul folosind funcția de recunoaștere facială, de ce m-aș opune folosirii lui pe scară largă pentru prinderea suspecților sau infractorilor, nu?
În prezent, printre țările care utilizează tehnologia de recunoaștere facială se numără Argentina sau Marea Britanie, dar în cazul ultimei o mulțime de activiști în domeniul drepturilor omului solicită interzicerea ei. San Francisco, pe de altă parte, este primul din Statele Unitele care a interzis utilizarea acestei tehnologii în urma condamnării folosirii de către China a acesteia pentru a impune controlul milioanelor de musulmani Uighur din regiunea vestică Xinjiang. De curând, un adolescent a solicitat daune din partea Apple de 1 miliard de dolari după ce a fost identificat eronat de un sistem de recunoaștere facială ca fiind autorul mai multor furturi din magazinele companiei, care este acuzată că folosește o astfel de tehnologie, procurorii din New York și Boston renunțând la acuzațiile aduse.
Dintre colegii mei de la Siracusa, în mod surprinzător poate, majoritatea celor care au fost de acord cu folosirea tehnologiei de recunoaștere facială pe scară largă, eventual doar în spațiile publice (chiar și conceptul de ˝spațiu public˝ are conotații diferite la nivel național și suferă schimbări), au fost cei din țările mai puțin sau mediu dezvoltate, ceilalți fiind de acord mai mult cu o reglementare extrem de strictă (eventual doar la proteste de ex.) sau chiar cu interzicerea utilizării ei. Până și Brad Smith, Președinte și Consilier General al Microsoft a atras atenția necesității reglementării stricte a tehnologiei de recunoaștere facială în iulie 2018.
La nivel european a fost adoptat Regulamentul privind protecția datelor cu caracter personal și anul trecut, când s-a început aplicarea tuturor acestor măsuri, a reprezentat un punct de cotitură. Atât de importante sunt datele cu caracter personal pentru societatea noastră, datele biometrice ocupând primul loc.
Cu toate acestea, datele cu caracter personal mai puțin sensibile le dăm cu ușurință unor terți, fără a ține cont de nivelul de securitate cu care acestea sunt stocate sau prelucrate, dar nu aceeași atitudine poate fi adoptată în privința datelor biometrice, o ultimă frontieră până la a cunoaște o terță persoană TOTUL despre tine, inclusiv modul în care gândești, astfel cum acesta este reflectat în comportamentul non-verbal.
În privința dreptului la un proces echitabil, vom avea acces la dispozitivul în sine cu care s-au colectat și prelucrat înregistrările pentru a-l supune unei expertize tehnice? Dar la algoritmul prin care s-a ajuns la o anumita concluzie? Cel mai probabil nu, deși înregistrările respective vor putea fi folosite ca mijloace de probă într-un proces, fiind o clară încălcare a dreptului la un proces echitabil.
Luând în considerare toate aceste aspecte, personal sunt în realizarea unui studiu juridic de drept comparat cu privire la legislația de la nivelul statelor care l-au implementat pentru a analiza garanțiile aduse cetățenilor și rezultatele. Cu toate acestea, dacă până și industria Tech a semnalat deficiențele utilizării acestei tehnologii și nevoia de reglementare strictă, iar alții au solicitat sau au obținut la interzicerea utilizării ei, îngrijorările fiind manifestate la nivel mondial, apreciez necesară organizarea unor dezbateri și în România pe această temă.
Restricționarea libertăților nu poate fundamenta o societate democratică decât prin libertatea de a decide asupra necesității restricțiilor și controlul lor.
Articol LegalMarketing