Sigur, ChatGPT ne scrie e-mailurile, ne scrie postările de pe linkedin, ne traduce documente și generează conținut care reduce substanțial timpul petrecut pe un singur task. Popularizarea și normalizarea integrării inteligenței artificiale în viața de zi cu zi – atât la job, cât și acasă – creează și mai mult loc pentru eroare, acordând încredere oarbă unui conținut generat fără a menționa surse, într-un format bun de luat „de-a gata”, tradus instant în orice limbă, creat de un soft capabil de a-și simți/citi audiența (în termenul greu de tradus „sentient”).
Mai mult, dorim să punctăm și ușurința cu care beneficiarul final al unui material/document/rezultat/răspuns poate fi păcălit – cum distingem între un răspuns generat de AI și un răspuns oferit de o persoană competentă, care își cunoaște domeniul? Cum distingem între manuscrisul unui autor și un text generat de AI-ul care a învățat stilul lui de scris? Cum distingem o opinie juridică a unui avocat de cea scrisă de AI cu acces la legislație? Până la urmă, și unul, și celălalt oferă disclaimer.
Cum mai reușim să recunoaștem la finalul zilei, de fapt, factorul uman?
Știm downside-ul evident al avantajelor zilnice pe care le aduce inteligența artificială în automatizarea și facilitarea taskurilor, respectiv lenevirea minții umane, atât dintr-o perspectivă activă – prin pasarea unor componente active ale unui proiect în cârca AI-ului – cât și dintr-o perspectivă pasivă – prin obținerea facilă și rapidă a unor informații percepute cu titlu de adevăr și neverificate.
Ce ne facem însă în privința fenomenului neglijat al deepfake? Zâmbim atunci când inteligența artificială generează conținut favorabil nouă, pierzând din vedere faptul că moneda are întotdeauna două fețe, iar conținutul AI-ului – fiind în continuă dezvoltare – poate oricând genera conținut complet nefavorabil omului (individual, ori ca grup).
- Ce este, de fapt, fenomenul deepfake?
Deepfake-ul este o formă avansată de manipulare digitală a conținutului media, care implică utilizarea tehnologiilor de învățare automată (i.e. inteligență artificială) și de generare a imaginilor pentru a crea materiale audio, foto sau video false, care par autentice și credibile. Termenul de deepfake reunește noțiunea de „deep learning” (învățarea profundă) și „fake” (falsul), reflectând însăși complexitatea naturii sale sofisticate.
În procesul de creare al conținutului imagistic deepfake este implicat un algoritm de învățare profundă (deep AI) cu o cantitate semnificativă de date (fotografii, înregistrări video sau audio) referitoare la persoana țintă a conținutul dorit. Algoritmul este instruit să învețe caracteristicile faciale și vocale ale persoanei țintă pentru a putea recrea și manipula orice fel de conținut media – finalmente cu scopul de a face acea persoană să pară că se află într-un anumit loc, că spune anumite cuvinte, că face anumite activități care, firește, nu s-au întâmplat și nu reflectă realitatea.
Există diferite tehnici utilizate în procesul de creare a deepfake-urilor, printre care notăm generarea de imagini folosind rețele generative adversariale – respectiv un duet între două rețele neurale având obiective diametral opuse, una fiind însărcinată cu generarea conținutului fals, cealaltă fiind însărcinată cu depistarea falsurilor. Acest sistem creează deci un proces iterativ prin care se îmbunătățesc rezultatele falsificării, prin învățarea pozitivă și negativă simultan.
CITEȘTE ȘI Opinii: “Romanian House Davos”: influența României GlobaleDeși pare o formă de entertainment creativă atunci când scopul îi este inofensiv, fenomenul deepfake e acaparat de un nor negru al unei direcționări malițioase, de la manipulare politică și propagandă până la conținut pornografic (cu un procent alarmant de pedopornografie). Într-o analiză a Deeptrace Labs, peste 96% din conținutul deepfake identificat în online în anul 2019 era conținut neconsensual pornografic – unde întâlnim ca victime atât persoane publice, cât și persoane de rând, atât majori, cât și minori, cu preponderență femei și întărind și fenomenul de revenge porn.
În mediul politic, diseminarea conținutului deepfake vizual și auditiv este aptă să creeze isterie, să instige la violență și să răspândească propagandă mai facil decât prin orice alt canal de comunicare, în special pe platformele de social media și mai ales raportat la faptul că tendința de verificare a surselor unui conținut consumat pe aceste platforme este în continuă scădere.
Cu titlu de exemplu, imagini și înregistrări generate în fenomenul deepfake au fost larg răspândite în cele două conflicte armate puternic mediatizate și contemporane nouă, anume Rusia-Ucraina și Israel-Hamas, generând discursuri politice false ale conducătorilor acestor țări (printre care (i) discursul deepfake al lui Volodymyr Zelensky în care ordona ucrainenilor să se predea armatei ruse1, (ii) conținut deepfake despre victimele din conflictul Israel-Hamas2, (iii) hackerii iranieni întrerup difuzări din EAU cu știri deepfake3, și (iv) interviul deepfake creat cu președintele Vladimir Putin4).
Deși în prezent se lucrează la perfecționarea contracarării efectelor negative ale conținutului deepfake, prin dezvoltarea unor tehnologii de detecție a acestui gen de conținut și prin încercarea de educare a publicului larg în evaluarea critică a conținutului media falsificat, la acest moment un astfel de rezultat este nerealist.
Raportat la modul de consum al informațiilor – în special la rapiditatea consumării efective a conținutului prin care dăm scroll în fiecare zi, pe platforme sociale create pentru livrare de dopamină în conținut scurt, concentrat și rapid, discernerea și filtrarea informației consumate devine un concept utopic, în special pentru Gen Z și următoarele, generații cărora nu le-a fost insuflat deloc principiul „cercetează și apoi crede”.
CITEȘTE ȘI Opinii: Un decalog pentru reconstruirea încrederii globaleMai mult, cu identificarea tardivă a conținutului deepfake, acest gen de conținut are suficient timp să zăbovească în online, să disipe informații false și înșelătoare, să instige la violență, la ură, la segregare rasială, precum și la distrugerea reputației femeilor victime valului de deepfake porn. Până când s-a identificat o astfel de imagine ori înregistrare ca fiind machine-generated, deja dauna e produsă, reputația știrbită și publicul influențat.
- Curentul european privind fenomenul deepfake și reglementarea națională
- Poziția europeană
La finele anului 2022, Comisia Europeană a propus o nouă directivă pentru combaterea violenței și a violenței domestice împotriva femeilor în diferite modalități. În prezent, Consiliul European și Parlamentul European susțin propunerea de incriminare, printre altele, a distribuirii nonconsensuale a conținutului pornografic generat de AI, cu scopul de a destabiliza fenomenul de revenge porn.
Reacția UE apare ca rezultat al celui mai recent astfel de scandal deepfake porn, a cărui victima a fost la începutul acestui an chiar Taylor Swift, cu peste 45 milioane accesări în online. Uniunea Europeană a propus de la începutul lunii februarie incriminarea distribuirii unui astfel de conținut pe teritoriul UE (incluzând revenge porn și hărțuirea online) – previzionat a intra în vigoare la mijlocul anului 2027.
Vice președintele Comisiei Europene, Věra Jourová, a declarat celor de la Politico5 faptul că „cel mai recent dezgustător mod de a umili femeile implică distribuirea unor imagini intime generate de inteligența artificială în mai puțin de câteva minute. Astfel de imagini pot crea prejudicii grave, nu doar popstarurilor, ci oricărei femei care va fi astfel nevoită să demonstreze la muncă ori acasă că acele imagini sunt rezultatul deepfake”.
La nivelul Uniunii, Parlamentul European a aprobat miercuri, 13 martie 2024, regulamentul privind inteligența artificială, EU AI Act, considerat a fi prima reglementare oficială a inteligenței artificiale din lume. Prioritatea Parlamentului European este să se asigure că sistemele AI folosite în UE sunt sigure, transparente, trasabile, nediscriminatorii și ecologice. Se dorește mai ales supravegherea acestor sisteme de oameni, nu prin procese la rândul lor automatizate, pentru evitarea unor rezultate dăunătoare cauzate de utilizarea acestor sisteme. În cadrul acestor reglementări și viitoare sancțiuni, regăsim și fenomenul deepfake ca o componentă a sistemelor de inteligență artificială generativă.
Subliniem faptul că adoptarea unui astfel de regulament reprezintă o premieră globală, plasând UE ca lider în întâmpinarea creării unui cadru legal privind sistemele de inteligență artificială, regulament ce cu siguranță va reprezenta și o sursă de inspirație pentru țările non-membre, cu precădere pentru SUA – unde fenomenul are o amploare mult depășind incindența pe teritoriul uniunii.
Aprobarea finală va fi dată de Consiliul Uniunii Europene – aprobare așteptată până la finalul anului 2024, intrând în vigoare la 20 de zile după publicarea sa în Jurnalul Oficial, pe când interdicțiile și limitările fiind impuse la 6 luni de la acea dată. Despre unele limitări și interdicții este posibilă prorogarea aplicării până la 12 luni de la intrarea sa în vigoare, însă toate celelalte obligații prevăzute de această directivă vor fi impuse, fără excepții, la cel târziu 36 de luni de la intrarea sa în vigoare, respectiv finalul anului 2027 (în condițiile cunoscute actualmente).
Actul reglementează categorii diferite de risc în privința diferitor sisteme de inteligență artificială, între risc inacceptabil – considerate o amenințare pentru oameni și fiind interzise (i.e. identificarea și clasarea biometrică a persoanelor fizice), risc ridicat – care au un efect negativ asupra siguranței și drepturilor fundamentale ale oamenilor, urmând a fi evaluate înainte de a fi puse pe piață (i.e. softuri privind gestionarea migrației, azilului și controlului la frontieră; softuri ce oferă asistență în interpretarea și aplicarea legii) și risc limitat – categorie ce include inteligența artificială generală și generativă (i.e. ChatGPT; sisteme care generează și manipulează imagini, conținut audio și video, respectiv deepfakes)6.
Cu toate acestea, este important de avut în vedere faptul că aceste reguli și clasificări au fost create și redactate acum 3 ani, moment la care aplicații de tipul ChatGPT și OpenAI nu aveau popularitatea și incidența pe care o au în prezent – și nici puterea de învățare și baza de date atât de amplă. Clasificarea sistemelor generative de conținut, dată fiind incidența lor, accesarea lor facilă, precum și posibilele implicații faptice și legale ale acestui tip de rezultat ca fiind sisteme cu risc limitat ar putea suferi în timp un „upgrade” de periculozitate.
- Cadrul legislativ național
Pe plan național, însă, încă din aprilie 2023 a fost inițiat proiectul de lege nr. 471/2023 privind utilizarea responsabilă a tehnologiei în contextul fenomenului deepfake, aflându-se încă în analiză – trimis pentru raport suplimentar în fața a două comisii, cu termen în data de 01.03.2024, termen deja depășit.
În expunerea de motive, legiuitorul român ia în considerare dezvoltarea accelerată a tehnologiei, a inteligenței artificiale și a tehnicilor de creare a realității virtuale artificiale precum și progresele impresionante ale instrumentelor de tip machine learning, considerându-și necesară intervenția pentru limitarea efectelor malițioase în conținutul fals generat de aceste instrumente. Legiuitorul mai arată faptul că specialiștii în domeniu consideră deepfake-ul mult mai periculos și cu un impact mult mai puternic decât știrile false diseminate în presă cu care suntem deja obișnuiți, întrucât deepfake-ul poate genera și conținut imagistic și auditiv legat intrinsec de victima personificată astfel.
Salutăm astfel inițiativa deputatului Eugen Bejinariu și a senatorului Robert-Marius Cazanciuc, în calitate de inițiatori ai acestui proiect, achiesând opiniei exprimate cu privire la fenomenul deepfake, respectiv faptul că realizarea și distribuirea unor astfel de materiale (denumite fals sever) constituie – fiecare, în individualitatea sa materială – un act responsabil, realizat cu discernământ și intenție directă, urmărind prejudicierea imaginii, reputației sau demnității victimei prin diseminarea unor materiale înșelătoare și falsificate ce creează aparența că emană direct de la victimă ori plasează victima în ipoteze ce nu exprimă realitatea faptică, obiectivă.
Includem, cu titlu de exemplu, portretizarea deepfake și a Președintelui României într-un material peiorativ, generat în format video și a cărui precizie se apropie de mimarea unui video și discurs real7. Putem respinge facil un astfel de conținut atunci când plecăm de la premisa că este fals și atunci când însăși titlul său ne delimitează faptul că este generat de softuri AI, însă fără evidența acestor premise și cu continua dezvoltare și perfecționare a acestor softuri, câtă vreme vom mai putea cu adevărat să le distingem?
În forma adoptată de Senat, legea ne oferă 4 articole, incluzând definirea cadrului de aplicare, definirea fenomenului deepfake, condițiile în care un material creat de inteligența artificială trebuie să-și divulge natura, precum și cui revine competența verificării îndeplinirii acestor condiții de legalitate.
Legea ne definește fenomenul deepfake ca fiind „orice conținut falsificat de tip imagine, audio și/sau video realizat, de regulă, cu ajutorul inteligenței artificiale, a realității virtuale, a realității augmentate sau altor mijloace, astfel încât să creeze aparența că o persoană a spus sau a făcut lucruri, pentru care nu și-a dat consimțământul, care în realitate nu au fost spuse sau făcute de acea persoană”.
Distribuirea și difuzarea unor astfel de materiale deepfake în mass-media sunt interzise dacă nu sunt însoțite de un avertisment redat pe cel puțin 10% din suprafața expunerii și pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul și la finalul conținutului audio: „Acest material conține ipostaze imaginare”.
- Decredibilizarea unei probe până acum incontestabile
Ce deserviciu ne creăm cu adevărat prin perfecționarea sistemelor de inteligență artificială generative de conținut? În plan probatoriu, cel puțin până acum, imagistica (foto sau video) precum și înregistrările audio și audio-video au fost – atât în procesele penale, cât și în procesele civile – o probă incontestabilă, probă a cărei veridicitate era arareori contestată, probă pe care ne puteam baza ireproșabil.
Or, în acest context fantasmagoric unde:
- putem genera o persoană omniscientă – care să fie în mai multe locuri simultan în înregistrări de supraveghere ori în fotografii;
- putem portretiza un individ într-un loc/într-o circumstanță/într-o alăturare în care el nu a fost niciodată;
- putem genera mărturii, recunoașteri și declarații false – imputate unei persoane care nu le-a declarat niciodată;
- putem manipula ori genera/fabrica probe – i.e. modificarea conținutului de pe înregistrări de supraveghere sau imagistica din percheziții;
- putem genera evenimente prin imagistică foto sau video care să simuleze un eveniment care nu a existat niciodată – important în alăturarea unor persoane de interes într-un presupus eveniment;
- putem denigra și decredibiliza orice individ, prin disiparea unui conținut deepfake care îl prezintă implicându-se în comportamente ilegale, scandaloase, denigratoare și, cel mai probabil false, finalmente știrbindu-i reputația;
- putem discredita martori, fie prin crearea de conținut contradictoriu declarațiilor lor, fie prin plasarea lor în alte locații în timp și spațiu care ar face imposibilă prezența lor ca martori și la faptele despre care declară;
- putem facil clona și fura identități în scopul comiterii de fraude (informatice, bancare, financiare), prin mimarea unui persoane reale în care oamenii au încredere și căreia îi vor oferi date personale;
- putem facil viola intimitatea și hărțui persoane online, prin creare de profiluri false cu conținut deepfake ce portretizează persoană în cauză în ipostaze nereale și apte de a crea prejudicii de imagine;
- putem falsifica documente, prin clonarea siglelor, ștampilelor, imitarea artificială a stilului de scriere ori prin simpla modificare credibilă doar a unor părți din documente, finalmente putând aveam implicații financiare ori chiar penale.
Deși astfel de generări de conținut puteau fi create și în trecut, ele erau mult rudimentare conținutului dezvoltat de inteligența artificială – care-și perfecționează constant opera pentru a mima perfect componenta umană – și programele nu erau lesne accesibile publicului larg. Acum, printr-un singur search pe Google, accesibil oricui (și chiar și minorilor), găsim zeci de softuri accesibile gratuit ori contra unui cost infim, unde până și cel mai de bază și accesibil soft poate genera conținut credibil.
Fenomenul disipării de conținut deepfake este în continuă creștere, softurile deja accesibile devin tot mai deștepte și mai user friendly, fiindu-i oricui facil să genereze în sub 30 de minute conținut apt să creeze prejudicii grave de imagine pentru victima aleasă. În plus, spre deosebire de platformele de știri ori mass-media, platformele de social media nu-și filtrează conținutul prin verificare umană, ci prin roboței care sunt, din păcate, mult prea ușor de păcălit.
Algoritmul rețelelor de social media poate să disipe în scurt timp (uneori într-o chestiune de câteva ore) un material deepfake la zeci și sute de mii de utilizatori, iar suportul oferit de aceste platforme este lent, cu o posibilitate minimă de a ajunge în contact cu o persoană peste roboțeii de suport. Astfel, deși conținutul poate fi îndepărtat după lungi appealuri și raportări, într-o procedură ce se poate întinde pe durata unor zile și chiar săptămâni, deepfake-ul are timp să circule, să zăbovească, să scandalizeze și să își otrăvească opinia publică liniștit, fără presiunea numărătorii inverse.
În fine, în contextul inteligenței artificiale generative de conținut, care plutește liberă în online accesibilă oricui o dorește, în lipsa desăvârșită a unui cadru legal privind uneltele de inteligență artificială care să-i impună limitări ori care să ne arate cine răspunde efectiv pentru otrava unui astfel de conținut (mai ales unde autorul nu poate fi identificat), protecția datelor își lărgește sfera, devenind relevant de inclus și bazele de date care îți pot accesa imaginile personale (cum sunt Facebook, Instagram, TikTok, Twitter, Whatsapp ș.a.).
2 - TikTok Struggles to Take Down Deepfake Videos of Hamas’ Victims (bloomberglaw.com)
„Ei urmează un model similar: o moarte tragică apare la știri și, în câteva zile sau chiar ore, utilizatorii postează videoclipuri cu asemănarea acelei persoane, vorbind despre modul în care a murit. Formatul tendinței include, de obicei, o introducere din perspectiva acelei persoane și o imagine falsificată a acesteia pe ecran, care spune povestea modului în care a murit.”
Roman Bradu, Managing Partner Bradu, Neagu & Asociații, specializat în White Collar Crime și avocatura de business
Noemi Cădariu, Managing Associate Bradu, Neagu & Asociații, avocat specializat în Dispute Resolution