Confruntați cu exploatarea datelor de anumiți dezvoltatori de inteligență artificială (AI), artiștii își „sabotează” în mod deliberat creațiile pentru a le face inutilizabile, cu ajutorul cercetătorilor universitari, scre AFP.
Paloma McClain este o ilustratoare americană. O serie de programe de inteligență artificială generativă sunt deja capabile să creeze imagini inspirate de stilul ei, deși artista nu și-a dat niciodată acordul și nu va obține nimic din punct de vedere financiar. „M-a deranjat”, explică designerul, stabilit în Houston (Texas), arată news.ro.
28 noiembrie - Profit Financial.forum
„Nu sunt o artistă cunoscută, dar mă simțeam inconfortabil la ideea ca munca mea să fie folosită pentru a antrena” un model de inteligență artificială. Pentru a remedia acest lucru, ea și-a trecut lucrările prin Glaze, un program care adaugă pixeli, invizibili pentru ochiul uman, la ilustrațiile sale pentru a perturba activitatea AI.
După acest tratament, imaginile create sunt neclare, fețele sunt estompate, fără nicio comparație cu originalele. „Încercăm să furnizăm instrumentele tehnologice care să protejeze creatorii umani de abuzurile modelelor generative de inteligență artificială”, explică Ben Zhao, cercetător la Universitatea din Chicago, a cărui echipă a creat Glaze.
„O problemă serioasă”
Alertat în noiembrie 2022, acest profesor de informatică a dezvoltat softul în doar patru luni, folosind lucrări anterioare menite să perturbe recunoașterea facială. „Am lucrat la turație maximă, deoarece știam că problema este gravă”, spune Ben Zhao. „O mulțime de oameni sufereau”.
CITEȘTE ȘI Orange a semnat un acord cu Guvernul pentru finalizarea procesului de fuziune între Orange România și Orange Romania Communications, după cumpărarea rețelor fixe de la Telekom. Statul va avea 20%Giganții inteligenței artificiale generative au încheiat acorduri pentru a-și asigura drepturile de utilizare a anumitor conținuturi, dar marea majoritate a datelor, imaginilor, textelor sau sunetelor folosite pentru dezvoltarea modelelor au fost utilizate fără consimțământ explicit. De la lansarea sa, Glaze a fost descărcat de peste 1,6 milioane de ori, potrivit cercetătorului, a cărui unitate se pregătește să lanseze un nou program numit Nightshade.
Nightshade se concentrează pe indicațiile pe care utilizatorul unui model generativ de inteligență artificială le transmite pentru a obține o nouă imagine. Scopul său este de a deraia algoritmul, care va propune, de exemplu, o imagine a unei pisici atunci când a fost solicitat un câine.
O altă inițiativă este cea a start-up-ului Spawning, care a dezvoltat Kudurru, un software care detectează încercările de colectare masivă de imagini de pe platformele de imagini. Artistul are apoi opțiunea de a bloca accesul la opera sa sau de a trimite o altă imagine decât cea solicitată, „ceea ce echivalează cu otrăvirea” modelului de inteligență artificială în curs de dezvoltare și afectează fiabilitatea acestuia, descrie Jordan Meyer, cofondator al Spawning. Mai mult de o mie de site-uri web au fost deja integrate în rețeaua Kudurru.
CITEȘTE ȘI FOTO Un grup de bunicuțe din Olanda croșetează manual haine pentru copiii din BihorSpawning a creat, de asemenea, Have I Been Trained? (haveibeentrained.com), un site care permite să afli dacă imaginile au fost introduse într-un model de inteligență artificială și le oferă proprietarilor acestora posibilitatea de a le proteja împotriva utilizării neautorizate în viitor. Pe lângă imagini, cercetătorii de la Universitatea Washington din St. Louis (Missouri) și-au îndreptat atenția către sunet și au dezvoltat AntiFake.
„Acest software îmbogățește un fișier de sunet cu zgomote suplimentare, imperceptibile pentru urechea umană, care fac imposibilă imitarea credibilă a unei voci umane”, explică Zhiyuan Yu, doctorandul care a realizat acest proiect. Programul vizează în special prevenirea „deepfakes”, adică a montajelor foto sau video hiperrealiste care se folosesc de înfățișarea unei persoane, adesea o celebritate, pentru a o face să facă sau să spună ceva.
Echipa, supravegheată de profesorul Ning Zhang, a fost contactată recent de producătorii unui podcast de succes, care doreau să îl protejeze împotriva deturnării, potrivit lui Zhiyuan Yu. Deși până acum a fost folosit doar pentru limbajul vorbit, AntiFake ar putea proteja și vocile cântăreților, potrivit cercetătorului, al cărui software este disponibil gratuit.
CITEȘTE ȘI Royal Match, lansat de un mic startup din Istanbul, a depășit deja Candy CrushUnitatea lui Ben Zhao a fost abordată de „mai multe companii care doresc să folosească Nightshade pentru a-și proteja imaginile și proprietatea intelectuală”, potrivit universitarului din Chicago. El nu se opune ca societățile, chiar și cele mari, să folosească programul său.
„Scopul este ca oamenii să își poată proteja conținutul, indiferent dacă sunt artiști individuali sau companii cu o cantitate uriașă de proprietate intelectuală”, spune Ben Zhao. În cazul Spawning, ideea nu este doar de a obstrucționa, ci și, într-o etapă ulterioară, de a „permite oamenilor să se organizeze pentru a-și vinde datele în schimbul unei plăți”, explică Jordan Meyer, care anunță lansarea unei platforme la începutul anului 2024.
„Cea mai bună soluție”, spune el, „ar fi o lume în care toate datele utilizate pentru inteligența artificială să fie supuse consimțământului și plății. Sperăm să împingem dezvoltatorii în această direcție”.