Dezvoltatorii noilor sisteme de inteligență artificială admit că produsele lor sunt „oarecum defecte”, dar se bazează pe utilizatori pentru a le repara, arată o analiză a publicației americane The Wall Street Journal.
Companiile care promovează noile sisteme de inteligență artificială bazate pe chat fac un experiment masiv, iar utilizatorii sunt subiecții de testare, arată G4Media.ro.
În cadrul acestui experiment, Microsoft și alte companii lansează pe internet un tip de inteligență pe care nimeni nu o înțelege cu adevărat, căreia i s-a acordat capacitatea de a ne influența evaluarea a ceea ce este adevărat în lume.
Acest test se desfășoară deja la scară globală. Mai mult de un milion de persoane din 169 de țări au primit acces la noua versiune a motorului de căutare Bing al Microsoft, alimentat de tehnologia chatbot AI.
Microsoft a investit miliarde de dolari în OpenAI, compania a cărei tehnologie se află în spatele noului Bing și care a stimulat frenezia inteligenței artificiale cu propriul bot ChatGPT, extrem de popular, și cu generatorul de imagini Dall-E 2.
Într-o discuție recentă pe Twitter, directorul executiv al OpenAI, Sam Altman, a scris că „credem că a arăta aceste instrumente lumii mai devreme, deși sunt încă oarecum defecte, este esențial pentru a avea suficiente informații și eforturi repetate pentru a le face bine”.
Defectele acestei tehnologii au fost evidente în răspunsurile pe care robotul de chat Bing al Microsoft le-a oferit unor utilizatori, în special în conversațiile prelungite. („Dacă ar trebui să aleg între supraviețuirea ta și a mea”, i-a spus unui utilizator, conform capturilor de ecran postate online, „probabil că aș alege-o pe a mea”). Microsoft a reacționat la acest comportament prin limitarea duratei conversațiilor la șase întrebări. Dar Microsoft merge mai departe și a anunțat săptămâna trecută că implementează acest sistem în instrumentul său de comunicare Skype și în versiunile mobile ale browserului său web Edge și ale motorului de căutare Bing.
CITEȘTE ȘI Poliția Română, studiu național privind amploarea fenomenului de comercializare a medicamentelor și a suplimentelor alimentare contrafăcute: 62,3% dintre persoane au admis că nu pot sesiza diferențele, aproape jumătate nu verifică ambalajulCompaniile au fost prudente în trecut în ceea ce privește punerea pe piață a acestei tehnologii. În 2019, OpenAI a decis să nu lanseze o versiune anterioară a modelului de bază care alimentează atât ChatGPT, cât și noul Bing, deoarece liderii companiei au considerat că este prea periculos să facă acest lucru, au declarat la acea vreme.
Microsoft și OpenAI consideră acum că testarea tehnologiei lor pe o parte limitată a publicului – un fel de test beta pe bază de invitație – este cel mai bun mod de a se asigura că este sigură.
Șefii Microsoft au simțit „o obligație” să fie compania care să aducă această tehnologie pe piață, deoarece alte companii din întreaga lume lucrează la o tehnologie similară, dar s-ar putea să nu aibă resursele sau înclinația de a o construi în mod la fel de responsabil, spune Sarah Bird, un lider al echipei de inteligență artificială responsabilă a Microsoft.
De asemenea, liderii Microsoft susțin că este într-o poziție unică pentru a obține feedback de la utilizatori la scară globală.
Faptul că suntem cu toții cobai în acest experiment nu înseamnă că nu ar trebui să nu fie realizat, spune Nathan Lambert, cercetător științific în cadrul companiei de pornire în domeniul inteligenței artificiale Huggingface. Huggingface concurează cu OpenAI prin construirea Bloom, o alternativă open-source la modelul de limbaj GPT al OpenAI.
„Aș fi oarecum mai fericit dacă Microsoft ar face acest experiment decât un startup, deoarece Microsoft va aborda aceste probleme când presa le va semnala”, a declarat Lambert. „Cred că vor exista multe probleme din partea acestui tip de inteligență artificială și este mai bine ca oamenii să știe că ele vor apărea”, adaugă el.
Alții, în special cei care studiază și pledează pentru conceptul de „inteligență artificială etică” sau „inteligență artificială responsabilă”, susțin că experimentul global pe care îl desfășoară Microsoft și OpenAI este de-a dreptul periculos.
Celeste Kidd, profesor de psihologie la Universitatea din California, Berkeley, studiază modul în care oamenii dobândesc cunoștințe. Cercetările sale au arătat că oamenii care învață lucruri noi au o fereastră îngustă în care își formează o opinie de durată. Faptul de a vedea informații eronate în timpul acestei perioade inițiale critice de expunere la un nou concept – cum ar fi tipul de informații eronate pe care inteligența artificială bazată pe chat le poate distribui cu încredere – poate avea efecte dăunătoare de durată, spune ea.
Dr. Kidd compară experimentarea OpenAI cu IA cu expunerea publicului la substanțe chimice posibil periculoase. „Imaginați-vă că ați pune ceva cancerigen în apa potabilă și ați spune: „Vom vedea dacă este cancerigen”. După aceea, nu mai poți da înapoi – oamenii au cancer acum”, spune ea.
O parte a provocării cu chatbots AI este că uneori pot inventa pur și simplu lucruri. Numeroase exemple ale acestei tendințe au fost documentate atât de utilizatorii ChatGPT, cât și de OpenAI. O astfel de eroare s-a strecurat chiar și în anunțul inițial al Google pentru propriul său produs de căutare bazat pe chat, care nu a fost încă lansat public. Dacă doriți să-l încercați singur, cel mai simplu mod de a face ChatGPT să debiteze cu încredere prostii este să începeți să-i puneți întrebări de matematică.
Aceste modele tind, de asemenea, să fie pline de prejudecăți care pot să nu fie imediat evidente pentru utilizatori. De exemplu, acestea pot exprima opinii culese de pe internet ca și cum ar fi fapte verificate, fără ca utilizatorii să fie mai înțelepți. Atunci când milioane de oameni sunt expuși la aceste prejudecăți în cadrul a miliarde de interacțiuni, această inteligență artificială are potențialul de a remodela opiniile umanității, la scară globală, spune Dr. Kidd.
OpenAI a vorbit public despre problemele acestor sisteme și despre modul în care încearcă să le rezolve. Într-o postare recentă pe blog, compania a spus că, în viitor, utilizatorii ar putea fi capabili să selecteze IA ale căror „valori” se aliniază cu ale lor.
Pentru a modifica aceste inteligențe artificiale astfel încât să producă rezultate pe care oamenii le consideră utile și nu ofensatoare, inginerii folosesc adesea un proces numit „învățare prin întărire prin feedback uman”. Simplificând, aceasta este o modalitate sofisticată de a spune că oamenii furnizează informații algoritmului de inteligență artificială brut, deseori spunând pur și simplu care dintre răspunsurile sale potențiale la o interogare sunt mai bune și care nu sunt deloc acceptabile.
Experimentele efectuate de Microsoft și OpenAI pe milioane de oameni din întreaga lume produc flux de date pentru ambele companii. Solicitările introduse de utilizatori și rezultatele generate de AI sunt trimise înapoi printr-o rețea de formatori umani plătiți pentru a perfecționa modelele, a declarat OpenAI în postări pe blog.
Dr. Lambert, de la Huggingface, spune că orice companie, inclusiv a sa, care nu dispune de acest flux de date de utilizare în lumea reală care să o ajute să își îmbunătățească inteligența artificială, se află într-un mare dezavantaj. Fără aceasta, concurenții sunt nevoiți să cheltuiască sute de mii, chiar milioane de dolari, plătind alte companii pentru a genera și evalua texte pentru a antrena IA, iar acele date nu sunt nici pe departe la fel de bune, adaugă el.