O industrie uriașă a apărut în ultimii ani, deoarece China, Statele Unite, Regatul Unit și Uniunea Europeană au făcut din siguranța inteligenței artificiale o prioritate de vârf. Evident, orice tehnologie – de la mașini și produse farmaceutice până la mașini-unelte și mașini de tuns iarba – ar trebui să fie proiectată cât mai sigur posibil (se dorește ca rețelele sociale să fi fost controlate mai mult în primele zile).
Însă, doar ridicarea problemelor de siguranță nu este suficientă. În cazul AI, dezbaterea se concentrează mult prea mult pe „siguranța împotriva riscurilor catastrofale generate de AGI (Inteligenta Generală Artificială),” adică o superinteligență care poate depăși toți oamenii în majoritatea sarcinilor cognitive. În discuție este problema „alinierii”: dacă modelele AI produc rezultate care se potrivesc cu obiectivele și valorile utilizatorilor și designerilor lor – un subiect care conduce la diverse scenarii SF, în care apare o inteligență artificială superinteligentă și distruge umanitatea. The Alignment Problem a celui mai bine vândut autor, Brian Christian, se concentrează mai ales pe AGI, iar aceleași preocupări au determinat Anthropic, una dintre principalele companii din domeniu, să construiască modele cu propriile „constituții”, care consacră valori și principii etice.
Dar există cel puțin două motive pentru care aceste abordări pot fi greșite. În primul rând, dezbaterea actuală privind siguranța nu doar (inutil) antropomorfizează IA ci ne face să ne concentrăm asupra unor ținte greșite. Deoarece orice tehnologie poate fi folosită în bine sau în rău, ceea ce contează în cele din urmă este cine o controlează, care sunt obiectivele lor și la ce fel de reglementări sunt supuse.
Nicio cercetare privind siguranța nu ar fi împiedicat în trecut ca o mașină să fie folosită ca armă la mitingul extremist din Charlottesville, Virginia, în 2017. Dacă acceptăm premisa că sistemele AI au propriile lor personalități, am putea concluziona că singura noastră opțiune este să ne asigurăm că au valorile și constituțiile corecte în abstract. Dar premisa este falsă, iar soluția propusă ar fi greșită.
Contraargumentul este că, dacă AGI se va realiza vreodată, ce ar conta cu adevărat ar fi dacă sistemul este „aliniat” cu obiectivele umane, pentru a nu lăsa niciun locîn care să se manifeste viclenia unei superinteligențe. Dar această afirmație ne aduce la a doua problemă pe care o avem cu o mare parte din dezbaterea despre siguranța AI. Chiar dacă ne aflăm pe calea către realizarea AGI (ceea ce pare foarte puțin probabil), cel mai imediat pericol ar fi totuși utilizarea greșită a unei IA nesuperinteligentă de către oameni.
Să presupunem că va exista un timp (T) în viitor (să zicem 2040) când AGI va fi inventat și că, până va sosi acest moment, sistemele AI care nu au AGI vor fi în continuare neautonome. (Dacă ar trebui să devină autonome înainte de AGI, acea zi să fie T.) Acum luați în considerare situația cu un an înainte de T. În acel moment, sistemele AI vor fi devenit foarte capabile (din cauza faptului că se află în pragul superinteligenței) , iar întrebarea pe care am dori să o punem este: cine deține controlul acum?
Răspunsul ar fi, desigur, agenți umani, fie individual, fie colectiv, sub forma unui guvern, a unui consorțiu sau a unei corporații. Pentru a simplifica discuția, permiteți-mi să mă refer la agenții umani responsabili de AI în acest moment sub numele de Corporația X. Această companie (ar putea fi și mai multe companii, ceea ce ar putea fi chiar mai rău, după cum vom vedea) ar putea să-și folosească capacitățile AI în orice scop dorește. Dacă ar vrea să distrugă democrația și să înrobească oamenii, ar putea face acest lucru. Amenințarea pe care atâția comentatori o impută AGI va fi sosit deja înaintea AGI.
CITEȘTE ȘI Opinii: Nu credeți tot hype-ul AIDe fapt, situația ar fi probabil mai rea decât această descriere, deoarece Corporația X ar putea produce un rezultat similar chiar dacă intenția sa nu ar fi să distrugă democrația. Dacă propriile obiective nu ar fi pe deplin aliniate cu democrația (ceea ce este inevitabil), democrația ar putea avea de suferit ca o consecință neintenționată (cum a fost cazul rețelelor sociale).
De exemplu, inegalitatea care depășește un anumit prag poate pune în pericol buna funcționare a democrației; dar acest fapt nu ar împiedica Corporația X să facă tot ce se poate pentru a se îmbogăți ea sau acționarii săi. Orice protecție încorporată în modelele sale AI pentru a preveni utilizarea rău intenționată nu ar conta, deoarece Corporația X și-ar putea folosi în continuare tehnologia așa cum dorește.
De asemenea, dacă ar exista două companii, Corporația X și Corporația Y, care controlează modele de IA de înaltă capacitate, fie una dintre ele, fie ambele, ar putea încă să urmărească obiective care dăunează coeziunii sociale, democrației și libertății umane. (Și nu, argumentul că s-ar constrânge una pe ala nu este convingător. În orice caz, concurența lor le-ar putea face și mai nemiloase.)
Astfel, chiar dacă obținem ceea ce își doresc majoritatea cercetătorilor în domeniul siguranței AI – aliniere adecvată și constrângeri asupra AGI – nu vom fi în siguranță. Implicațiile acestei concluzii ar trebui să fie evidente: avem nevoie de instituții mult mai puternice pentru a controla companiile de tehnologie și de forme mult mai puternice de acțiune democratică și civică pentru a menține răspunzătoare guvernele care controlează AI. Această provocare este destul de separată și distinctă de abordarea părtinirilor în modelele AI sau de alinierea lor la obiectivele umane.
CITEȘTE ȘI FOTO Sesizări privind utilizarea identității Poștei Române în diverse campanii ScamAtunci de ce suntem atât de fixați pe comportamentul potențial al IA antropomorfizate? O parte este hype, care ajută industria tehnologică să atragă mai multe talente și investiții. Cu cât toată lumea vorbește mai mult despre cum ar putea acționa o IA superinteligentă, cu atât publicul va începe să creadă că AGI este iminentă. Investitorii de retail și instituționali se vor arunca în următoarea mare oportunitate, iar directorii din domeniul tehnologiei care au crescut cu reprezentări științifico-fantastice ale AI superinteligente vor primi un alt permis gratuit. Ar trebui să începem să acordăm mai multă atenție riscurilor mai imediate.
Daron Acemoglu, profesor de economie la MIT, este coautor (împreună cu Simon Johnson) al lucrării Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, 2023).
Copyright: Project Syndicate, 2024.
www.project-syndicate.org