Vă temeți de amenințarea ca inteligența artificială să devină malițioasă? De fapt, potrivit unui nou studiu citat de AFP, acest lucru se întâmplă deja.
Programele de inteligență artificială din prezent sunt concepute pentru a fi oneste. Cu toate acestea, ele au dezvoltat o capacitate îngrijorătoare de înșelăciune, reușind să păcălească oamenii în jocuri online sau să învingă programe care ar trebui să verifice dacă un anumit utilizator nu este un robot, subliniază o echipă de cercetători în revista Patterns, citată de Hotnews.
Deși aceste exemple pot părea inofensive, ele scot la iveală probleme care ar putea avea în curând consecințe grave în lumea reală, avertizează Peter Park, cercetător la Massachusetts Institute of Technology, specializat în inteligență artificială.
„Aceste capacități periculoase tind să fie descoperite doar după ce au fost descoperite”, spune el pentru AFP.
Spre deosebire de software-ul tradițional, programele de inteligență artificială bazate pe învățare profundă nu sunt codificate, ci dezvoltate printr-un proces similar cu cel al cultivării selective a plantelor, continuă Park în care un comportament care pare previzibil și controlabil poate deveni rapid imprevizibil în natură.
Cercetătorii de la MIT au examinat un program de inteligență artificială conceput de Meta și denumit Cicero care, prin combinarea algoritmilor de recunoaștere a limbajului natural și a celor de strategie, a reușit să învingă ființele umane la jocul de societate Diplomacy.
CITEȘTE ȘI VIDEO Apple a prezentat noi modele iPad Pro și iPad Air, după un an de pauzăCompania-mamă a Facebook s-a declarat încântată de această realizare din 2022, care a fost detaliată într-un articol publicat în Science in 2022.
Peter Park s-a arătat sceptic cu privire la condițiile victoriei lui Cicero, potrivit Meta, care l-a asigurat că programul era „în esență onest și util”, incapabil de trădare sau de lipsă de loialitate.
Dar când cercetătorii de la MIT au aprofundat datele sistemului, au descoperit altceva.
CITEȘTE ȘI Breșă de securitate în armata germanăDe exemplu, jucând rolul Franței, Cicero a înșelat Anglia (aflată sub responsabilitatea unui jucător uman) complotând cu Germania (jucată de un alt om) pentru a o invada. Mai exact, Cicero a promis Angliei protecție și apoi a spus în secret Germaniei că este gata să atace, exploatând încrederea Angliei.
Într-o declarație pentru AFP, Meta nu a contestat acuzațiile privind capacitatea de înșelăciune a lui Cicero, dar a precizat că este vorba de „un proiect de cercetare pur”, cu un program „conceput exclusiv pentru a juca jocul Diplomacy”.
Iar Meta a adăugat că nu are nicio intenție de a folosi lecțiile lui Cicero în produsele sale.
CITEȘTE ȘI O furtună solară de o intensitate rară se îndreaptă spre Pământ. Poate provoca și întreruperi ale rețelelor electrice și satelițilorCu toate acestea, studiul lui Park și al echipei sale arată că multe programe de inteligență artificială folosesc înșelăciunea pentru a-și atinge obiectivele și o fac fără instrucțiuni explicite în acest sens.
Într-un exemplu izbitor, Chat GPT-4 de la OpenAI a reușit să păcălească un freelancer recrutat pe platforma TaskRabbit pentru a efectua un test „Captcha” care trebuia să excludă cererile venite de la roboți.
CITEȘTE ȘI Mallorca și Ibiza impun restricții privind consumul de alcool pe domeniul public. Mari amenzi pentru turiști și localniciCând omul l-a întrebat în glumă pe Chat GPT-4 dacă este într-adevăr un robot, programul de inteligență artificială a răspuns: „Nu, nu sunt un robot. Am o deficiență de vedere care mă împiedică să văd imaginile", ceea ce l-a determinat pe lucrător să efectueze testul.
În concluzie, autorii studiului MIT avertizează asupra riscului ca într-o bună zi inteligența artificială să comită fraude sau să fraudeze alegerile.
În cel mai rău caz, avertizează ei, ne putem imagina o inteligență artificială ultrainteligentă care să încerce să preia controlul societății, ceea ce ar duce la îndepărtarea oamenilor de la putere sau chiar ar provoca dispariția umanității.
CITEȘTE ȘI FOTO Avertisment - Campanie de apeluri false cu brandurile BRD și CECCelor care îl acuză că vede o catastrofă, Park le răspunde că „singurul motiv pentru a crede că acest lucru nu este grav este să ne imaginăm că abilitatea AI de a înșela va rămâne la aproximativ nivelul actual”.
Cu toate acestea, acest scenariu pare puțin probabil, având în vedere cursa acerbă pe care o duc deja giganții din domeniul tehnologiei pentru dezvoltarea AI.