Pe măsură ce Inteligența Artificială avansează, apar și contestatarii ei. Unii cercetători ai subiectului lansează avertismente alarmante, alții o consideră un simplu instrument.
Realizatorul de podcasturi Lex Fridman a declarat într-un episod recent că majoritatea specialiștilor în domeniul AI cu care vorbește estimează că probabilitatea ca inteligența generală artificială să distrugă în cele din urmă umanitatea este între 1 și 20%, scrie G4Media.ro.
Predicția variază în funcție de modul în care întrebi, spune el. De exemplu, un studiu recent realizat cu 2.700 de cercetători în domeniul inteligenței artificiale a indicat că există doar 5% șanse ca inteligența artificială să ducă la dispariția oamenilor.
Dar Fridman a spus că este important să discutăm cu oamenii care estimează o probabilitate mult mai mare ca AI să elimine oamenii, scrie Business Insider.
Astfel l-a invitat la podcastul său pe cercetătorul în domeniul AI Roman Yampolskiy, care i-a oferit cel mai pesimist scenariu: 99,9% ca AI să distrugă umanitatea în următoarea sută de ani.
Cercetătorul în domeniul AI predă informatică la Universitatea din Louisville și tocmai a publicat o carte intitulată „AI: Unexplainable, Unpredictable, Uncontrollable”.
Podcastul a strâns în câteva zile peste o jumătate de milion de vizualizări.
El a discutat despre riscurile inteligenței artificiale timp de peste două ore în cadrul podcastului lui Fridman – iar previziunile sale au fost destul de sumbre.
El a spus că șansele ca AI să elimine omenirea depind de capacitatea oamenilor de a crea software extrem de complex, fără erori, în următorii 100 de ani.
Yampolskiy a spus că i se pare puțin probabil, deoarece niciun model de inteligență artificială nu a fost complet sigur.
„Au făcut deja greșeli”, a spus Yampolskiy.
Ce spune Chat GPT 4.0 despre probabilitatea ca AI să distrugă lumea
G4Media a adresat întrebarea ”Care este probabilitatea ca AI să distrugă umanitatea?” versiunii 4.0 a ChatGPT, considerat mai avansat decât versiunea sa anterioară.
Iată și răspunsul:
1. Stadiul Actual al Tehnologiei AI
AI nu este suficient dezvoltată în prezent. Tehnologiile AI disponibile astăzi sunt de obicei specializate pentru sarcini specifice (de exemplu, recunoașterea imaginilor, traducerea limbilor).
Aceste sisteme nu posedă inteligență generală sau capacități autonome de luare a deciziilor care ar putea duce la rezultate catastrofale de unele singure.
CITEȘTE ȘI TABEL Revin scumpirile. OMV Petrom a crescut prețul motorinei pentru prima dată în ultimele 3 luniAGI (Inteligență Artificială Generală): AGI se referă la sisteme AI cu capacitatea de a înțelege, învăța și aplica inteligența în diverse sarcini, similar cu inteligența umană.
Acest nivel de AI nu există încă și există provocări tehnice semnificative care trebuie depășite înainte de a putea fi realizat.
2. Scenarii de Risc
Utilizarea Abuzivă de Către Oameni: Unul dintre riscurile mai imediate este utilizarea abuzivă a AI de către oameni.
De exemplu, AI ar putea fi folosită pentru a crea arme autonome, a efectua atacuri cibernetice sau a manipula informații și economii. Această utilizare abuzivă ar putea duce la daune semnificative și instabilitate.
Problema Controlului: Dacă AGI este dezvoltată, asigurarea faptului că acționează în conformitate cu valorile umane și că nu urmărește obiective dăunătoare pentru umanitate este crucială.
Problema controlului implică proiectarea sistemelor AGI care sunt sigure și ale căror obiective rămân aliniate cu interesele umane.
Consecințe Neintenționate: Chiar și sistemele AI bine intenționate ar putea avea consecințe neintenționate dacă nu sunt controlate și înțelese corespunzător. De exemplu, un AI însărcinat cu optimizarea unui obiectiv specific ar putea lua măsuri extreme pentru a-l atinge, fără a ține cont de daunele colaterale.
3. Opiniile Experților
Optimiști: Unii experți cred că, prin dezvoltare atentă, reglementare și considerații etice, AI poate fi benefică și riscurile sale pot fi gestionate. Ei pledează pentru o guvernanță puternică, transparență și cooperare internațională.
Pesimiști: Alții avertizează că riscurile sunt prea mari, în special în cazul AGI. Figuri proeminente, cum ar fi Stephen Hawking și Elon Musk, și-au exprimat preocupările cu privire la riscurile existențiale pe care le prezintă AI, solicitând cercetări urgente în siguranța AI și cadre de reglementare robuste.
CITEȘTE ȘI ULTIMA ORĂ Consiliul Concurenței - inspecție la sediile a 14 companii IT. Posibile trucări ale unor licitații. "Printre cele mai ample inspecții pe care le-am derulat."4. Strategii de Atenuare
Cercetarea în Siguranța AI: Cercetarea în siguranța AI are ca scop dezvoltarea de metode pentru a asigura că sistemele AI sunt fiabile, controlabile și aliniate cu valorile umane.
Aceasta include dezvoltarea de cadre pentru alinierea valorilor, robustețea și transparența.
Ghiduri Etice: Stabilirea de ghiduri etice și standarde pentru dezvoltarea și implementarea AI poate ajuta la atenuarea riscurilor. Acestea includ principii precum corectitudinea, responsabilitatea și transparența.
Reglementare și Guvernanță: Guvernele și organismele internaționale recunosc tot mai mult necesitatea de reglementare pentru a gestiona riscurile AI.
Aceasta include politici pentru a preveni utilizarea abuzivă, a asigura siguranța și a promova utilizările benefice ale AI.
Concluzie
Șansele ca AI să distrugă lumea depind de mai mulți factori, inclusiv modul în care tehnologiile AI sunt dezvoltate, guvernate și controlate.
Deși riscul ca AI să cauzeze daune catastrofale nu este zero, este un risc care poate fi potențial atenuat prin măsuri proactive în cercetare, etică și politică.
Asigurarea dezvoltării și implementării sigure a AI este o responsabilitate colectivă care necesită cooperarea tehnologiștilor, factorilor de decizie politică și societății în ansamblu.