VIDEO Probabilitatea ca AI să distrugă umanitatea este 99,9% – Scenariul pesimist lansat de un cercetător american. Ce spune Chat GPT 4.0 despre riscurile Inteligenței Artificiale

VIDEO Probabilitatea ca AI să distrugă umanitatea este 99,9% – Scenariul pesimist lansat de un cercetător american. Ce spune Chat GPT 4.0 despre riscurile Inteligenței Artificiale
scris 17 iun 2024

Pe măsură ce Inteligența Artificială avansează, apar și contestatarii ei. Unii cercetători ai subiectului lansează avertismente alarmante, alții o consideră un simplu instrument.

Realizatorul de podcasturi Lex Fridman a declarat într-un episod recent că majoritatea specialiștilor în domeniul AI cu care vorbește estimează că probabilitatea ca inteligența generală artificială să distrugă în cele din urmă umanitatea este între 1 și 20%, scrie G4Media.ro.

Urmărește-ne și pe Google News
YouTube escaladează, din nou, lupta cu instrumentele adblock CITEȘTE ȘI YouTube escaladează, din nou, lupta cu instrumentele adblock
Evenimente

28 noiembrie - Profit Financial.forum

Predicția variază în funcție de modul în care întrebi, spune el. De exemplu, un studiu recent realizat cu 2.700 de cercetători în domeniul inteligenței artificiale a indicat că există doar 5% șanse ca inteligența artificială să ducă la dispariția oamenilor.

Dar Fridman a spus că este important să discutăm cu oamenii care estimează o probabilitate mult mai mare ca AI să elimine oamenii, scrie Business Insider.

Astfel l-a invitat la podcastul său pe cercetătorul în domeniul AI Roman Yampolskiy, care i-a oferit cel mai pesimist scenariu: 99,9% ca AI să distrugă umanitatea în următoarea sută de ani.

Cercetătorul în domeniul AI predă informatică la Universitatea din Louisville și tocmai a publicat o carte intitulată „AI: Unexplainable, Unpredictable, Uncontrollable”.

Podcastul a strâns în câteva zile peste o jumătate de milion de vizualizări.

El a discutat despre riscurile inteligenței artificiale timp de peste două ore în cadrul podcastului lui Fridman – iar previziunile sale au fost destul de sumbre.

El a spus că șansele ca AI să elimine omenirea depind de capacitatea oamenilor de a crea software extrem de complex, fără erori, în următorii 100 de ani.

Yampolskiy a spus că i se pare puțin probabil, deoarece niciun model de inteligență artificială nu a fost complet sigur.

„Au făcut deja greșeli”, a spus Yampolskiy.

Ce spune Chat GPT 4.0 despre probabilitatea ca AI să distrugă lumea

G4Media a adresat întrebarea ”Care este probabilitatea ca AI să distrugă umanitatea?” versiunii 4.0 a ChatGPT, considerat mai avansat decât versiunea sa anterioară.

Iată și răspunsul:

1. Stadiul Actual al Tehnologiei AI

AI nu este suficient dezvoltată în prezent. Tehnologiile AI disponibile astăzi sunt de obicei specializate pentru sarcini specifice (de exemplu, recunoașterea imaginilor, traducerea limbilor).

Aceste sisteme nu posedă inteligență generală sau capacități autonome de luare a deciziilor care ar putea duce la rezultate catastrofale de unele singure.

TABEL Revin scumpirile. OMV Petrom a crescut prețul motorinei pentru prima dată în ultimele 3 luni CITEȘTE ȘI TABEL Revin scumpirile. OMV Petrom a crescut prețul motorinei pentru prima dată în ultimele 3 luni

AGI (Inteligență Artificială Generală): AGI se referă la sisteme AI cu capacitatea de a înțelege, învăța și aplica inteligența în diverse sarcini, similar cu inteligența umană.

Acest nivel de AI nu există încă și există provocări tehnice semnificative care trebuie depășite înainte de a putea fi realizat.

2. Scenarii de Risc

Utilizarea Abuzivă de Către Oameni: Unul dintre riscurile mai imediate este utilizarea abuzivă a AI de către oameni.

De exemplu, AI ar putea fi folosită pentru a crea arme autonome, a efectua atacuri cibernetice sau a manipula informații și economii. Această utilizare abuzivă ar putea duce la daune semnificative și instabilitate.

Problema Controlului: Dacă AGI este dezvoltată, asigurarea faptului că acționează în conformitate cu valorile umane și că nu urmărește obiective dăunătoare pentru umanitate este crucială.

Problema controlului implică proiectarea sistemelor AGI care sunt sigure și ale căror obiective rămân aliniate cu interesele umane.

Consecințe Neintenționate: Chiar și sistemele AI bine intenționate ar putea avea consecințe neintenționate dacă nu sunt controlate și înțelese corespunzător. De exemplu, un AI însărcinat cu optimizarea unui obiectiv specific ar putea lua măsuri extreme pentru a-l atinge, fără a ține cont de daunele colaterale.

3. Opiniile Experților

Optimiști: Unii experți cred că, prin dezvoltare atentă, reglementare și considerații etice, AI poate fi benefică și riscurile sale pot fi gestionate. Ei pledează pentru o guvernanță puternică, transparență și cooperare internațională.

Pesimiști: Alții avertizează că riscurile sunt prea mari, în special în cazul AGI. Figuri proeminente, cum ar fi Stephen Hawking și Elon Musk, și-au exprimat preocupările cu privire la riscurile existențiale pe care le prezintă AI, solicitând cercetări urgente în siguranța AI și cadre de reglementare robuste.

ULTIMA ORĂ Consiliul Concurenței - inspecție la sediile a 14 companii IT. Posibile trucări ale unor licitații. \ CITEȘTE ȘI ULTIMA ORĂ Consiliul Concurenței - inspecție la sediile a 14 companii IT. Posibile trucări ale unor licitații. "Printre cele mai ample inspecții pe care le-am derulat."

4. Strategii de Atenuare

Cercetarea în Siguranța AI: Cercetarea în siguranța AI are ca scop dezvoltarea de metode pentru a asigura că sistemele AI sunt fiabile, controlabile și aliniate cu valorile umane.

Aceasta include dezvoltarea de cadre pentru alinierea valorilor, robustețea și transparența.

Ghiduri Etice: Stabilirea de ghiduri etice și standarde pentru dezvoltarea și implementarea AI poate ajuta la atenuarea riscurilor. Acestea includ principii precum corectitudinea, responsabilitatea și transparența.

Reglementare și Guvernanță: Guvernele și organismele internaționale recunosc tot mai mult necesitatea de reglementare pentru a gestiona riscurile AI.

Aceasta include politici pentru a preveni utilizarea abuzivă, a asigura siguranța și a promova utilizările benefice ale AI.

Concluzie

Șansele ca AI să distrugă lumea depind de mai mulți factori, inclusiv modul în care tehnologiile AI sunt dezvoltate, guvernate și controlate.

Deși riscul ca AI să cauzeze daune catastrofale nu este zero, este un risc care poate fi potențial atenuat prin măsuri proactive în cercetare, etică și politică.

Asigurarea dezvoltării și implementării sigure a AI este o responsabilitate colectivă care necesită cooperarea tehnologiștilor, factorilor de decizie politică și societății în ansamblu.

viewscnt
Afla mai multe despre
chat gpt
ai