OpenAI recunoaște că noul său model de inteligență artificială crește semnificativ riscul de a fi utilizat pentru crearea armelor biologice, radiologice sau nucleare

OpenAI recunoaște că noul său model de inteligență artificială crește semnificativ riscul de a fi utilizat pentru crearea armelor biologice, radiologice sau nucleare
Profit.ro
Profit.ro
scris luni, 20:37

OpenAI recunoaște că noul său model de inteligență artificială (o1) crește semnificativ riscul de a fi utilizat pentru crearea armelor biologice, radiologice sau nucleare. Experții avertizează că modelul avansat poate servi persoanelor rău intenționate.

Noul model de inteligență artificială, numit o1, lansat recent de OpenAI, este considerat că prezintă “un risc mediu” în a fi folosit pentru crearea de arme biologice, radiologice sau nucleare, deoarece tehnologia a “îmbunătățit semnificativ” capacitatea experților din domeniu. Este cel mai înalt grad de alertă pe care compania americană îl acordă unui model de-al său, arată BiziDay

Urmărește-ne și pe Google News
YouTube va afișa reclame și în pauze CITEȘTE ȘI YouTube va afișa reclame și în pauze
Evenimente

24 septembrie - Eveniment News.ro – ROINVEST - Ediția a V-a. Parteneri: ACUE, ARB, CEC Bank, ROCA, TeraPlast
30 septembrie - Eveniment Profit.ro e-commerce – Provocările creșterii pe o piață cu concurență tot mai dură - Ediția a V-a. Parteneri: ARB, CEC Bank, ContentSpeed, eMag
7 octombrie - Eveniment Profit Energy.forum - Ediția a VIII-al Parteneri: ACUE, Electrica Furnizare, Raiffeisen Bank
5 noiembrie - Gala Profit – Povești cu Profit... Made in Romania. Parteneri: ARB, CEC Bank, Garanti BBVA, Raiffeisen Bank, Philip Morris Romania

Potrivit FT, fișa tehnică a o1 (documentul care explică modul său de funcționare) arată că modelul poate asista specialiștii din domeniul CBRN (cei ce se ocupă cu agenții chimici, biologici, radiologici și nucleari), oferindu-le informații esențiale, cum ar fi detalii despre furnizori specifici sau planurile de distribuție, ceea ce ar putea facilita crearea unor amenințări.

Experții au avertizat că, odată cu avansarea modelelor AI, crește exponențial și riscul de utilizare abuzivă, în scopuri rău intenționate, și au cerut reglementări care să reducă pericolele. În California, un proiect de lege (SB 1047) ar putea obliga dezvoltatorii celor mai avansate modele AI să ia măsuri pentru a preveni utilizarea inteligenței artificiale în crearea de arme biologice.

Directorul tehnologic al OpenAI a declarat pentru Financial Times că compania este deosebit de precaută în privința modului în care introduce o1 pe piață, având în vedere capacitățile sale avansate. A precizat că modelul a fost testat de experți în diferite domenii științifice, care au evaluat că nu reprezintă riscuri crescute dincolo de ceea ce este deja posibil cu resursele existente.

Lidl se extinde în România CITEȘTE ȘI Lidl se extinde în România

OpenAi a dezvăluit joi modelul o1, despre care a spus că este conceput să rezolve probleme mult mai complexe, din numeroase domenii, precum logică, IT sau matematică, deși va avea nevoie de un timp mai lung de procesare a răspunsurilor. Va fi disponibil la scară largă pentru abonații ChatGPT, începând de săptămâna viitoare.

viewscnt
Afla mai multe despre
openai
inteligență artificială