OpenAI a creat un comitet de siguranță și securitate condus de directori superiori, după ce și-a desființat anterior consiliul de supraveghere la jumătatea lunii mai. Compania a anunțat și că a început să antreneze noul său model de chatbot, transmite CNBC.
Noul comitet va recomanda consiliului de administrație al OpenAI ”decizii critice de siguranță și securitate pentru proiectele și operațiunile OpenAI”, a spus compania.
Vestea formării noului comitet vine în momentul în care dezvoltatorul asistentului virtual ChatGPT a anunțat că a început să-și antreneze ”modelul următor de frontieră”, scrie News.ro.
Firma a spus într-o postare pe blog că anticipează ”sistemele rezultate pentru a ne aduce la următorul nivel de capabilități pe drumul nostru către AGI” sau inteligența generală artificială, un tip de AI care este la fel de inteligentă sau mai inteligentă decât oamenii.
Pe lângă Altman, comitetul de siguranță va fi format din Bret Taylor, Adam D’Angelo și Nicole Seligman, toți membri ai consiliului de administrație al OpenAI, potrivit postării pe blog.
Formarea unei noi echipe de supraveghere vine după ce OpenAI a dizolvat o echipă anterioară care s-a concentrat pe riscurile pe termen lung ale AI.
Înainte de aceasta, ambii lideri de echipă, co-fondatorul OpenAI Ilya Sutskever și cercetătorul cheie Jan Leike, și-au anunțat plecările de la startupul susținut de Microsoft.
Leike a scris la începutul acestei luni că ”cultura și procesele de siguranță ale OpenAI au trecut pe planul din spate în fața produselor strălucitoare”.
CITEȘTE ȘI Grupul austriac Raiffeisen lansează în România o entitate IT. Hornbach și Mega Image au avut mișcări similareCa răspuns la plecarea sa, Altman a spus pe platforma de socializare X că este trist să-l vadă pe Leike plecând, adăugând că OpenAI are ”mult mai multe de făcut”.
În următoarele 90 de zile, grupul de siguranță va evalua procesele și garanțiile OpenAI și va împărtăși recomandările sale consiliului de administrație al companiei, se arată în postarea de pe blog.
OpenAI va oferi o actualizare cu privire la recomandările pe care le-a adoptat la o dată ulterioară. Siguranța AI a fost în prim-planul unei dezbateri mai ample, deoarece modelele uriașe care stau la baza aplicațiilor precum ChatGPT devin mai avansate. Dezvoltatorii de produse AI se întreabă, de asemenea, când va ajunge AGI și ce riscuri o vor însoți.