OpenAI dizolvă echipa concentrată pe riscurile pe termen lung ale AI, la mai puțin de un an de la anunțarea acesteia

OpenAI dizolvă echipa concentrată pe riscurile pe termen lung ale AI, la mai puțin de un an de la anunțarea acesteia
scris 19 mai 2024

OpenAI și-a desființat echipa concentrată pe riscurile pe termen lung ale inteligenței artificiale, la doar un an după ce compania a anunțat formarea acesteia, a confirmat vineri o sursă familiarizată cu situația, pentru CNBC.

Persoana, care a vorbit sub rezerva anonimatului, a spus că unii dintre membrii echipei sunt reatribuiți în mai multe alte echipe din cadrul companiei.

Urmărește-ne și pe Google News
Un fermier olandez produce prima înghețată din lume din lapte de porc CITEȘTE ȘI Un fermier olandez produce prima înghețată din lume din lapte de porc
Evenimente

28 noiembrie - Profit Financial.forum

Vestea vine la câteva zile după ce ambii șefi de echipă, cofondatorul OpenAI Ilya Sutskever și Jan Leike, și-au anunțat plecarea de la startupul susținut de Microsoft, scrie News.ro.

Leike a scris vineri că ”cultura și procesele de siguranță ale OpenAI au trecut pe planul din spate, comparativ cu produsele strălucitoare”.

Știrea a fost publicată pentru prima dată de Wired.

Echipa de Superalignment a OpenAI, anunțată anul trecut, s-a concentrat pe ”descoperiri științifice și tehnice pentru a conduce și controla sistemele AI mult mai inteligente decât noi”. La acea vreme, OpenAI a spus că va dedica 20% din puterea sa de calcul inițiativei, pe parcursul a patru ani.

Sutskever și Leike și-au anunțat marți plecările pe X, la o distanță de ore, dar vineri Leike a împărtășit mai multe detalii despre motivul pentru care a părăsit startupul.

”!M-am alăturat pentru că am crezut că OpenAI ar fi cel mai bun loc din lume pentru a face această cercetare. Cu toate acestea, nu sunt de acord de ceva timp cu conducerea OpenAI cu privire la prioritățile de bază ale companiei, până când am ajuns la un punct de rupere”, a scris Leike pe X.

Leike a scris că consideră că această companie ar trebui să se concentreze mai mult mai mult pe securitate, monitorizare, pregătire, siguranță și impact societal.

„Swiftonomics” sau cum poate fi influențată economia Europei de turneul artistei Taylor Swift, la fel cum s-a întâmplat în SUA CITEȘTE ȘI „Swiftonomics” sau cum poate fi influențată economia Europei de turneul artistei Taylor Swift, la fel cum s-a întâmplat în SUA

”Aceste probleme sunt destul de greu de rezolvat și sunt îngrijorat că nu suntem pe o traiectorie pentru a ajunge acolo. În ultimele luni, echipa mea a navigat împotriva vântului. Uneori ne luptam pentru calcule și era din ce în ce mai greu să facem această cercetare crucială”, a scris el.

Leike a adăugat că OpenAI trebuie să devină ”o companie AGI pe primul loc în siguranță”.

”Construirea unor mașini mai inteligente decât oamenii este un efort în mod inerent periculos. OpenAI își asumă o responsabilitate enormă în numele întregii umanități. Dar, în ultimii ani, cultura și procesele de siguranță au trecut pe planul din spate comparativ cu produsele strălucitoare”, a scris el.

Leike nu a răspuns imediat la o solicitare de comentariu, iar OpenAI nu a oferit imediat un comentariu.

Plecările importante au loc la câteva luni după ce OpenAI a trecut printr-o criză de conducere, care l-a implicat pe cofondatorul și CEO-ul Sam Altman.

viewscnt
Afla mai multe despre
openai
ai