Companii tehnologice majore, inclusiv Microsoft, Amazon și OpenAI, s-au reunit într-un acord internațional de referință privind siguranța inteligenței artificiale, la Summitul pentru Siguranța Inteligenței Artificiale de la Seul, transmite CNBC.
În cadrul acordului, companiile din diferite țări, inclusiv SUA, China, Canada, Regatul Unit, Franța, Coreea de Sud și Emiratele Arabe Unite, își vor lua angajamente voluntare pentru a asigura dezvoltarea în siguranță a celor mai avansate modele de AI.
Acolo unde nu au făcut acest lucru deja, producătorii de modele AI au fost de acord să publice cadre de siguranță care să stabilească modul în care vor măsura provocările modelelor lor de frontieră, cum ar fi prevenirea utilizării greșite a tehnologiei de către actori răi, scrie News.ro.
Aceste cadre vor include ”linii roșii” pentru firmele de tehnologie, care definesc tipurile de riscuri asociate cu sistemele AI de frontieră, care ar fi considerate ”intolerabile”.
Aceste riscuri includ, dar nu se limitează la, atacuri cibernetice automate și amenințarea armelor biologice. Pentru a răspunde unor astfel de circumstanțe extreme, companiile au spus că intenționează să implementeze un ”kill switch” (buton de închidere) care ar înceta dezvoltarea modelelor lor de AI dacă nu pot garanta atenuarea acestor riscuri.
”Este o premieră mondială să avem atât de multe companii de inteligență artificială de top din atât de multe părți diferite ale globului care acceptă aceleași angajamente în ceea ce privește siguranța inteligenței artificiale”, a declarat Rishi Sunak, prim-ministrul Regatului Unit, într-o declarație de marți.
El a adăugat că ”Aceste angajamente asigură că cele mai importante companii de inteligență artificială din lume vor oferi transparență și responsabilitate în planurile lor de dezvoltare a inteligenței artificiale sigure”.
Pactul de marți extinde un set anterior de angajamente luate de companiile implicate în dezvoltarea de software AI generativ, în noiembrie anul trecut.
Companiile au convenit să primească contribuții cu privire la aceste praguri din partea ”actorilor de încredere”, inclusiv a guvernelor lor de origine, după caz, înainte de a le pune în aplicare, înainte de următorul summit pentru AI planificat – Summit-ul AI Action din Franța – la începutul anului 2025.
CITEȘTE ȘI Declin al afacerilor Huawei în RomâniaAngajamentele convenite se aplică doar așa-numitelor modele de frontieră. Acest termen se referă la tehnologia din spatele sistemelor AI generative, cum ar fi familia GPT de modele mari de limbaj OpenAI, care alimentează popularul chatbot AI ChatGPT.
De când ChatGPT a fost introdus pentru prima dată în lume, în noiembrie 2022, autoritățile de reglementare și liderii tehnologici au devenit din ce în ce mai îngrijorați de riscurile legate de sistemele avansate de inteligență artificială capabile să genereze text și conținut vizual la egalitate sau mai bine decât oamenii.
Uniunea Europeană a încercat să restrângă dezvoltarea neîngrădită a IA prin crearea Legii AI, care a fost aprobată marți de Consiliul UE.
Cu toate acestea, Regatul Unit nu a propus legi oficiale pentru AI, ci a optat pentru o abordare ”permisivă” a reglementării AI, care cere autorităților de reglementare să aplice legile existente.
Guvernul a declarat recent că va lua în considerare legislația pentru modelele de frontieră în viitor, dar nu s-a angajat să respecte un calendar pentru introducerea legilor oficiale.