Cel de-al treilea summit mondial privind inteligența artificială (IA) și șansele modelului european în materie

Legal   
Cel de-al treilea summit mondial privind inteligența artificială (IA) și șansele modelului european în materie

Autor: Prof. univ. dr. Mircea Duțu, Director emerit al Institutului de Cercetări Juridice al Academiei Române, Președintele Universității Ecologice din București

În perioada 10-11 februarie 2025, la Grande Palais din Paris, se va desfășura Summitul pentru acțiune privind Inteligența Artificială (AI Action Summit) menit, potrivit dorinței organizatorilor, „să pună Franța și Europa pe harta mondială a IA”. Și-au anunțat participarea, printre liderii politici ce vor fi prezenți, vicepreședintele SUA  J.D. Vance, primul-ministru al Indiei Narendra Modi, vicepremierul chinez Ding Xuexiang, președinta Comisiei Europene Ursula von der Leyen ori cancelarul german Olaf Scholz. Vor lua parte, de asemenea, mari nume ale tech american, precum Sam Altman, patronul Open AI, Sundar Pichai (Google), Demis Hassabis, pionier al IA și director al Google Deepmind ori Dario Amodei de la Anthropic. Până în ultimul moment persistă incertitudinea prezenței proprietarului X, Elon Musk, și cea a  fondatorului start-upului chinez DeepSeek, Liang Wenfeng. Nu în ultimul rând și-au confirmat prezenta și reprezentanți ai unor organizații internaționale, precum A. Guterres, Secretarul general al ONU și M. Cormann, Secretarul general al OCDE. Obiectivul afișat de președinția franceză, care pilotează evenimentul: ieșirea din dependența Chinei și a SUA. Dincolo de rolul de „conversație mondială, pentru a valorifica cuvântul Europei, precum și al tuturor celorlalți actori mondiali”, se dorește crearea unui „Parteneriat global privind IA”, menit să „dea un cadru comun de norme” și de promovare a unei IA „durabile, care respectă muncitorii și creatorii”.

Urmărește-ne și pe Google News

1. În mod evident, inteligența artificială e mai mult decât o clasică revoluție tehnologică și industrială. Ea implică transformări infinit mai radicale, lăsând să se întrevadă profunde schimbări în societate, în raporturile cu cunoașterea, munca, informația, cultura și chiar la nivelul limbajului. În plus, nu întâlnește frontiere. Dintr-o atare perspectivă, IA devine o miză științifică, economică, cultural-științifică, politică și chiar cetățenească ce necesită un dialog intens și adecvat între state, cercetători, întreprinderi, creatori și societatea civilă. Aceste schimburi de idei, abordări și puncte de vedere ar trebui să permită societății să se adapteze și să se pregătească în manieră de cooperare pentru evoluțiile antrenate și provocările generate de IA. Prin prisma unor asemenea considerente, Franța și-a justificat găzduirea, la Paris, între 10 și 11 februarie 2025, a Summitului pentru Acțiunea privind IA, într-o copreședinție  cu India. Respectiva întâlnire internațională va aduna reprezentanți la vârf din mai bine 80 de state și peste 1000 de actori ai sectorului privat și societății civile interesați de această complexă problematică, de pe toate continentele. Invitații provin din orizonturi foarte diferite și poartă fiecare un angajament și o contribuție puternice în favoarea obiectivelor urmărite de conferință.

Dacă cele două summituri anterioare pe această temă au vizat mai ales evaluarea pericolelor aferente beneficiilor aduse de noile tehnologii (primul, din noiembrie 2023 de la Londra) sau asupra securității, inovării și incluziunii (secundul, din Coreea de Sud, din mai 2024), cel din Hexagon urmărește o perspectivă mai pozitivă, punând accentul pe șansele de progres și valorificarea lor  în beneficiu cât se poate mai general. Potrivit concepției organizatorilor, în acest context se acordă prioritate dezbaterii chestiunilor ce se ridică pentru toți – cetățeni și utilizatori din întreaga lume, start-upuri, precum și mari grupuri, cercetători și decidenți, artiști și media – care sunt și rămân simple, respectiv:

– cum să dezvoltăm masiv tehnologiile și utilizările IA în ansamblul țărilor lumii?

– cum să reușim virajul IA, fără a lăsa pe nimeni la o parte și prezervându-ne libertățile noastre?

– cum să facem așa încât utilizările IA să corespundă valorilor umaniste și ca această tehnologie să poată fi pusă în serviciul colectiv și al interesului general?

Miza principală declarată e aceea de a elabora un cadru de încredere partajat pentru a nu atrage decât oportunitățile noilor tehnologii, precum și a permite IA să-și realizeze promisiunea inițială de progres și emancipare. Cu precizarea că, mai ales în împrejurările tensionate și confuze din ultima perioadă privind reașezările geostrategice ale ordinii tehnologice, summitul e prevăzut ca un cadru și o oportunitate pentru Franța și Uniunea Europeană (UE) în general spre a-și manifesta în mod clar viziunea angajată în favoarea unui progres deschis și inclusiv al IA, dar și a unei abordări suverane și de independență strategică față de o tehnologie absolut critică pentru societățile și economiile noastre.

2. În „avanpremiera” evenimentului politico-diplomatic și cultural-științific s-au produs alte două momente semnificative pentru domeniu: publicarea primului raport internațional în materie de IA privind securitatea acesteia și, respectiv, intrarea în aplicare, la 2 februarie 2025, a unei părți importante din Regulamentul (UE) 2024/1689 al Parlamentului și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (Regulamentul sau RIA ori AI Act).

2.1. La 29 ianuarie a.c. s-a publicat primul raport internațional privind securitatea IA (The International AI Safety Report), rod al colaborării unui grup de 96 experți internaționali, coordonat de profesorul canadian Joshua Bengio (premiul Turing 2018), și care vine să pună bazele unei înțelegeri partajate a riscurilor prezentate de sistemele de IA. Inspirat din activitatea și experiențele Grupului interguvernamental de experți privind evoluția climei (IPCC) al ONU, documentul e menit să contribuie la clarificarea discuțiilor asupra temelor aferente Summitului pentru acțiunea privind IA. În timpul primului summit privind securitatea IA din noiembrie 2023, 30 de state au convenit să stabilească o înțelegere științifică și factuală comună a riscurilor tehnologiilor bazate pe IA de vârf, grație elaborării unui raport internațional, independent și incluziv asupra riscurilor și capacităților aplicațiilor tehnologice ale inteligenței artificiale. Grupul de cercetători este prezidat de J. Bengio, o personalitate a domeniului, fondator și director științific al MILA, Institutul pentru IA din Quebec (Canada). El a fost unul din semnatarii scrisorii prin care se cerea un moratoriu în dezvoltare a marilor modele de fondare și a făcut parte dintre militanții pentru o încadrare juridică strictă a IA în Europa, în amonte de AI Act (2024). La cel de-al doilea summit, desfășurat la Seul (2024), s-a prezentat o primă versiune provizorie a raportului, care furnizează o sinteză completă a literaturii existente asupra riscurilor și capacităților modelelor de IA de vârf. El rezumă probele științifice asupra a trei chestiuni fundamentale: ce poate face IA de uz general; care sunt riscurile asociate IA de uz general? care sunt tehnicile de atenuare împotriva acestor riscuri?

După cum e cunoscut, sistemele de IA de uz general, capabile să efectueze o mare varietate de sarcini, progresează cu o viteză inedită, copleșitoare pentru experiențele de până acum. Ele pot nu numai să scrie programe complexe și să detecteze vulnerabilitățile  cibernetice, ci ating și performanțe comparabile celor ale experților umani în științe fundamentale. Aceste avansuri sunt însoțite, în același timp, de noi riscuri. Redactat de experți proeminenți din peste 30 de state, ONU, UE și OCDE, raportul identifică trei categorii principale de amenințări: a) riscuri de utilizare malefică, incluzând atacuri cibernetice, propagarea de dezinformare ori conceperea de arme biologice facilitate de IA; b) disfuncționalități  sistemice, precum prejudecățile algoritmice, erorile de fiabilitate și pierderi de control asupra sistemelor autonome; c) riscurile sistemice, relative la impactul economic și social al IA, în special asupra locurilor de muncă, protecției datelor personale și mediu.

Mizele cheie ale ecuației sunt considerate transparența și guvernanța. În privința celei dintâi, una din recomandările relevante ale raportului se referă la importanța sa. A înțelege mai bine cum modelele de IA adoptă deciziile lor devine o miză fundamentală pentru a preveni abuzurile și a întări încrederea publicului. Viitorul securității IA depinde de alegerile politice ce vor fi făcute. Cercetătorii pun în gardă împotriva unei abordări de genul așteaptă-și-vezi și încurajează guvernele să adopte măsuri proactive.

În același timp, se constată că, deși capacitățile de IA de uz general au crescut considerabil în ultima perioadă și prezintă un mare potențial pentru societate, IA comportă și riscuri importante ce trebuie să fie gerate cu grijă de guvernele din lumea întreagă. Pentru aceasta, autorii raportului se pronunță pentru o cooperare internațională întărită în scopul elaborării de standarde de securitate și de mecanisme de supraveghere și de control eficiente. În mod concret se apreciază că „Dat fiind că impactul IA de uz general se manifestă asupra a numeroase aspecte ale vieții, e susceptibil să fie profund și că progresele ar putea să fie rapide, e urgent să se acționeze spre un acord internațional și stabilirea de măsuri apropriate”. În același timp, a parveni la un consens mondial rămâne o provocare. „Recunoscându-se persistența unor dezacorduri în privința unei problematici atât de complexe, raportul consideră ca esențială ameliorarea înțelegerii colective a IA de uz general și a riscurilor sale potențiale și pentru a ne apropia de un consens și de o atenuare eficientă a riscurilor, în scopul de a garanta că umanitatea poate să profite în deplină securitate de avantajele IA de uz general.

2.2. Hazard al calendarului, cum nota presa franceză, numai cu puține zile înainte de Sommet pour l’action sur l’intelligence artificielle (IA), la 2 februarie 2025 au intrat în aplicare primele măsuri ale Regulamentului (UE) privind IA: capitolele I („Dispoziții generale”) și II („Practici interzise în domeniul IA”). Într-adevăr, potrivit prevederilor art. 113, deși intrat în vigoare la 1 august 2024 (în a douăzecea zi de la data publicării în „Jurnalul Oficial” al Uniunii Europene), Regulamentul devine operațional în mod treptat. După prima etapă menționată mai sus, va urma cea de la 2 august 2025, de când se vor aplica: capitolul III secțiunea 4, capitolul V, capitolul VII, capitolul XII și articolul 78 și, în fine, cea de-a treia și ultima, la 2 august 2027, vizând articolul 6 alineatul (1) și obligațiile corespunzătoare aferente. Cu precizarea că, precum oricare alt act legislativ unional-european de această natură juridică, și RIA este obligatoriu în toate elementele sale și se aplică direct în toate statele membre.

Desigur, punerea în aplicare a textului juridic cel mai complex și cel mai ambițios din lume în materie de reglementare a IA va fi progresivă și va face, în unele privințe, încă obiect de dezbateri, chiar de contestări. Atari chestiuni  nu vor lipsi din a fi evocate și în cadrul Summitului IA, mai ales având în vedere că la reuniune vor fi  prezenți responsabili majori ai celor „trei imperii” de reglementare a nilor tehnologii, SUA, China și UE, dar și cei ai giganților tech.

Concret, începând cu 2 februarie a.c. sunt interzise anumite utilizări ale IA considerate ca inacceptabile de AI Act, printre care softurile de „notație socială” private ori publice, precum cele utilizate în China și IA de „poliție predictivă, individuală”, vizând a „profila” persoanele, estimând propensiunea lor de a comite infracțiuni. Dar la fel și „recunoașterea emoțiilor” la locul de muncă ori la școală, pentru a analiza comportamentul unui angajat sau al unui elev. De asemenea, sunt înlăturate „exploatarea vulnerabilităților persoanelor, manipularea ori tehnicile subliminale”. În fine, identificarea persoanelor prin recunoașterea facială în timp real în spațiul public, precum și categorisirea biometrică a acestora spre a fi deduse „rasa, opiniile lor politice, religioase, orientarea sexuală ori apartenența sindicală”. Anumite excepții sunt, totuși, prevăzute pentru forțele de ordine. În același timp, așa cum am menționat, anumite părți ale textului nu vor fi aplicate în practică decât mai târziu: la 2 august 2025 cele pentru modelele de IA „de uz general”, precum marile modele de generare de texte ori de imagini ce servesc ca bază utilizării de către întreprinderi. Acestea vor fi ținute să respecte obligațiile de transparență asupra documentației tehnice și a datelor lor de antrenament. În plus, respectivele modele vor fi supuse auditurilor de securitate privind riscurile, în special cibernetice. În 2027 vor deveni aplicabile reglementările referitoare la utilizările de IA considerate „cu grad ridicat de risc” în infrastructurile electrice, de apă și de drumuri, în educație și formare, la locurile de muncă și în întreprinderi (în special în managementul algoritmic), în bănci ori asigurări (în special pentru acordarea prețurilor sau contractelor), în justiție, poliție, gestiunea imigrării ori proceselor democratice etc. Implementatorii de program vor fi ținuți să realizeze evaluări ale riscurilor, în special privind erorile și prejudecățile.

Pentru punerea în aplicare a AI Act, Bruxellesul  va dispune de o nouă entitate, Oficiul pentru IA, și se va sprijini pe autorități naționale competente.

În pofida unor atari măsuri, RIA cunoaște încă o serie de obstacole în aplicarea deplină a prevederilor sale, în frunte cu operaționalizarea dispoziției sale, cea mai controversată rămânând publicarea unui „rezumat suficient de detaliat” al conținuturilor utilizate pentru antrenarea marilor modele, care face încă obiectul unor intense dezbateri. Măsura opune întotdeauna titularii de drepturi din domeniul culturii sau al presei, care doresc să știe dacă operele lor, cărțile, articolele, fotografiile, ilustrațiile, filmele ori documentarele au fost utilizate fără compensație, iar fabricanții de IA invocă „secretul afacerilor” menționat în text. O incertitudine persistă și asupra naturii datelor de furnizat.

În același context, nu putem ignora presiunile din ultimul timp ale giganților digitali americani, susținuți acum puternic de puterea politică de la Casa Albă, care denunță reglementarea, în favoarea unei libertăți absolute a inovației, într-o concurență geotehnologică majoră. În același timp, nu se poate face abstracție de „reacția chineză”, ieșirea pe piață a ultimului model DeepSeek R1, generând o undă de șoc pe bursele financiare, surprinzând actorii sectorului și analiștii prin capacitatea sa de a egala performanțele IA generative de până acum pentru un cost mult inferior.

În Europa, o serie de comisii naționale de protecție a datelor (precum cea irlandeză și cea franceză) au cerut deja informații întreprinderii chineze de producere a DeepSeek spre elucidarea implicațiilor  pertinente.

3. Franța și europenii în general vor face din modelele de IA din sursă deschisă una din problemele prioritare ale dezbaterilor Summitului IA de la Paris. Și aceasta cu atât mai mult cu cât DeepSeek, lansat la 27 ianuarie a.c., a însemnat nu numai o puternică lovitură aplicată bursei de profil, ci a impus și chestiunea modelelor zise „deschise”, ceea ce înseamnă că acestea pot fi utilizate, modificate și construite în mod gratuit, ceea ce devine primordial pentru comunitatea open source. Echilibrul de putere pare acum a se deplasa potrivit a două axe: una între SUA și China, alta între modelele închise și cele deschise. Acestea din urmă aduc speranța unei alte căi în fața dominației sectorului de către giganții digitalului american, care au evoluat, în numele rentabilizării investițiilor, spre modele închise, ale căror detalii sunt opace, proprietarii privați și cu acces exclusiv plătit. IA deschisă permite astfel, cel puțin în teorie, întreprinderilor și administrațiilor să controleze tehnologia. Obținând performanțe similare, cu mai puține calcule informatice și deci cu un consum mai redus de energie și de resurse, altfel spus devin și mai prietenoase cu mediul. În spatele acestui start-up și al preconizatului summit privind IA se ascunde miza unei IA mai deschise și mai sobre. Dar ea singură, ca atare, nu prezintă garanția deplină în acest sens. În cadrul forului, partizanii săi vor prezenta o atare deschidere ca o alternativă la tech giganților digitali americani. Ea e susținută de Hugging Face ori Mistral, fondată de francezi, cât și de mastodontul american Meta. Organizatorii summitului speră ca problema să figureze în declarația finală a reuniunii mondiale și să lanseze o fundație dotată cu un capital social inițial de 2,5 miliarde de euro, pentru a crea modele, instrumente de securizare ori baze de date deschise pentru antrenamentul de IA. Se speră că inițiativa se va bucura de susținerea Chinei și a țărilor în curs de dezvoltare. Interesante sunt și așteptările din partea reacțiilor americane la această provocare, știut fiind faptul că și peste ocean se găsesc partizani ai acestei abordări și ai little tech, o expresie utilizată pentru a desemna start-up în fața giganților Big Tech. În fine, promovarea, precum prin DeepSeek, a deschiderii nu garantează o IA etică; modelele respective nu sunt cu adevărat open source, întrucât nu-și publică datele de antrenament și înfrâng potențial dreptul de autor. Poate tocmai de aceea Hugging Face caută să creeze o replică „mai deschisă” a modelelor de DeepSeek.

4. În același context al pregătirilor și sublinierilor semnificațiilor Sommet pour l’action sur l’intelligence artificielle (IA), Franța s-a dotat, la 31 ianuarie a.c., cu un Institut Național pentru Evaluarea și Securitatea Inteligenței Artificiale (INESIA) având ca obiect „analiza riscurilor sistemice în câmpul securității naționale, susținerea aplicării reglementării IA și evaluarea performanței și a fiabilității modelelor de IA”. Noua structură e plasată în coordonarea Secretariatului general al apărării și securității naționale (SGDSN) și a Direcției generale a întreprinderilor (DGE) a Ministerului Economiei și Finanțelor. Măsura instituțională e considerată o „etapă decisivă” pentru a plasa Franța printre liderii mondiali ai IA și e concepută mai degrabă ca o entitate de control și mai puțin una de reglementare propriu-zisă.

Prin crearea acestui institut, Parisul se alătură cercului, deocamdată restrâns, al țărilor care s-au dotat cu organisme similare, printre care se află Australia, Canada, SUA, Japonia, Marea Britanie, Singapore și Coreea de Sud. Este vorba și în această privință de un demers de anvergură internațională, care se înscrie „priorităților stabilite în mai 2024 prin Declarația de la Seul pentru o IA sigură, novatoare și inclusivă”.

5. Evenimentul se vrea a deveni cadrul de exprimare fermă a poziției europene în materie de IA, a unei abordări unice, creative și responsabile în domeniul digitalului, combinând inovația și reglementarea în beneficiul cetățenilor. În plus, Europa are o voce singulară de adus în privința răspunsurilor la marile provocări mondiale, care necesită o abordare solidară. De precizat că Franța co-prezidează summitul cu India, iar programul său a fost pregătit de un comitet de pilotaj format din reprezentanți ai 30 de state și instituții internaționale, precum și din cei ai lumii universitare, întreprinderilor și societății civile, care s-au reunit de cinci ori în acest cop. Peste 800 de participanți (parteneri publici și privați, cercetători, ONG, proveniți de pe cinci continente) au participat la cinci grupuri de contact, întrunite periodic după vara anului 2024. De asemenea, au fost organizate cinci reuniuni ale societății civile cu participarea a peste 500 de ONG. De-a lungul întregului proces de pregătire a Summitului IA, Uniunea Europeană s-a mobilizat în mod deosebit prin contribuții în cadrul tuturor instanțelor organizatorice aferente. Din această perspectivă, reuniunea va fi și reflectarea unei abordări europene echilibrate asupra problematicii în cauză, articulând susținerea inovației, încadrarea adecvată și respectarea drepturilor, dezvoltarea acestei tehnologii în beneficiul tuturor și în special al țărilor în curs de dezvoltare.

Participarea europeană a Summitului se prefigurează în jurul unor axe esențiale ale dezvoltării unei tehnologii asupra căreia UE trebuie să păstreze controlul grație (1) talentelor și centrelor de cercetare-dezvoltare de vârf, stabilind o strategie europeană de atractivitate asumată; (2) o gestiune riguroasă și compatibilă a datelor în serviciul dezvoltării IA; (3) mijloace dedicate pentru întărirea savoire-faire-ului emergent al liderilor mondiali; (4) o coaliție a întreprinderilor europene care se angajează și deschid calea spre a face o zonă de incubație și de dezvoltare veritabilă a viitorilor actori performanți, diferențiați și care să devină campionii internaționali de mâine în domeniul IA.

În fine, Uniunea Europeană e parte directă la Summit, cu titlul programului Europa digitală, care contribuie la organizarea sa.

Nu în ultimul rând, să mai notăm că este pentru prima dată când un summit internațional privind IA integrează o componentă culturală.

Posibile concluzii. Într-o atmosferă generală marcată de anunțul SUA a 500 miliarde de dolari investiți în infrastructuri și unda de șoc chineză a IA generative DeepSeek, Summitul IA de la Paris dezbate mai ales mizele strategice legate de dezvoltarea și reglementarea IA la nivel mondial.

Apelul a 100 de ONG (printre care Amnesty International și Liga Drepturilor Omului) adresat forumului, la 4 februarie a.c., se pronunța pentru „Un cadru obligatoriu, elaborat în mod democratic, într-o perspectivă de solidaritate internațională și cu comunitățile cele mai afectate, care plasează drepturile umane și justiția de mediu în centrul reglementării IA”. Dacă organizatorii speră la punerea pe harta IA a lumii a Europei, în plan mai larg se urmărește consolidarea acțiunii internaționale în favoarea unei inteligențe artificiale în serviciul interesului general, ceea ce presupune o cooperare internațională susținută și o reglementare în primul rând interstatală, dar cu participarea tuturor actorilor implicați, menită să stimuleze inovarea și să securizeze societatea și persoanele față de riscurile și amenințările noilor tehnologii.

Permanentizarea, cu frecvență anuală a summiturilor privind IA, anvergura în creștere a participării și greutatea și actualitatea subiectelor abordate denotă începuturile unei instituționalizări a cooperării în domeniu. Crearea unui grup de lucru cu caracter permanent de evaluare a riscurilor și securității IA, cu corespondente naționale tot mai numeroase, dialogul consistent state-întreprinderi-cercuri științifice-societate civilă converg spre cristalizarea unei baze ideatice adecvate, de date și informații menite să fundamenteze perspectivele acțiunii practico-reglementare. În același context de similitudini cu procesul de structurare a răspunsului global la provocarea schimbării climatice, nu ar fi lipsită de interes inițierea recunoașterii unui principiu al neregresiunii măsurilor de păstrare a controlului uman asupra și de protecția a drepturilor umane față de efectele aplicațiilor IA.

Emergența, pe acest fundal, a poziționărilor geotehnologice, tendințelor de cooperare și confruntare reflectă consolidarea multilateralului IA și nevoia încheierii unui acord global în materie, pe bază de angajamente voluntare, dar cu vocație universală.

Desigur, rezultatele sale, imediate și de perspectivă, rămân a se vedea!

Un material Legal Marketing

viewscnt
Afla mai multe despre
mircea duțu
inteligența artificială