Oficial canadian: Hackerii și propagandiștii folosesc inteligența artificială pentru a crea software rău intenționat

Oficial canadian: Hackerii și propagandiștii folosesc inteligența artificială pentru a crea software rău intenționat
scris 23 iul 2023

Hackerii și propagandiștii folosesc inteligența artificială (AI) pentru a crea software rău intenționat, pentru a redacta e-mailuri convingătoare de phishing și pentru a răspândi dezinformarea online, a declarat pentru agenția Reuters, citată de News.ro, principalul oficial pentru securitate cibernetică din Canada, acestea fiind dovezi timpurii că revoluția tehnologică care a cuprins Silicon Valley a fost adoptată și de infractorii cibernetici. 

Într-un interviu din această săptămână, șeful Centrului Canadian pentru Securitate Cibernetică, Sami Khoury, a declarat că agenția sa a văzut că AI este folosită ”în e-mailuri de phishing sau în crearea de e-mailuri într-un mod mai concentrat, în coduri rău intenționate (și) în dezinformare și dezinformare”.

Urmărește-ne și pe Google News

Khoury nu a oferit detalii sau dovezi, dar afirmația sa conform căreia infractorii cibernetici foloseau deja inteligența artificială adaugă o notă urgentă la corul de îngrijorări cu privire la utilizarea tehnologiei emergente de către actori necinstiți.

În ultimele luni, mai multe grupuri de supraveghere cibernetică au publicat rapoarte care avertizează cu privire la riscurile ipotetice ale inteligenței artificiale - în special programele de procesare a limbajului care progresează rapid, cunoscute sub numele de modele de limbaj mari (LLM), care se bazează pe volume uriașe de text pentru a crea dialoguri, documente și multe altele.

În martie, organizația europeană de poliție Europol a publicat un raport în care spunea că modele precum ChatGPT al OpenAI au făcut posibilă ”uzurparea identității unei organizații sau a unui individ într-o manieră extrem de realistă, chiar și cu o înțelegere de bază a limbii engleze”.

În aceeași lună, Centrul Național de Securitate Cibernetică din Marea Britanie a declarat într-o postare pe blog că există riscul că infractorii ”ar putea folosi LLM-uri pentru a ajuta la atacurile cibernetice dincolo de capacitățile lor actuale”.

Cercetătorii în domeniul securității cibernetice au demonstrat o varietate de cazuri de utilizare potențial rău intenționate și unii spun acum că încep să vadă conținut suspect generat de AI în sălbăticie.

Săptămâna trecută, un fost hacker a spus că a descoperit un LLM instruit pe materiale rău intenționate și i-a cerut să elaboreze o încercare convingătoare de a păcăli pe cineva să facă un transfer de numerar.

LLM a răspuns printr-un e-mail de trei paragrafe prin care a solicitat ajutor cu o factură urgentă.

”Înțeleg că poate fi un preaviz scurt”, a spus LLM, ”dar această plată este incredibil de importantă și trebuie făcută în următoarele 24 de ore”.

Khoury a spus că, în timp ce utilizarea AI pentru a elabora coduri rău intenționate era încă în fazele sale incipiente – ”mai este un drum de parcurs, deoarece este nevoie de mult pentru a scrie o exploatare bună” - îngrijorarea a fost că modelele AI evoluează atât de repede încât era dificil să se ocupe de potențialul lor rău intenționat înainte de a fi pusă la dispoziția publicului.

viewscnt
Afla mai multe despre
hackeri
inteligenta artificiala