Hackerii și propagandiștii folosesc inteligența artificială (AI) pentru a crea software rău intenționat, pentru a redacta e-mailuri convingătoare de phishing și pentru a răspândi dezinformarea online, a declarat pentru agenția Reuters, citată de News.ro, principalul oficial pentru securitate cibernetică din Canada, acestea fiind dovezi timpurii că revoluția tehnologică care a cuprins Silicon Valley a fost adoptată și de infractorii cibernetici.
Într-un interviu din această săptămână, șeful Centrului Canadian pentru Securitate Cibernetică, Sami Khoury, a declarat că agenția sa a văzut că AI este folosită ”în e-mailuri de phishing sau în crearea de e-mailuri într-un mod mai concentrat, în coduri rău intenționate (și) în dezinformare și dezinformare”.
Khoury nu a oferit detalii sau dovezi, dar afirmația sa conform căreia infractorii cibernetici foloseau deja inteligența artificială adaugă o notă urgentă la corul de îngrijorări cu privire la utilizarea tehnologiei emergente de către actori necinstiți.
28 noiembrie - Profit Financial.forum
În ultimele luni, mai multe grupuri de supraveghere cibernetică au publicat rapoarte care avertizează cu privire la riscurile ipotetice ale inteligenței artificiale - în special programele de procesare a limbajului care progresează rapid, cunoscute sub numele de modele de limbaj mari (LLM), care se bazează pe volume uriașe de text pentru a crea dialoguri, documente și multe altele.
În martie, organizația europeană de poliție Europol a publicat un raport în care spunea că modele precum ChatGPT al OpenAI au făcut posibilă ”uzurparea identității unei organizații sau a unui individ într-o manieră extrem de realistă, chiar și cu o înțelegere de bază a limbii engleze”.
În aceeași lună, Centrul Național de Securitate Cibernetică din Marea Britanie a declarat într-o postare pe blog că există riscul că infractorii ”ar putea folosi LLM-uri pentru a ajuta la atacurile cibernetice dincolo de capacitățile lor actuale”.
Cercetătorii în domeniul securității cibernetice au demonstrat o varietate de cazuri de utilizare potențial rău intenționate și unii spun acum că încep să vadă conținut suspect generat de AI în sălbăticie.
Săptămâna trecută, un fost hacker a spus că a descoperit un LLM instruit pe materiale rău intenționate și i-a cerut să elaboreze o încercare convingătoare de a păcăli pe cineva să facă un transfer de numerar.
LLM a răspuns printr-un e-mail de trei paragrafe prin care a solicitat ajutor cu o factură urgentă.
”Înțeleg că poate fi un preaviz scurt”, a spus LLM, ”dar această plată este incredibil de importantă și trebuie făcută în următoarele 24 de ore”.
Khoury a spus că, în timp ce utilizarea AI pentru a elabora coduri rău intenționate era încă în fazele sale incipiente – ”mai este un drum de parcurs, deoarece este nevoie de mult pentru a scrie o exploatare bună” - îngrijorarea a fost că modelele AI evoluează atât de repede încât era dificil să se ocupe de potențialul lor rău intenționat înainte de a fi pusă la dispoziția publicului.