Instrumentele de AI, precum ChatGPT, sunt folosite de hackeri pentru a-și îmbunătăți atacurile cibernetice, avertizează chiar OpenAI și Microsoft.
Microsoft și OpenAI au lansat un avertisment comun, prin care cele două companii avertizează aspră faptului că hackerii folosesc deja modele lingvistice pentru a-și consolida tacticile.
Avertizări asupra acestei posibilități au fost emise și până acum de diverse alte entități, însă, cele două companii americane vin și cu dovezi.
CITEȘTE ȘI ChatGPT dobândește memorieAcestea spun că grupuri de hackeri chinezi, ruși, iranieni și nord coreeni folosesc deja instrumente precum ChatGPT pentru a crea scripturi mai bune și a-și îmbunătăți tehnicile sociale.
Acestea din urmă sunt folosite pentru a crea campanii de phishing mai convingătoare, în urma cărora utilizatorii sunt păcăliți mai ușor să ofere informații personale.
Există și situații cu implicații militare. De exemplu, Stontium, un grup de hackeri susținut de spionajul rus, a folosit de AI-ul pentru a descifra protocoluri de comunicații ale sateliților, informațiile radarelor și diverși alți parametrii tehnici sensibili
Avertismentul celor două companii vine în condițiile în care propriile instrumente de AI, ChatGPT și Copilot, pot fi folosite de hackeri în atacuri.