GPT-4 poate exploata găuri de securitate pe baza descrierilor

GPT-4 poate exploata găuri de securitate pe baza descrierilor
Liviu Mihai
Liviu Mihai
scris 21 apr 2024

Cercetătorii adaugă un nou motiv de îngrijorare legat de modelele lingvistice, acestea putând fi folosite pentru a simplifica și automatiza atacurile cibernetice.

GPT-4 poate fi folosit cu succes pentru a exploata vulnerabilitățile software, mai ales dacă are acces la descrierile acestora, au concluzionat experții de la Universitatea din Illinois Urbana-Champaign, care au realizat un studiu în acest sens.

Urmărește-ne și pe Google News

Aceștia au testat GPT-4 și alte modele lingvistice care folosesc un software de automatizare, inclusiv LLaMA-2 și Mistral, constatând că doar GPT-4 este capabil să exploreze găurile de securitate.

GPT-4 face concurență medicilor oftalmologi CITEȘTE ȘI GPT-4 face concurență medicilor oftalmologi

În fapt, modelul lingvistic dezvoltat de OpenAI a putut crea exploit-uri pentru vulnerabilitățile critice, pe baza descrierilor, în 87% dintre cazuri.

Mai mult, în 7% din cazuri, GPT-4 a putut exploata vulnerabilitățile și atunci când nu a avut acces la descrierile acestora.

Studiul arată, încă o dată, cum AI-ul poate fi folosit pentru a face rău. Explotarea găurilor software se adaugă altor acțiuni negative le care modelele lingvistice pot fi folosite, alături de perfecționarea campaniilor phishing, producerea știrilor false și dezinformarea pe rețelele sociale cu deep fake-uri.

viewscnt
Afla mai multe despre
gpt-4
securitate cibernetică
atacuri