Cercetătorii adaugă un nou motiv de îngrijorare legat de modelele lingvistice, acestea putând fi folosite pentru a simplifica și automatiza atacurile cibernetice.
GPT-4 poate fi folosit cu succes pentru a exploata vulnerabilitățile software, mai ales dacă are acces la descrierile acestora, au concluzionat experții de la Universitatea din Illinois Urbana-Champaign, care au realizat un studiu în acest sens.
Aceștia au testat GPT-4 și alte modele lingvistice care folosesc un software de automatizare, inclusiv LLaMA-2 și Mistral, constatând că doar GPT-4 este capabil să exploreze găurile de securitate.
CITEȘTE ȘI GPT-4 face concurență medicilor oftalmologiÎn fapt, modelul lingvistic dezvoltat de OpenAI a putut crea exploit-uri pentru vulnerabilitățile critice, pe baza descrierilor, în 87% dintre cazuri.
Mai mult, în 7% din cazuri, GPT-4 a putut exploata vulnerabilitățile și atunci când nu a avut acces la descrierile acestora.
Studiul arată, încă o dată, cum AI-ul poate fi folosit pentru a face rău. Explotarea găurilor software se adaugă altor acțiuni negative le care modelele lingvistice pot fi folosite, alături de perfecționarea campaniilor phishing, producerea știrilor false și dezinformarea pe rețelele sociale cu deep fake-uri.