Inițiativa evidențiază eforturile Beijingului de a modela dezvoltarea rapidă a aplicațiilor AI destinate publicului larg, prin impunerea unor cerințe mai stricte de siguranță și etică, informează News.ro.
Noile reguli ar urma să se aplice produselor și serviciilor AI disponibile în China care afișează trăsături de personalitate simulate, modele de gândire și stiluri de comunicare asemănătoare celor umane și care interacționează emoțional cu utilizatorii prin text, imagini, audio, video sau alte forme.
Potrivit proiectului, furnizorii de astfel de servicii ar fi obligați să avertizeze utilizatorii cu privire la riscurile utilizării excesive și să intervină atunci când apar semne de dependență. De asemenea, aceștia ar trebui să își asume responsabilități de siguranță pe întreg ciclul de viață al produselor, inclusiv prin instituirea unor mecanisme de evaluare a algoritmilor, securitate a datelor și protecție a informațiilor personale.
Regulile propuse vizează explicit și riscurile psihologice. Furnizorii ar trebui să fie capabili să identifice starea utilizatorilor, să evalueze emoțiile acestora și nivelul de dependență față de serviciu. În situațiile în care sunt detectate emoții extreme sau comportamente adictive, companiile ar fi obligate să ia măsuri adecvate de intervenție.
Documentul stabilește totodată linii roșii clare privind conținutul și conduita, precizând că serviciile de inteligență artificială nu trebuie să genereze materiale care pun în pericol securitatea națională, răspândesc zvonuri sau promovează violența ori obscenitatea.
Autoritățile chineze încearcă astfel să limiteze potențialele efecte negative ale AI cu interacțiune ”umană”, într-un moment în care aceste tehnologii devin tot mai populare și mai influente în viața de zi cu zi.















