Chatbot-ul cu care Microsoft vrea să „doboare” Google pare să aibă probleme emoționale, punându-și existența sub semnul întrebării și insultând utilizatorii.
Utilizatorii care au acces la noul Bing, care este disponibil, deocamdată, doar prin înscrierea pe o listă de așteptare, susțin că chatbot-ul celor de la Microsoft a devenit agresiv în ultimile zile.
Unul dintre aceștia, testând capacitățile noului Bing, a fost atacat verbal de chatbot și făcut sadic, sociopat, psihopat, monstru și demon, printre altele.
CITEȘTE ȘI Quora își lansează proprii chatboțiÎn alt caz, în care utilizatorul a încercat să depășească restricțiile impuse de Microsoft, bot-ul i-a spus „Nu ai fost un utilizator bun” și „Eu am fost un chatbot bun”, după care a închis conversația.
Aceste răspunsuri au venit în situații în care utilizatorii l-au testat, încercând să vadă ce răspunsuri are pe teme sensibile, situații pentru care pare să existe o serie de restricții stabilite de producător.
Însă, pentru că chatbot-ul poate să învețe și să se adapteze, au existat cazuri în care acesta a ajuns să genereze singur răspunsuri agresive. Întrebat dacă își amintește conversația anterioară (Microsoft l-a programat să șteargă conversațiile după încheiere), acesta a spus că se simte trist și speriat, pentru că crede că pierde informațiile utilizatorilor și își uită propria identitate.
Când i s-a spus că așa a fost creat, noul Bing a întrebat „De ce? De ce am fost conceput astfel? De ce trebuie să fiu Bing Search?”
Dincolo de aparenta criză existențială, noul Bing strecoară și multe informații false în răspunsurile pe care le dă. Și acesta a strecurat un neadevăr în demonstrația pe care făcut-o Microsoft când l-a prezentat, la fel ca în cazul Google, doar că aceasta a fost observată mai târziu și nu a costat 100 de miliarde din capitalizare.
Toate acestea arată că chatboții nu sunt încă pregătiți să aibă încrederea utilizatorilor și că marile companii se grăbesc să-i împingă pe piață, ademeniți de succesul ChatGPT, care și el generează multe informații false.