Chiar în timp ce se grăbește să-și lanseze propriul chatbot și să integreze instrumente de inteligență artificială în cât mai multe produse, Microsoft a decis să concedieze o echipă care trebuia să ghideze AI-ul spre rezultate etice și responsabile.
Deși încă nu este încă disponibil în mod oficial pentru toți utilizatorii, chatbot-ul din noul Bing a arătat în multe rânduri că are nevoie de optimizări pentru a nu oferi răspunsuri jignitoare.
Și, tocmai când acesta avea nevoie de ajutorul celor care lucrează la etica pentru AI în cadrul Microsoft, gigantul american a decis să renunțe la o întreagă echipă.
CITEȘTE ȘI DuckDuckGo a implementat un AI care răspunde la întrebăriRenunțarea la echipa de etică AI vine după ce, în urma reorganizării de anul trecut, majoritatea celor care lucrau pe „etică și societate” au fost transferați în cadrul altor echipe.
Microsoft încă are Biroul Pentru AI Responsabil, care stabilește regulile pentru crearea unor AI-uri responsabile prin guvernare și politici publice. Însă, echipa care tocmai a fost disponibilizată era cea responsabilă de implementarea regulilor în produsul final.
Decizia companiei ridică semne serioase de întrebare privind dorința acesteia de a dezvolta în mod responsabil soluții de inteligență artificială. Disponibilizarea echipei de etică pentru AI seamănă, mai degrabă, cu eliminarea unei piedici în cursa lansării unui produs final înaintea Google cu orice mijloace.
Microsoft are deja un istoric pătat în acest domeniu. În urmă cu aproximativ 6 ani, compania lansa un bot conversațional pentru Twitter, numit Tay, care a fost dezactivat după ce a devenit rasist și fascist.