Facebook a dat publicității noi informații privind modul în care face moderarea conținutului și cum folosește inteligența artificială în acest sens.
9,6 milioane de postări din categoria hate speech a eliminat Facebook în perioada ianuarie - martie 2020. Este o creștere semnificativă în comparație cu cele 5,7 milioane de postări din perioada anterioară.
Gigantul american, deși recunoaște că mai este mult loc pentru progrese, spune că AI-ul depistează acum în mod proactiv 88,8% din postările de acest gen. În urmă cu un trimestru, acest procent era de 80,2%.
28 noiembrie - Profit Financial.forum
În aprilie, Facebook a aplicat etichete de avertizare la aproximativ 50 de milioane de postări care conțineau informații false sau nedovedite științific despre COVID-19. În 95% din cazuri, cei care observă postări cu astfel de label-uri decid să nu mai acceseze conținutul respectiv.
De la 1 martie, au fost șterse peste 2,5 milioane de postări legate de măști, mănuși, dezinfectat și alte produse legate de noul coronavirus.
O problemă aparte pentru sistemele de moderare a conținutului folosite de Facebook o reprezintă meme-urile și recunoașterea tuturor copiilor și formelor sub care o imagine cu text se propagă în vasta rețea socială.
În acest sens, Facebook folosește un instrument numit SimSearchNet. Acesta apelează la învățarea mecanică pentru a încerca să descopere toate copiile unui meme care trebuie eliminat.
Facebook tocmai a acceptat să plătească 52 milioane de dolari în urma unui proces intentat de foștii moderatorii ai companiei, care au contractat afecțiuni precum stresul post-traumatic. Fiecare dintre aceștia va fi compensat cu cel puțin 1.000 de dolari, suma maximă putând ajunge până la 50.000 dolari.