Facebook: le accuse della ex dipendente fanno tremare l' azienda
27-10-2021
Il social network piu' famoso al mondo, Facebook, sotto il controllo di Mark Zuckerberg, sta tremando per le rivelazioni di una ex dipendente dell' azienda, che ha scoperto il vaso di pandora sul social. Si chiama Frances Haugen, ed è la fonte che ha scoperchiato alcuni dei segreti dell' azienda americana, con documenti che sono finiti nelle mani di alcuni giornalisti. I punti importanti, sono riassunti qui sotto: Facebook è spesso accusato di non riuscire a moderare l'incitamento all'odio sui suoi siti in lingua inglese. Secondo i documenti consegnati al Congresso anche dopo aver promesso di investire di più dopo essere stato accusato di aver “facilitato” il genocidio in Myanmar nel 2017. Un documento del 2021 metteva in guardia sul numero molto basso di moderatori umani di contenuti nei dialetti arabi parlati in Arabia Saudita, Yemen e Libia. Un altro studio sull'Afghanistan, ha scoperto che anche le pagine che spiegavano come segnalare l'incitamento all'odio erano tradotte in modo errato. Secondo un report interno, la società ha stanziato l'87% del suo budget per lo sviluppo di algoritmi proprietari capaci di rilevare fake news negli Stati Uniti nel 2020, contro il 13% investito nel resto del mondo. Diversi documenti interni, finiti nelle mani del Congresso americano, dimostrano che Facebook stessa nutre molte perplessità circa i propri algoritmi. Una nota del settembre 2019 ha rilevato che gli uomini ricevevano il 64% in più di incarichi politici rispetto alle donne in quasi tutti i Paesi. Una nuova nota, nel giugno 2020, ha poi chiarito che era «virtualmente garantito» che «i principali sistemi di Facebook mostrano pregiudizi sistemici basati sulla razza dell'utente interessato». Ma c'è di più. I documenti svelano che poiché la sua intelligenza artificiale ha fallito, il social ha anche reso più difficile segnalare l'incitamento all'odio. Secondo una nota del marzo 2021 di un gruppo di ricercatori, la società interviene solo su un minimo del 3-5 per cento dei discorsi di odio e dello 0,6 per cento dei contenuti violenti. Un altro promemoria suggerisce che potrebbe non riuscire mai a superare il 10-20%, perché è «straordinariamente impegnativo» per l'intelligenza artificiale comprendere il contesto in cui viene utilizzata la lingua. C' è anche una nota che riguarda i fatti di Capiton Hill: I documenti rivelano il fallimento di Facebook per contenere l'esplosione di odio e disinformazione sulla sua piattaforma intorno alla rivolta di Capitol Hill, consumatasi il 6 gennaio 2021. I file mostrano che la società ha disattivato alcune salvaguardie di emergenza sulla scia delle elezioni del novembre 2020, solo per affrettarsi a riattivarne alcune mentre la rivolta divampava.
|