HomeCommunication & Tecnologies

Più odio più profitti: la dura lotta tra l’intelligenza artificiale e la stupidità umana

Gli algoritmi dei social massimizzano violenza verbale e guadagni. Non è colpa loro ma degli uomini

Più odio più profitti: la dura lotta tra l’intelligenza artificiale e la stupidità umana

Frances Haugen è una data scientist, una ex dipendente di Facebook esperta di dati, intelligenza Artificiale e Machine Learning. L’obiettivo del suo t

The Development of Artificial Intelligence in the People’s Republic of China
Lo sviluppo dell’Intelligenza Artificiale nella Repubblica Popolare Cinese
Lo sviluppo dell’Intelligenza Artificiale nella Repubblica Popolare Cinese

Frances Haugen è una data scientist, una ex dipendente di Facebook esperta di dati, intelligenza Artificiale e Machine Learning. L’obiettivo del suo team era combattere le forme di odio, violenza e disinformazione sul social. Dopo le dimissioni dall’azienda, ha condiviso documenti interni di Facebook che mostrano chiaramente come gli algoritmi alla base del funzionamento del social network siano socialmente divisivi, favoriscano l’odio – anziché contrastarlo – e incentivino la violenza verbale, arrivando a danneggiare la salute mentale di alcuni utenti, avvelenando la vita sociale e politica di mezzo mondo.

Tutto ciò accadeva in modo trasparente per i membri di spicco della società, che invece, in pubblico, proclamavano di aver minimizzato i contenuti negativi sulla piattaforma. “In realtà non stiamo facendo ciò che diciamo di fare pubblicamente”si legge in alcuni documenti interni. Molti dettagli sono inquietanti. Per esempio, risulta che Instagram (come Whatsapp, anch’esso appartenente a Facebook) tende a favorire depressione e senso di inadeguatezza, in particolare nelle ragazze: il 32% delle teenager che utilizzano l’app affermano di sentirsi peggio. Dopo aver utilizzato Instagram, provano disagio nei confronti del loro corpo. Il 6% dei teenager ha dichiarato che il social li ha portati a considerare l’ipotesi del suicidio.

Poi c’è la questione degli utenti sopra le regole. Mark Zuckerberg ha pubblicamente dichiarato che Facebook applica le stesse regole a tutti i tre miliardi di utenti, e non ci sono privilegi per nessuno, a prescindere dal suo status sociale, economico e politico. Peccato che i documenti interni condivisi da Frances Haugen rivelino invece l’esistenza di un’elite: milioni di “personaggi di spicco” per i quali le regole non si applicano. VIP da social che, in virtù della loro fama o importanza nel mondo della politica, della cultura, del business, su Facebook e Instagram possono dire e fare quello che vogliono.

I documenti portati alla luce da Frances Haugen rivelano come molte aziende e organizzazioni abbiano creato e spinto contenuti che accendono gli animi, fomentando reazioni aspre e violente negli utenti del social, perché così ottengono maggiore visibilità. Naturalmente la visibilità è tutto, se devi vendere prodotti, servizi, o idee.

La storia ha fatto il giro del mondo, perché Frances Haugen, dopo aver passato i documenti in questione a The Wall Street Journal, ha testimoniato davanti al Congresso statunitense. Della cosa si sta interessando la SEC, l’autorità di vigilanza sul mercato finanziario (l’equivalente della Consob italiana), visto che Facebook è quotata in Borsa. Le autorità statunitensi si stanno domandando se non sia il caso di regolamentare la società, visto che apparentemente da sola non è in grado di gestirsi con la dovuta responsabilità.

In questa vicenda, dietro le quinte, l’Intelligenza Artificiale (AI) ha un ruolo importante. Infatti, i contenuti che la piattaforma social può teoricamente mostrare a ciascun utente sono un numero enorme. Quindi occorre scegliere, e questo è il compito di un sistema di raccomandazione basato su Machine Learning. Funziona più o meno così: in base alle caratteristiche degli utenti e dei contenuti, il modello apprende dinamicamente quali sono quelli che generano più interazioni, più ‘engagement’, cioè più ‘mi piace’, più commenti, più condivisioni.

Perché l’obiettivo assegnato dai programmatori di Menlo Park all’algoritmo di Machine Learning consiste nel massimizzare l’engagement. Più c’è engagement e meglio è: più tempo gli utenti passano su Facebook, più vedono inserzioni pubblicitarie, più gli inserzionisti pagano, e più Facebook guadagna. Lineare. E l’algoritmo apprende bene: uno studio mostra come, dopo aver esaminato mediamente 300 post a cui un utente Facebook mette ‘mi piace’, l’algoritmo conosca i suoi tratti comportamentali meglio del proprio partner, della mamma e degli altri familiari più stretti. Noi Sapiens siamo più prevedibili di quanto ci piaccia pensare.

Il problema è che, numeri alla mano, più un contenuto è divisivo, più diventa virale su Facebook. Quindi i produttori di contenuti sono incentivati a produrne di più, e gli algoritmi di Facebook imparano a mostrarli quanto più possibile. In un certo senso il social è capace di tirare fuori il peggio dall’umanità e poi di guadagnarci con la pubblicità.

Gli algoritmi che ottimizzano l’engagement hanno quindi un ruolo chiave nella generazione dei profitti dei social network. Il problema sono i danni collaterali, come le ragazzine che sviluppano tendenze suicide dopo aver guardato le foto delle modelle su Instagram, la disinformazione sulle campagne vaccinali, l’odio verso alcune fasce della popolazione, e via dicendo.

Questo, oltre a minare la fiducia nei social network, mina la fiducia del pubblico nell’Intelligenza Artificiale. Che, superfluo dirlo, ha un’incalcolabile quantità di applicazioni virtuose. Il problema, infatti, non è nell’AI. L’AI è neutra: un algoritmo impara ciò che gli si chiede (o meglio gli si impone) di imparare. Nel caso di Facebook, basterebbe vincolare l’algoritmo a massimizzare l’engagement evitando scrupolosamente contenuti variamente pericolosi, dannosi, offensivi. Fino ad ora in Facebook non l’hanno fatto perché non è ottimale per l’utile aziendale.

Il problema perciò non è nell’algoritmo in sé, bensì in alcuni Sapiens che lo gestiscono, nonché in altri Sapiens che più o meno consapevolmente lo usano. È una dura lotta tra Intelligenza Artificiale e Stupidità Naturale.

Fonte: Huffington

Commenti