HomeCommunication & Tecnologies

Algospeak: cos’è il linguaggio per aggirare censure e algoritmi

“Le dollar bean” al posto di “lesbian”, la parola “sesso” sostituita con “se$$o” e il vibratore che diventa una “spicy eggplant”: braccio di ferro fra umani e IA per decidere cosa si può scrivere sui social

Algospeak: cos’è il linguaggio per aggirare censure e algoritmi

Come altri fenomeni culturali di massa, esattamente come il cinema, la televisione o la pubblicità, Internet ha influenzato il nostro modo di parl

Artificial Intelligence and Physics Advances in the Field of Gravitational Waves (part 2) and the Alternative of Open Source Science
WHY HYBRID INTELLIGENCE IS THE FUTURE OF ARTIFICIAL INTELLIGENCE?
Intelligenza artificiale: a Torino si prevede il rischio di aritmie

Come altri fenomeni culturali di massa, esattamente come il cinema, la televisione o la pubblicità, Internet ha influenzato il nostro modo di parlare e nel tempo lo ha cambiato: generazioni diverse di persone utilizzano linguaggi diversi e parole diverse per esprimere lo stesso concetto, anche rischiando di non capirsi fra loro. Addirittura, le macchine stanno cambiando le basi della grammatica, spingendoci a usare termini che a scuola vengono indicati come scorretti (celebre è il caso di Google Docs e del “qual è”).

Nell’ultimo paio d’anni è emerso un altro fenomeno, quello del cosiddetto algospeak, di cui a metà aprile ha scritto anche il Washington Post. Il termine nasce dall’unione fra le parole inglesi “algorithm” e “speak” e indica appunto un modo di parlare (“to speak”, in inglese) condizionato dagli algoritmi di intelligenza artificiale cui è affidata la moderazione dei contenuti sui social network. Soprattutto, un modo di scrivere.

Dollari e melanzane per evitare la censura

Succede su Facebook, su Instagram, su Twitch e YouTube e tantissimo su TikTok, dove il grosso del pubblico è costituito da minorenni e dove i controlli sono ancora più serrati. L’idea è quella di evitare la parole vietate e di usarne altre al loro posto, eufemismi o perifrasi per esprimere lo stesso concetto: in inglese, per esempio, si scrive “le dollar bean” o “le$bian” al posto di “lesbian” (lesbica), “nip nops” invece di “nipples” (capezzoli), “spicy eggplant” (melanzana piccante) per intendere un vibratore e chi fa parte della comunità Lgbtq si descrive come parte della comunità “leg booty”. In italiano è più difficile, perché la nostra lingua si presta meno a questi giochi, ma non è raro trovare “se$$o” al posto di “sesso”, parole troncate perché quella intera è proibita (succede con “russia”, che su TikTok diventa “russ”) o emoji come quella della tromba, della pannocchia o dell’immancabile melanzana a indicare che si sta parlando di sesso. Anche se in misura minore, è un problema che hanno pure i giornali, che si trovano in difficoltà quando devono raccontare un fatto di cronaca (o una guerra) e dunque usare termini come “morte”, “omicidio” o “delitto”.

Succede per evitare che i propri contenuti, che siano post, foto o video, vengano bloccati o rimossi dalle piattaforme o che venga loro impedito di raggiungere un pubblico più ampio e avere successo. È una questione di libertà di parola e di difesa della possibilità di esprimersi come si vuole sugli argomenti che si vuole, ma non è solo questo. È anche una questione di soldi: sui social, soprattutto su YouTube, i contenuti che contengono parole vietate rischiano di essere demonetizzati (cioè non possono essere accompagnati da banner pubblicitari) o di vedere abbassati i loro livelli di CPM ed RPM, cosa che si riflette sui guadagni di chi li ha creati. Per TikTok vale un altro discorso ancora: come su Italian Tech spiegammo a fine 2021, la sua sezione Per Te, quella dove stanno i video potenzialmente di maggiore successo, è totalmente gestita da un algoritmo di categorizzazione, che decide che cosa far vedere a chi e si basa (anche) sui parametri del linguaggio. E pubblicare un video che contenga frasi o parole non consentite non è esattamente un buon modo per farlo diventare virale.

Che c’entrano le intelligenze artificiali

Perché succede tutto questo? Meglio: perché i social network usano le IA per la moderazione dei contenuti, partendo (per semplificare) da un elenco di parole vietate che si arricchisce man mano che il software impara il linguaggio delle persone? Banalmente, perché ormai le piattaforme sono diventate talmente grandi e ospitano una mole talmente grande di contenuti che non potrebbero farcela a gestirli senza un aiuto esterno. Un aiuto artificiale, cioè.

Facebook ha quasi 3 miliardi di utenti attivi al mese, YouTube oltre 2 miliardi e mezzo e TikTok oltre 1 miliardo. Sono tutte persone che scrivono, si fotografano, si riprendono e poi pubblicano. Pubblicano di continuo: su YouTube vengono caricate più di 500 ore di video ogni minuto, cioè 30mila ore di contenuti ogni ora; negli ultimi 3 mesi del 2021, TikTok ha rimosso oltre 91 milioni di video per le più diverse violazioni, che sono tantissimi, ma rappresentano meno dell’1% di quelli caricati nel periodo. Capito il punto? Il punto è che un team di moderazione affidato solo alle persone, per quante possano essere, non riuscirà mai a stare dietro a questa invasione quotidiana di post, foto, video, reel, Storie, tweet, live e così via. Ed è per questo che i siti si affidano alle intelligenze artificiali, per fare gran parte di questo lavoro.

Cosa che poi porta noi umani a cercare sempre nuovi modi per fregarle e aggirarle: non c’è niente di male in questo, e anzi forse fa un po’ parte della nostra natura. Però vale la pena fare una precisazione. Non è che Facebook, TikTok e YouTube ci vogliano tutti pudichi e perfettini, perché sanno benissimo che così finirebbero per non rappresentare il mondo reale: queste regole non sono lì per noi, sono per chi finirebbe per esagerare e andare oltre, per chi farebbe diventare TikTok una nuova versione di OnlyFans. Anzi: per chi ha fatto diventare OnlyFans quello che è adesso, e che decisamente non è quello che avevano in mente i suoi creatori.

Commenti