L’ha raccontato al New York Times la gamer Chanelle Siggens, che mentre partecipava allo sparatutto multiplayer Population One si è vista approcciare dall’avatar di un altro utente che ha simulato prima un aggressione sessuale e poi ha mimato la masturbazione davanti a lei. Un’altra ragazza ha raccontato di essere stata (virtualmente) palpeggiata sul seno sempre all’interno di Population One e di “aver provato una sensazione orribile”.

“La molestia sessuale non è uno scherzo nemmeno sull’internet normale”, ha scritto su Facebook una ragazza che ne è stata vittima nell’ambiente di Horizon Worlds, la piattaforma sviluppata e pubblicata da Meta platforms per Oculus Rift S e Oculus Quest. “La realtà virtuale aggiunge però un altro strato che rende tutto ancora più intenso. La situazione rischia di aggravarsi ulteriormente, visto che già oggi si stanno diffondendo – e un domani potrebbero diventare la normalità – le vesti e i guanti aptici che permettono di avvertire sul corpo ciò che avviene nel mondo virtuale: se l’avversario di un gioco ti ha sparato, se un amico ti sta stringendo la mano o anche se qualcuno ti sta molestando.

Gli strumenti di difesale si popoli di troll e molestatori? In un memo interno, il responsabile di Meta per la creazione del metaverso Andrew Bosworth ha spiegato come sia “praticamente impossibile” moderare in maniera significativa il modo in cui le persone si comportano e parlano nei mondi virtuali. D’altra parte, si può davvero pensare di moderare miliardi di interazioni che – a differenza di quanto si verifica sui social – avvengono in tempo reale? Come si passa dalla moderazione dei contenuti alla moderazione dei comportamenti?

Meta punta soprattutto su tre strumenti: l’intelligenza artificiale, che – nonostante i successi finora non travolgenti – potrebbe riconoscere comportamenti sospetti (per esempio l’avatar di un uomo che approccia in continuazione dei bambini); la registrazione di tutto ciò che ci avviene (salvato solo sul nostro dispositivo personale) per inviare ai moderatori la testimonianza diretta delle esperienze negative; la “zona di sicurezza personale” in cui sarà possibile rifugiarsi immediatamente e in qualunque momento, isolandosi da tutti gli altri utenti.

In un post di novembre, Meta ha fatto sapere di aver investito 50 milioni di dollari nello sviluppo responsabile dei suoi prodotti in realtà virtuale e fin dai primi annunci sul metaverso ha posto una grande enfasi sulla sicurezza degli utenti. Ma se già è si è rivelato incredibilmente complesso evitare che nelle “piazze digitali” dei social network prendano il sopravvento troll e molestatori, impedire che lo stesso avvenga nel metaverso, trasformandolo in un luogo invivibile, sarà una sfida epocale.

Fonte: Wired.it