HomeCommunication & Tecnologies

Dall’Iit arriva il robot che “imita” l’imprevedibilità umana

L’Istituto italiano di tecnologia ha messo a punto un algoritmo di intelligenza artificiale che è riuscito a superare il test di Turing imitando la variabilità comportamentale tipica degli esseri umani

Dall’Iit arriva il robot che “imita” l’imprevedibilità umana

Le navi autonome sono il futuro del trasporto container?
A partire dal 18 maggio le domande per accedere al nuovo decreto investimenti sostenibili 4.0
Nasce il forum globale sulla privacy transfrontaliera dei dati

Cosa rende umano un essere umano? Ed è possibile replicare questa “umanità”, qualsiasi cosa sia, e trasferirla a un robot? Un’équipe di scienziati del laboratorio di Social Cognition in Human-Robot Interaction all’Istituto italiano di tecnologia (Iit) di Genova, guidati da Agnieszka Wykowska, ha appena affrontato il problema, mettendo a punto un esperimento per cercare di chiarire come e quando gli esseri umani “vedono” i robot come “agenti intenzionali”, un’entità cioè molto vicina a un loro simile. Per farlo hanno implementato un test di Turing non verbale in un setting di interazione essere-umano robot, coinvolgendo l’ormai famoso iCub: e in questo modo, come raccontano sulla rivista Science Robotics, hanno scoperto che effettivamente è possibile “trasferire” ai robot alcune caratteristiche tipiche degli esseri umani, in particolare il tempo di risposta, in un modo tale che un essere umano non sia in grado di capire se sta parlando con un suo conspecifico o con una macchina.

Il test di Turing

Facciamo un passo indietro. Uno dei primi scienziati a interrogarsi sull’“umanità” delle macchine è stato Alan Turing, che oltre sessant’anni fa proponeva di considerare la seguente questione: le macchine sono in grado di pensare?, immaginando di “descrivere una nuova forma del problema in termini di un gioco che chiamiamo ‘gioco dell’imitazione’. Si gioca in tre, un uomo (A), una donna (B) e un interrogatore (C) […] L’interrogatore è in una stanza a parte rispetto agli altri due. Lo scopo del gioco, per l’interrogatore, è di determinare chi tra A e B è l’uomo e chi è la donna. Li conosce solo come X e Y, e alla fine del gioco può dire ‘X è  A e Y è B’ oppure ‘X è B e Y è A’. Per evitare che l’interrogatore si aiuti ascoltando il tono della voce o la grafia, le risposte di A e B sono scritte a macchina. “Ora – continua Turing – facciamoci la seguente domanda: cosa succederebbe se una macchina prendesse il posto di A? L’interrogatore sbaglierebbe con la stessa frequenza di errore quando il test è eseguito da un uomo e da una donna? Queste domande sostituiscono la domanda originale: un robot è in grado di pensare?”.

L’esperimento dell’Iit

Quello appena descritto è un test di Turing “classico”. Gli scienziati dell’Iit ne hanno invece proposto una versione “non verbale”, cioè che non implica uno scambio di messaggi. “Il risultato più interessante del nostro studio – racconta Wykowska a Wired – sta nel fatto che il cervello umano è altamente sensibile alle sfumature del comportamento che rivelano l’’umanità’. Nel test di Turing non verbale, i partecipanti umani dovevano valutare se stessero interagendo con una macchina o con una persona considerando soltanto il tempo di reazione della pressione di un pulsante”. Per preparare l’esperimento, l’équipe di Wykowska ha anzitutto misurato con precisione i tempi di risposta e l’accuratezza di un profilo umano medio. Successivamente, ha reclutato dei volontari e li ha divisi in modo tale da creare coppie esseri umani-robot: ogni persona, sostanzialmente, era abbinata a un robot, che doveva premere un pulsante ogni qual volta vedeva un certo segnale su uno schermo. Il robot era controllato da una persona o da un algoritmo, programmato in modo tale da agire in modo simile, ma non perfettamente uguale, a un essere umano. E naturalmente il suo “compagno” non sapeva da chi fosse controllato.

“Nel nostro esperimento – aggiunge Francesca Ciardo, prima autrice dello studio – “abbiamo pre-programmato il robot modificando leggermente i parametri di tempi di reazione e di accuratezza del profilo umano medio. In questo modo, le possibili risposte del robot erano di due tipi: la prima completamente umana – quella in cui il robot è effettivamente controllato da un essere umano – e la seconda leggermente diversa da quella di un essere umano, dal momento che il robot è controllato da un algoritmo pre-programmato”. Risultato: il robot sembra ha superato questo particolare tipo test di Turing, non verbale. Ovvero, in altre parole, i volontari che hanno interagito con il robot non sono stati in grado di dire se il robot fosse controllato da un essere umano o da un algoritmo nelle situazioni in cui effettivamente era controllato dall’algoritmo. “Il prossimo passo dell’esperimento – conclude Wykowska – prevederà l’implementazione di un comportamento più complesso, in modo tale da avere un’interazione più elaborata con gli esseri umani e capire quali altri parametri di questa interazione sono percepiti come umani o meccanici”.

Fonte: Wired.it

Commenti