HomeCommunication & Tecnologies

” Entro la fine del secolo l’ intelligenza artificiale supererà gli esseri umani”

Lo prevede il professor Stuart Russell, studioso del campo e fondatore del Center for Human-Compatible Artificial Intelligence dell'Università della California.

” Entro la fine del secolo l’ intelligenza artificiale supererà gli esseri umani”

Nello scenario peggiore entro la fine del secolo attuale le capacità delle intelligenze artificiali (IA) create dall'uomo supereranno quelle degli ess

Arriva eLabel: eco- etichetta per prodotti e servizi
Dalla cyber AI all’ambient computing: ecco cosa devono pensare le aziende nel 2022
L’ intelligenza artificiale a servizio dell’ efficienza energetica

Nello scenario peggiore entro la fine del secolo attuale le capacità delle intelligenze artificiali (IA) create dall’uomo supereranno quelle degli esseri umani.

Lo prevede il professor Stuart Russell, fondatore del Center for Human-Compatible Artificial Intelligence dell’Università della California e co-autore del libro “Intelligenza Artificiale: un approccio moderno”, secondo cui per anni gli scienziati hanno sottovalutato l’impatto reale che l’IA avrebbe avuto.

Anni fa la ricerca sulle intelligenze artificiali non era così avanzata: perciò le cose che si potevano fare erano davvero poche e veniva sottovalutata l’accelerazione che il campo avrebbe poi vissuto, non ci si era posti il problema. “La questione dell’impatto reale non veniva proprio considerata” secondo Russell.

Non serve uno scenario distopico per comprendere le eventuali implicazioni di tale scenario. Russell fa un esempio: cosa succederebbe se chiedessimo a un’IA di trovare una cura per il cancro? “Probabilmente troverebbe un modo di indurre il tumore nell’intera popolazione umana, in modo da poter eseguire milioni di esperimenti in parallelo usando tutti noi come topi da laboratorio” secondo Russell.

In tal caso, gli scienziati che avessero sviluppato tale IA e avessero posto tale quesito non avrebbero specificato altri fattori: l’impossibilità di usare “l’intero PIL” per finanziare le ricerche e di considerare tutti gli esseri umani delle cavie, spiega Russell.

Algoritmi, sorveglianza di massa e riconoscimento facciale

Secondo Russell non serve che l’IA sia effettivamente più intelligente degli esseri umani per vedere degli impatti reali: gli algoritmi dei social media e dei motori di ricerca sono degli esempi molto concreti di come la valutazione non trasparente delegata a un software intelligente può avere un profondo impatto sulla percezione che le persone hanno del mondo e persino alterare la loro azione successiva.

In questo modo, il comportamento delle persone diventa più prevedibile e quindi più facile da controllare. “È qualcosa che stiamo vedendo accadere già ora” ha riassunto Russell.

L’Intelligenza Artificiale viene già oggi usata in vari modi in tutto il mondo: dai sistemi di riconoscimento facciale per la sorveglianza di massa fino all’adozione nei sistemi militari.

Il principale problema è dettato dal fatto che per funzionare queste IA hanno bisogno prima di imparare il proprio compito da un ricco database, per esempio, di immagini o video: se tale archivio è limitato (perché, per esempio, include tante immagini di persone bianche e meno immagini di altre etnie), il rischio è che l’IA abbia dei pregiudizi o sbagli a riconoscere le persone.

In un mondo che si sta basando sull’Intelligenza Artificiale per i sistemi di sorveglianza, è un grave problema. Un rapporto della International Network of Civil Liberties Organization (INCLO) pubblicato lo scorso gennaio ha riassunto alcuni degli effetti negativi: il controllo sulle minoranze etniche; la violazione della privacy, anche dei minorenni; persone che vengono fermate dalle autorità o arrestate perché il sistema di riconoscimento facciale ha sbagliato.

“L’entità degli impatti e degli effetti negativi della tecnologia di riconoscimento facciale sulla vita delle persone stanno iniziando a emergere solo ora” conclude il rapporto.

Russell identifica due modi in cui già ora sarebbe possibile regolamentare l’uso dell’IA:
  • stilare un codice di condotta per i ricercatori, così come leggi e trattati che governano la sicurezza nell’uso delle Intelligenze Artificiali;
  • formare i ricercatori per assicurarsi che non siano proni a pregiudizi e altri problemi simili.

Inoltre, “è molto importante che le persone siano coinvolte in queste decisioni perché sono le persone che ne beneficeranno o no”, secondo lo studioso.

Fonte: Dday.it

Commenti