HomeCommunication & Tecnologies

Decisioni prese dall’intelligenza artificiale, cosa rischiamo? Le sfide sul tavolo UE

Rendere la macchina misurabile e human compatible in ogni suo passo e individuare dei bordi oltre i quali impedirle di andare è la sfida che l’intelligenza artificiale pone oggi all’uomo. È un’opzione difficile, ma è una grandissima opportunità per superare i limiti di razionalità e di arbitrio delle decisioni umane

Decisioni prese dall’intelligenza artificiale, cosa rischiamo? Le sfide sul tavolo UE

Quali caratteristiche devono avere le decisioni che un sistema di intelligenza artificiale potrà assumere senza l’intervento dell’uomo? E come stabili

Dall’AI di Google un modello per prevedere piogge imminenti
La tecnologia dell’intelligenza artificiale e i progressi nella medicina
AI: le nostre conversazioni del futuro saranno con il computer

Quali caratteristiche devono avere le decisioni che un sistema di intelligenza artificiale potrà assumere senza l’intervento dell’uomo? E come stabilirle? La capacità dell’Europa di produrre norme efficaci e universalmente accettabili nell’ampia area di applicazioni che raggruppiamo sotto il nome di intelligenza artificiale si gioca un filo molto sottile, che dovrebbe portarci a ripensare ai concetti di trasparenza e causalità e a puntare tutto sulla misurabilità.

Quello che si va delineando è uno scontro tra due opposte visioni del mondo. Ma trovare un equilibrio è un imperativo non derogabile.

Intelligenza artificiale, la Ue nel ruolo di regolatore tecnologico mondiale

Come è noto, la Commissione Europea lo scorso 21 aprile ha pubblicato il testo della proposta dell’Artificial Intelligence Act. Da allora il dibattito sul tema è stato molto attivo e ha coinvolto varie istituzioni europee che hanno espresso il loro punto di vista con la pubblicazione di pareri formali, ciascuna soffermandosi sugli aspetti di propria competenza.

Oggi il testo è in discussione al Parlamento Europeo, presso il Committee on Internal Market and Consumer Protection (IMCO) che ha nominato come relatore il deputato italiano Brando Benifei, e anche al Consiglio dell’Unione Europea, che ha coinvolto il proprio Working Party on Telecommunications and Information Society in una serie di incontri tecnici che si sono svolti tra aprile e la fine di novembre.

Ne dà conto, con la consueta tempestività, il sito statewatch.org che pubblica il primo di una prevedibile successione di testi di compromesso che ci condurranno alla versione definitiva di questa importante norma, l’unica al momento su scala planetaria, che prova a inquadrare l’intelligenza artificiale all’interno di un corpus di regole, con l’assunto che solo in presenza di regole globali le tecnologie trovano le condizioni più idonee per uno sviluppo, come è sempre stato nella storia delle tecnologie, e di regole fondate sui valori europei, in particolare per ciò che attiene al rispetto dei diritti fondamentali e della persona. Non sarebbe la prima volta che l’Europa prova a svolgere questo ruolo di regolatore tecnologico mondiale, che nel recente passato ha saputo incarnare anche con successo, avviando processi di normazione che hanno oltrepassato la dimensione continentale finendo per imporsi, in ragione dalla loro efficacia, come regole tecnologiche universali. Si pensi alla diffusione della telefonia radiomobile, che è una success story europea, e in particolare italiana, degli anni ’80 e ’90 del secolo scorso. C’è dunque da credere, come europei e come italiani, in questo sforzo.

L’IA e lo scontro tra diverse visioni del mondo

Leggendo questo primo testo di compromesso, i temi “politici” attorno ai quali attualmente ruota il dibattito riguardano l’impiego dell’intelligenza artificiale per finalità di interesse collettivo, prima fra tutte la sicurezza pubblica. Qui si confrontano due “visioni del mondo”. Da una parte chi, non senza fondamento, ritiene che i dati e la capacità computazionale delle macchine possano condurci verso una società con minori rischi, in cui gran parte delle situazioni pericolose o dannose per l’uomo possono essere previste ed evitate. E dunque immagina una società in cui grazie alla conoscenza dei dati e alla capacità di calcolo dell’intelligenza artificiale si possa individuare la malattia prima che insorga, l’incidente stradale prima che si verifichi, l’atto terroristico prima che si manifesti e così via, in modo da intervenire tempestivamente e risolutivamente sui fattori del rischio.

Dall’altra chi, con non minore fondamento, ammonisce come questa prospettiva di una riskless society sia un obiettivo pieno di ostacoli e che a imboccare questo cammino dall’incerto esito, l’unico risultato che si ottiene invece con certezza è l’indebolimento di alcuni valori fondanti sui cui si reggono le nostre società. A renderci tutti misurabili nei nostri tratti biometrici e costantemente identificabili in cambio di maggiore sicurezza si perde ogni presunzione di innocenza, finendo per far prevalere “per impostazione predefinita” la sfiducia reciproca nelle relazioni interpersonali salvo prova contraria, e si perde anche ogni presunzione di anonimato, rendendo ciascuno di noi un bersaglio mobile ben localizzato per una qualunque azione mirata, dalle più fastidiose di natura commerciale fino alle più indesiderate e violente, e inducendo un immanente senso di sorveglianza tecnologica. E poco conta che ad avere accesso a questi dati siano pochissime, fidatissime persone e soltanto per compiti istituzionali. Ciò che sarebbe compromesso è il principio, al venir meno del quale la tenuta della tutela sarebbe rimessa di fatto alla sola correttezza di un comportamento umano (quella del soggetto preposto all’accesso ai dati). E il corretto comportamento del singolo non sempre può considerarsi come presupposto di un principio generale. La prospettiva di una riskless society, insomma,

non è senza rischi e può generare infiniti effetti indesiderati e fenomeni di selezione avversa assolutamente imprevedibili. Se non si calibrano bene in questa fase le scelte sull’impiego dell’intelligenza artificiale per scopi di interesse generale, ogni intervento normativo successivo di compensazione potrebbe essere tardivo. Le autorità di protezione dei dati personali hanno espresso con chiarezza queste preoccupazioni nel loro parere del mese di giugno.

Sono le nostre società pronte, o disponibili, a questa inversione di valori indotta dalle tecnologie? Si discute nelle riunioni del Consiglio e del Parlamento Europeo di questioni apparentemente tecniche (se, ad esempio, si debbano includere nelle proibizioni per l’impiego di sistemi di social scoring anche i soggetti privati, o cosa sia un sistema per il riconoscimento di deep fake, o il ruolo di soggetti privati fornitori di tecnologie nelle attività di law enforcement), ma i veri oggetti del contendere, a cui il parere congiunto dell’EDPB e dell’EDPS richiama, sono questi temi nello sfondo. Il dibattito è appena cominciato e merita di essere seguito con estremo interesse. Siamo ancora molto lontani dalla composizione delle forze che queste “visioni del mondo” esprimono e non è al momento possibile prevedere quale sarà il punto di equilibrio verso cui ci si attesterà per impieghi dell’intelligenza artificiale nell’interesse generale.

Ruoli e definizioni: i punti fermi dell’IA made in Europe

Più stabili, al momento, appaiono invece le parti del testo legate alle definizioni e ai ruoli, che hanno subito interventi minori rispetto alla formulazione iniziale.

L’art. 3 infatti continua ad attribuire all’intelligenza artificiale lo scopo di effettuare inferenze (si tenga a mente il termine) sulla base di dati e modelli e attraverso interazioni con l’ambiente circostante. Ciò che chiederemo all’intelligenza artificiale, qualsiasi sia la “visione del mondo” che faremo nostra, è dunque di decidere, in nostra vece, attraverso inferenze su una quantità crescente di questioni. Le ragioni di questa delega decisionale alla macchina da parte dell’uomo sono molteplici e forse ineluttabili: l’uomo deve infatti arrestarsi di fronte al volume di dati che viene generato costantemente, ben oltre le proprie capacità di memorizzazione e di computazione, e per estrarre una conoscenza da questi dati serve l’ausilio della macchina. Un ausilio che, sebbene la Commissione abbia progressivamente sfumato questo aspetto, che invece era stato messo molto bene a fuoco nella prima Comunicazione del 2018 Artificial intelligence for Europe, dovrà essere, proprio a causa dei volumi dei dati e della varietà e velocità delle decisioni, sempre più autonomo dall’intervento dell’uomo perché produca risultati efficaci e inferenze corrette. L’aspetto quantitativo è essenziale per comprendere la scala e l’ineluttabilità di questa autonomia decisionale. A livello di informazione prodotta, siamo già nell’ordine degli zettabyte (1021 byte) di dati su base annua ovvero, a livello pro-capite e immaginando che questa informazione sia uniformemente distribuita su ogni abitante del pianeta, qualche decina di GB al giorno. Su un piano infrastrutturale, con la versione 6 del protocollo IP (IPv6) sarà teoricamente possibile indirizzare e mettere in collegamento ogni cosa con ogni altra cosa esistente sulla faccia della Terra. Per intenderci (ma è un’immagine molto al di sotto delle potenzialità della tecnologia), è come se ogni oggetto che ci circonda, e ogni parte minuta di cui è composto, potesse essere dotato di un sensore per comunicare il proprio stato di funzionamento, o se ogni singola foglia di ogni albero piantato sulla terra potesse fare lo stesso per dirci se è stata irrorata meglio o peggio della foglia a fianco.

Verso nuove forme di responsabilità

Siamo ben oltre la capacità dell’uomo di governare “manualmente” questi flussi di dati, che dovranno essere in larga parte automatizzati, e si apre la prospettiva molto concreta di un allargamento dello spettro delle decisioni che si potranno assumere. Oggi la decisione e il giudizio dell’uomo si applicano a un numero molto esiguo di fenomeni. L’intervento della macchina aumenterà enormemente il numero di situazioni in cui si potrà prendere una decisione o esprimere un giudizio. Per stare agli stessi semplici esempi degli oggetti e delle piante prima richiamati, si potrà decidere se quella singola vite di quel determinato componente sia stata ben serrata, o se la singola pianta di un campo abbia ricevuto la giusta quantità di acqua. E da questo allargamento dello spettro discenderanno, come è facilmente intuibile, nuove forme di responsabilità. Con l’incremento dei dati e con l’intervento delle macchine nel processo decisionale non abbiamo soltanto un aumento del fattore di scala. L’intelligenza artificiale non è una lente di ingrandimento che ingigantisce i fenomeni dell’oggi, o che ne aumenta la quantità, lasciandoli invariati nelle loro dinamiche. La tecnologia altera i principi e ci chiede un sostanziale cambio di passo nella regolazione.

Decisioni prese dall’AI: i rischi da evitare

È opportuno allora riflettere sulle caratteristiche delle decisioni che un sistema di intelligenza artificiale potrà assumere senza l’intervento dell’uomo, dal momento che come hanno sostenuto l’EDPB e l’EDPS in modo assai lungimirante nel loro parere su questo Regolamento, così come reso nella traduzione in italiano:

“L’intelligenza artificiale amplierà la quantità di previsioni che si possono fare in molti ambiti – a cominciare dalle correlazioni quantificabili tra i dati, che sono invisibili all’occhio umano ma ben visibili alle macchine – semplificandoci la vita e risolvendo un gran numero di problemi; allo stesso tempo, però, verrà ridotta la nostra capacità di dare un’interpretazione causale dei risultati, al punto di mettere seriamente in discussione i concetti di trasparenza, controllo umano, rendicontabilità e responsabilità dei risultati”.

Qui, nel cogliere questa differenza, si gioca la capacità dell’Europa di produrre norme efficaci e universalmente accettabili in questa ampia area di applicazioni che raggruppiamo sotto il nome di intelligenza artificiale.

L’impianto regolatorio che nel testo del Regolamento si sta immaginando per questo nuovo contesto tecnologico è di tipo risk-based. È stata effettuata una classificazione delle applicazioni per livello di rischio e per ciascun livello sono individuati degli obblighi, prevalentemente di conformità e di trasparenza, in capo ai produttori di tecnologie e agli utilizzatori. Ma forse non basta, e già in queste prime fasi del dibattito vengono riportate voci dissonanti che giudicano questi obblighi vaghi e onerosi su un piano amministrativo.

Ripensare ai concetti di causalità e trasparenza

L’EDPB e l’EDPS suggeriscono di ripensare ai concetti di causalità e trasparenza, e forse da lì bisogna partire per non derubricare queste nuove norme a meri adempimenti formali. Le decisioni automatizzate (e non potrebbe essere diversamente in presenza della mole di dati e di interconnessioni prima richiamata) sono interamente basate sulla scoperta di correlazioni. L’esistenza di una correlazione è un ottimo indicatore della presenza di un legame tra grandezze misurate, ma non è la spiegazione di un fenomeno. A fondare le decisioni sull’osservazione di una correlazione, anche molto forte, certamente si aumenta lo spettro delle buone decisioni che possono essere assunte, anche in settori molto importanti e di beneficio per l’uomo, dalla cura di patologie alla sintesi di nuovi materiali. Se per correlazione tra dati scopriamo che un milione di volte quel farmaco è efficace nel curare quella malattia, e se, sempre per correlazione tra dati, per un milione di volte quel materiale dimostra di poter resistere alla simulazione di uno stress test abbiamo senz’altro fatto un passo avanti nella nostra conoscenza. Ma si possono commettere errori anche molto gravi. Dopotutto, la sola osservazione di una correlazione ci può portare ad affermare che è il canto del gallo a determinare il sorgere del sole. E si tratterebbe di una correlazione certa di due fenomeni da sempre osservati in coppia. L’inferenza per correlazione è sicuramente necessaria ma non sempre è sufficiente a fondare una decisione. Oggi la frontiera delle ricerche sul machine learning studia la possibilità di formalizzare matematicamente la sussistenza di un legame causale tra grandezze. È un settore estremamente promettente e si fonda su almeno venti anni ormai di risultati ampiamente comprovati[8]. Seguendo la linea di ragionamento tracciata dal parere dell’EDPB-EDPS, e mantenendo la classificazione dei rischi del testo del Regolamento, una forma di tutela “integrata nel trattamento”, per mutuare una terminologia che ricorre nel GDPR, potrebbe essere quella di sottoporre i risultati di decisioni automatizzate ad alto rischio a stringenti test di causalità, assai più probatori delle semplici analisi di correlazione.

Anche il concetto di trasparenza cambia profondamente. Questo schema di decisione automatizzata per inferenze, basato su correlazioni non è fondato sull’applicazione di una teoria causale, come avviene per le decisioni dell’uomo, ma soltanto sulla presenza di segnali comuni, indicatori di una covarianza. L’esistenza di una teoria causale, alla base del metodo scientifico, ci ha consentito di assegnare una “freccia logica”, una consecutio ai fenomeni e di costruire una architettura giuridica fatta di responsabilità: se un risultato fallisce o c’è una responsabilità dell’uomo che non ha seguito la teoria, oppure la teoria deve essere aggiornata. E questo meccanismo ha fatto avanzare la nostra conoscenza scientifica e tecnologica. Difficile spiegare le ragioni di una decisione automatizzata basata su correlazioni, e non perché non vi sia una logica, come maldestramente qualcuno argomenta, ma perché la spiegazione è numerica, ossia perfettamente razionale ma essa può non avere corrispondenza con le categorie concettuali umane.

La riconciliazione tra approccio numerico e categorie concettuali umane

Questa riconciliazione tra approccio numerico e categorie concettuali umane è l’oggetto delle attuali ricerche e, al meglio delle conoscenze disponibili, non appaiono all’orizzonte ricette immediate per una trasparenza sui risultati prodotti da algoritmi di intelligenza artificiale nelle forme tradizionali in cui questa è stata resa in passato. Non è il caso di indulgere ad atteggiamenti semplicistici. Non siamo in presenza di un desiderio di opacità da parte dei “signori degli algoritmi” che occultano i segreti delle loro creazioni. Questa difficoltà, e forse impossibilità, di riconciliazione è strutturale e non la si risolve con un gioco di forza tra “buoni” e “cattivi”.

Anche qui l’EDPB e l’EDPS forniscono una linea metodologica, che è bene ascoltare. Probabilmente bisognerà mettersi in una situazione di caso peggiore, in vero assai realistica, e abbandonare l’idea di una informazione completa e preventiva, alla maniera del GDPR per intenderci, perché non è ciò che l’inferenza potrà darci. Ciò non significa avere minori tutele, ma tutele diverse e persino maggiori, e sicuramente più adatte al nuovo contesto tecnologico. Un passaggio del parere dell’EDPB-EDPS merita di essere citato a questo proposito:

Garantire la trasparenza nei sistemi di IA è un obiettivo molto difficile da conseguire. L’approccio interamente quantitativo di molti sistemi di IA al processo decisionale, che è intrinsecamente diverso dall’approccio umano fondato principalmente sul ragionamento teorico e per nessi causali, può confliggere con la necessità di ottenere una previa spiegazione comprensibile dei risultati prodotti dalla macchina. Il regolamento dovrebbe promuovere modalità nuove, più proattive e tempestive per informare gli utenti dei sistemi di IA in merito allo status (decisionale) in cui si trova il sistema in ogni momento, predisponendo allarmi rapidi su risultati potenzialmente nocivi affinché le persone i cui diritti e le cui libertà potrebbero essere compromessi dalle autonome decisioni della macchina siano in grado di reagire o impugnare le decisioni in questione”.

Misurabilità è la parola chiave interpretativa dell’intelligenza artificiale

Misurabilità è la parola chiave interpretativa dell’intelligenza artificiale. Partendo dal concetto di misura si possono comprendere le potenzialità ma anche i limiti dell’intelligenza artificiale. Tutto in una decisione automatizzata è basato su misure, e ogni passaggio di ogni decisione automatizzata genera misure. Si può misurare la causalità, la trasparenza ma anche la fairness della decisione e intervenire dove è necessario. Se sapremo fare questo salto concettuale, allora la norma sarà più efficace, più di sostanza e meno di forma, come le prime voci critiche sostengono a proposito del testo del Regolamento, e potrà ambire a diventare regola globale.

Il punto è chi sia misurabile, se noi o la macchina.

  • Renderci misurabili e machine compatible è l’opzione più semplice in vista dell’obiettivo di una riskless society nella quale l’uomo sia sollevato da ogni angoscia grazie alla capacità della macchina di analizzare i dati, ma è forse un obiettivo illusorio e anche una resa rispetto alla nostra capacità di governare i fenomeni tecnologici, oltre a esporci a una quantità imprevedibile di effetti collaterali che potrebbero invalidare gli stessi benefici che la tecnologia ci offre.
  • Rendere la macchina misurabile e human compatible (come recita il titolo del bel libro di Stuart Russell) in ogni suo passo e individuare dei bordi oltre i quali impedirle di andare è la sfida che l’intelligenza artificiale pone oggi all’uomo. È un’opzione difficile, ma è una grandissima opportunità per superare i limiti di razionalità e di arbitrio delle decisioni umane.

L’auspicio è che che queste considerazioni possano trovare spazio nelle nuove fasi del dibattito sul testo del Regolamento all’interno del Consiglio Europeo che si apriranno da gennaio con l’avvicendamento di Presidenza dalla Slovenia alla Francia.

Fonte: Agrndadigitale.eu

Commenti