HomeCommunication & Tecnologies

I diritti e i doveri dell’ intelligenza artificiale

I diritti e i doveri dell’ intelligenza artificiale

Anche gli Stati Uniti stanno entrando nella discussione sul futuro dell’AI dal punto di vista della centralità dell’umano. Lo stanno facendo attravers

È stata presentata una dichiarazione europea sui diritti digitali
Amor es una palabra que expresa libertad
Libertà di stampa: i paesi più o meno virtuosi e i rischi di chi racconta la verità

Anche gli Stati Uniti stanno entrando nella discussione sul futuro dell’AI dal punto di vista della centralità dell’umano. Lo stanno facendo attraverso l’istituzione di una commissione da parte della Casa Bianca che ha come missione la definizione di un “carta dei diritti” (bill of rights) dell’AI. Il direttore del “office for science and technology policy” (ovvero il consigliere scientifico del Presidente Biden) Eric Lander e la vice-direttrice dell’ufficio, Alondra Nelson, hanno pubblicato in questi giorni su Wired un breve articolo in cui annunciano l’iniziativa e lanciano un percorso di consultazioni pubbliche per arrivare alla definizione di un documento il cui obiettivo sia definire principi che proteggano il pubblico dallo strapotere di alcune tecnologie. L’articolo è interessante per varie ragioni, visto che prova a rispondere ad una domanda cruciale: perché serve un bill of rights che ci protegga dall’AI?

La prima parte del pezzo argomenta, attraverso tre classi di esempi, perché una carta dei diritti sia necessaria. I motivi sono tre:

L’AI può sbagliare (i casi sono gli usuali esempi di sistemi di machine learning addestrati male, per incompetenza o sbilanciamenti e pregiudizi nei dati)

L’AI può (anche inavvertitamente) commettere reati, violando norme esistenti e ben definite come quelle sulla privacy

L’AI può commettere crimini contro l’umanità, quando è usata da regimi o organizzazioni pubbliche o private per limitare o opprimere i diritti umani fondamentali (nel testo si parla soltanto di regimi autoritari, ma questo perché evidentemente gli autori preferiscono pensare che le democrazie e le aziende del capitalismo democratico non siano coinvolte – un chiaro bias da parte loro).

È una tassonomia perfetta: l’errore, il reato e il crimine contro l’umanità sono le possibili conseguenze dell’agire umano, quando i comportamenti non si conformano alle norme e alle regole che ci siamo (in EU come in US) democraticamente dati.

Questa tassonomia, però, forse è davvero troppo ovvia, e ci si potrebbe aspettare un pensiero più articolato dal Governo di una delle potenze più decisive sul pianeta, considerato che le grandi corporation che dominano l’IA sono americane (e anche cinesi, ma la Cina ha un approccio diverso).

L’Unione Europea, da questo punto di vista, ha una posizione più delineata e, soprattutto, a nostro avviso, con una migliore focalizzazione della questiona, in modo particolare nel delineare dei modelli di rischio e una corretta, o perlomeno affinabile, analisi dell’impatto che tali rischi determinano. Inoltre, la tassonomia a stelle strisce non fa emergere alcuna specificità dell’AI né rispetto al digitale in particolare né rispetto alla tecnologia in generale. Non si vede perché, a questo punto, non avere un bill of right che ci protegga dalla tecnologia tout court. Se lo avessimo avuto, forse non avremmo passato anni a bruciare combustibili fossili e non saremmo qui a chiederci se Instagram fa male ai più piccoli (essendo ormai pacifico che qualcosa fa). Se avessimo avuto un bill of right per proteggerci dagli abusi della tecnologia, il mondo sarebbe verosimilmente diverso, anche se non necessariamente migliore.

Cosa rende particolare l’AI per richiedere, unica tra le tecnologie, una carta dei diritti?

Il pensiero europeo è più convincente perché prova a spiegare questa unicità, argomentando che con l’IA cambiano sia la natura che la scala del rischio. Quanto alla natura del rischio, l’intelligenza artificiale è una tecnologia abilitante e genera una sostituzione pressoché totale dell’agente umano. È piuttosto velleitario chiedere, infatti, che l’umano vi sia in qualche modo inserito in qualche passaggio del suo agire. L’umano non è in grado di collocarsi all’interno di un processo governato dall’IA senza che questo, semplicemente, si inceppi. Affermare che all’umano spettino il controllo e, per così dire, l’ultimo miglio, senza che l’umano possa capire come a quell’ultimo miglio si arrivi, è un po’ come chiedere a chiunque di noi di leggere e comprendere le 18 pagine di disclaimer di un mutuo senza avere due lauree in diritto. Fattibile, ma inefficace. Quanto alla scala del rischio, la pervasività – dovuta ad efficienza ed efficacia dei sistemi di AI – ne è il fattore cruciale. Tutto o quasi sta diventando basato sull’Intelligenza Artificiale, non soltanto come slogan di marketing, ma nei fatti. E sempre più i sistemi basati sull’IA sono autonomi, nel senso che prendono decisioni, anche cruciali e in domini sempre più ampi, in maniera non controllata e non controllabile.

La seconda parte del pezzo citato, argomenta a favore della carta dei diritti. L’argomentazione è efficace, possiamo però chiederci se la strada maestra possa essere ancora e sempre fare un elenco di diritti, creare nuovi diritti, ritradurre diritti già noti. È una modalità tipica dei sistemi di common law come quello americano, che lasciano poi e soprattutto alle corti, alla giurisprudenza, il compito di rendere i diritti agibili ed esigibili. Ma nel caso di specie, nel caso dell’IA, siamo di fronte a un vulnus di struttura. I giudici non hanno, di per sé, le capacità tecniche per capire che cosa giudicano e men che meno le hanno i membri di una corte di pari, estratti a sorte da un mazzo di carte. Oggi il diritto deve essere strumento costituente, nel senso che deve costituire un orizzonte verso cui muoversi. La tecnologia non deve rispettare dei diritti, deve implementare dei valori. Chi fa tecnologia non deve stare entro certi confini, deve essere positivamente arginato verso direzioni consone e di senso.

La terza parte definisce da dove partire per definire la carta dei diritti, e il caso d’uso che i consiglieri di Biden hanno deciso di affrontare è l’estrazione e l’utilizzo dei dati biometrici e in particolare l’applicazione di questi dati nelle attività di screening e di valutazione di candidati nei processi di selezione del personale. Questo è interessante: di solito si comincia a definire norme protettive là dove si percepisce il maggior pericolo. Ma quale è il pericolo? O meglio, per usare la terminologia che usa il regolamento europeo, quali sono i rischi?

A noi sembra chiaro che il rischio, nell’uso di tecnologie di automazione nella selezione del personale, sia trasversale rispetto alla tassonomia iniziale: c’è un rischio di errore, un rischio di violazione della norma (perché quasi tutte le legislazioni incorporano la non discriminazione) e un rischio di crimine contro l’umanità, perché i diritti del lavoro rientrano nella sfera dei diritti fondamentali.

È proprio che in questa parte più pratica che sentiamo la mancanza, nell’approccio US, della visione antropocentrica dell’EU: nel quadro concettuale proposto dal governo americano, non si capisce bene quale sarà il problema centrale che il legislatore vuole affrontare. Il caso affrontato è davvero quello più interessante? Certamente è interessante il fatto che si chieda di cominciare a giocare le partite laddove in gioco c’è un elemento costitutivo dell’umano: chi siamo, cosa sappiamo fare, cosa desideriamo fare. In teologia, ma anche nel pensiero liberale, almeno da Max Weber in avanti, la nostra vocazione, che ci chiama a essere sino in fondo noi stessi: il lavoro a questo dovrebbe primariamente servire. Sì, questa è la questione dell’intelligenza artificiale: ci aiuta a essere pienamente noi stessi? Perché questo è il diritto fondante di ogni diritto, il primo diritto umano. Essere. Umani.

Fonte: Huffingtonpost

 

Commenti