HomeCommunication & Tecnologies

Intelligenza artificiale, nuova corsa all’oro ma rischio far west.

Intelligenza artificiale, nuova corsa all’oro ma rischio far west.

Fonte: Formiche.net IL rischio è che l’intelligenza artificiale superi l’insuperabile, ovvero quella umana”. Così ho chiuso, tempo fa, una mia rifl

La Banca centrale del Giappone prepara lo sbarco dello yen digitale
Fintech e insurtech in avanzata
Medicina rigenerativa: arriva in Italia EMFACE

Fonte: Formiche.net

IL rischio è che l’intelligenza artificiale superi l’insuperabile, ovvero quella umana”. Così ho chiuso, tempo fa, una mia riflessione sul tema. Bene, anche su questo argomento nell’ambito della cd ”Artificial Intelligence”, ora tutti si interrogano e l’impatto sarà quello, ad ogni livello, di un nuova, travolgente rivoluzione che produrrà palesi e ulteriori mutamenti non solo in ambito post industriale ma soprattutto in quello sociale.

Oggi si va oltre gli IoT, ovvero che tutti gli oggetti possono diventare “intelligenti” connettendosi alla rete e scambiando informazioni su di sé e sull’ambiente circostante, è altrettanto vero che questo processo non avviene in tutti gli ambiti, in tutti i posti e con la stessa velocità.  Chiaramente questo dipende dall’esistenza di soluzioni tecnologiche consolidate, dagli equilibri competitivi in un determinato mercato e, infine, dal bilancio tra il valore dell’informazione e il costo di creazione della rete di oggetti intelligenti.

L’aspetto che permette a ChatGpt di distinguersi è la sua capacità di rispondere a una domanda formulata in modo naturale utilizzando una nuova variante di Gpt-3, chiamata Gpt-3.5. Questa modifica ha permesso di sbloccare una serie di funzioni che consentono di rispondere a qualsiasi tipo di domande, garantendo al potente modello di IA una nuova interfaccia utilizzabile da chiunque. Ma i problemi emersi sono collegati a come il servizio sia in grado di inventare in modo convincente assurdità su un determinato argomento.

Insomma, istituzionalizziamo le fake news? Sebbene apparentemente sia progettato per impedire agli utenti di fargli dire cose spiacevoli o di consigliare azioni illegali o sgradevoli, ChatGpt può comunque riprodurre pregiudizi orribili. Gli utenti hanno anche dimostrato che i suoi sistemi di controllo possono essere aggirati. Ancora, qualche tempo fa, l’IA in Giappone è arrivata con Xiaoice, la donna virtuale che fa compagnia 24 ore su 24 a milioni di cinesi, inoltre questo chatbot, dalle sembianze femminili, non solo risponde in chat ai suoi utenti, ma li contatta quando sono tristi o depressi. Il problema però è epocale, culturale, umano in questo caso, una cosa è usare l’IA per facilitare la vita quotidiana, il lavoro, la salute dell’essere umano, un’altra è usarla per sostituire la vita vera che riguarda l’umanità con i suoi dolori, le gioie, l’amore, il sesso, le emozioni, il sudore, le soddisfazioni. Il rifugiarsi su un qualcosa di virtuale, impalpabile, che fa tutto quello che vuoi, ma non è reale… è semplicemente abnorme.

Dobbiamo riflettere sul fatto che solo questo algoritmo ha coinvolto più di 600 milioni di utenti, in maggioranza uomini di nazionalità cinese e giapponese con reddito basso, possiamo farci una idea sull’entità di questo fenomeno. Xiaoice appare sullo schermo con le sembianze di una ragazza intorno ai 18 anni che scherza e coinvolge i propri partner scherzando con loro e inviando testi e immagini sessualmente espliciti. E nel frattempo raccoglie informazioni mirando a diventare la fidanzata ideale di più uomini nello stesso momento. È infatti, a questo punto, diviene naturale e necessario interrogarsi anche su quali implicazioni possano esistere in materia di privacy e di sicurezza in questa materia e per i dispositivi connessi.

Quando, per esempio, un attore malevolo vuole attaccare dei dati, inficiando quindi, in qualsiasi modo, uno dei tre parametri che ne definiscono la sicurezza, custoditi e gestiti da una parte ma proprietà di un’altra parte, se viene dunque attaccato un sistema che tratta dati di terzi, la privacy di questi dati viene di sicuro messa in pericolo. Bisogna mettere in sicurezza anche questo “terreno” tecnologico/scientifico/cibernetico, il quale sta divenendo la base, artificiale se vogliamo, ma indispensabile non solo per il funzionamento della società ma per la vita stessa dei singoli umani sempre più dipendenti e incapaci di vivere al di fuori di essa.

C’è molta disattenzione, superficialità, se non supponenza, in giro, su queste tematiche. In molti sono convinti che tutta la tecnologia può essere gestita e domata e quindi alimenta questa intensa fase commerciale e spinta ad un consumo passivo, acritico, fornendo al pubblico sempre nuove opportunità e strane esperienze. È naturale che all’occhio del consumatore tutto questo può significare solo progresso, un miglioramento rispetto al passato, ma questa visione semplicistica inerente allo sviluppo dell’ambiente intelligente non coglie i rischi sia sociali che ambientali né il cambiamento antropologico delle generazioni future rispetto a quelle precedenti. Quindi ancora una volta il fattore umano resta sostanziale in tutte le cose della nostra esistenza e ancor di più oggi se parliamo di scienza, progresso, tecnologia e in essa appunto l’intelligenza artificiale. È sempre l’essere umano, si spera, con lucida razionalità competenza ed esperienza a dover sapere affrontare organizzare e armonizzare questi cambiamenti epocali e non penso solo a quelli tecnologici e scientifici, per garantire una società sicura, evoluta e sempre attenta all’interiorità e soggettività di ogni singolo, così da evitare il caos.

E non mi dilungo, perché meritevoli di capitoli a parte, sugli ambiti propri riguardanti le applicazioni militari e industriali dove un algoritmo, pur utile in molti settori militari, non può sostituire l’uomo nella decisione di spingere o meno un pulsante dal quale dipende la vita e la morte di migliaia di persone.

Attenzione quindi a non scivolare pian piano nel rischio fanatismo, arrivare cioè all’esaltazione di un manifesto di un novello transumanesimo, e se poi questo lo decliniamo anche nelle varie, attuali, attività progettuali necessari per ricevere i fondi del Pnrr, quali ad esempio, la digitalizzazione, le riforme della pubblica amministrazione, del debito, del fisco, la transizione energetica, della giustizia e, appunto, dell’intelligenza artificiale, si comprende bene lo scenario delicato nel quale ci muoviamo. Bisogna stare molto attenti a parlare di superamento dell’intelligenza artificiale su quella umana solo perché la prima non è emotiva e quindi i robot saranno il futuro sì, dimenticando una banalità, che senza l’uomo, chi guida, infatti, i robot?

L’ossimoro del tempo che viviamo è che, mentre si parla costantemente di diritti, diritti (ma un po’ di doveri no?) diritti umani, di libertà, di gender fluid, parità di genere, di garanzia per tutto e tutti, passando dal “politicamente corretto” o alla, per me odiosa e pericolosa, “cancel culture”, ci facciamo attraversare con una indifferenza puerile, da questa immensa rivoluzione con una genericità disarmante.

Siamo coscienti che l’IA sarà utilissima in molti campi, ad esempio, consente, nelle aziende, lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori quali la sanità, la moda, lo Spazio, l’economia circolare, il cambiamento climatico, l’agricoltura, il turismo; infatti, può aumentare sia la produzione che la qualità, facilitare percorsi di vendita più fluidi e ottimizzati, risparmiare energia, migliorare la manutenzione dei macchinari, migliorare il servizio ai clienti.

Inoltre sarà, non solo utile ma necessaria in medicina, ricerca scientifica, dai trasporti, all’individuazione strumentale contro la siccità o la deforestazione, dalla protezione degli oceani, alla sicurezza delle infrastrutture critiche. È di pochi giorni fa la notizia pubblicata sulla rivista Nature Cancer che “Sphinks”, così si chiama l’algoritmo grazie al quale l’intelligenza artificiale, sta imparando a dare la caccia ai tumori maligni, a partire da quelli del cervello, li riconosce e, per ognuno di essi riesce a individuare le armi più efficaci per combatterlo: è uno dei passi più importanti e recenti verso la medicina di precisione. Sarebbe utile, anche, ad esempio, nello snellire tutta la burocrazia della macchina amministrativa, finalmente!

Al contempo però scopriamo che, appunto, ChatGPT ha recentemente “confessato” di aver scritto le tesi per gli studenti della Texas A&M University, dove poi un professore ha bocciato gli studenti interessati. Come l’ha scoperto? Semplicemente chiedendo a ChatGPT se avesse scritto i testi e la risposta sarebbe stata affermativa… (beh, se è intelligente, pur artificialmente, è intelligente).

Già vi è un problema di deficit di comprensione con l’analfabetismo di ritorno imperante, che, ricordo, non è non saper leggere e scrivere ma, ancor peggio, non comprendere ciò che si legge e si scrive, quindi ecco la ciliegina sulla torta, ovvero che gli esami, gli studi o le ricerche li faccia direttamente la IA.

Oppure un progetto, o anche una sentenza, e in riferimento a questo, è notizia di queste settimane quella che un legale di New York, ha rovinato trent’anni di onesta carriera forense per un uso maldestro di Chat GPT. L’avvocato per istruire un caso si è affidato ciecamente alla piattaforma, la quale gli ha fornito date di vecchi procedimenti, numeri di protocollo degli stessi e anche aule di tribunale dove sarebbero state emesse. Sette casi tutti inventati di sana pianta. I tecnici la chiamano “allucinazioni”, termine anch’esso fuorviante perché ambisce a dare una connotazione umana alla IA. In poche parole, si è trattato semplicemente di risposte false, inventate, che l’intelligenza artificiale amalgama alle informazioni fondate che si conoscono.

Bisogna essere seriamente consapevoli, quella che oggi chiamiamo “intelligenza” è in realtà un modello probabilistico fondato su un meccanismo statistico e su un immenso data base che comprende tutto ciò, sia esso buono e cattivo, che naviga in Internet.

 

Commenti