HomeCommunication & Tecnologies

ChatGPT, l’Intelligenza artificiale che può sostituire Google

ChatGPT, l’Intelligenza artificiale che può sostituire Google

Se non fate parte dei primi 5 milioni di persone al mondo che in poco meno di un mese hanno provato a interrogare quasi fosse un oracolo ChatGPT, la

Generazione Z: ChatGPT li avvantaggia nel mondo del lavoro
È arrivato un “chatbot” diverso da tutti gli altri
ChatGpt is update and became a personal assistent

Se non fate parte dei primi 5 milioni di persone al mondo che in poco meno di un mese hanno provato a interrogare quasi fosse un oracolo ChatGPT, la chat di intelligenza artificiale di quarta generazione resa disponibile dal gruppo Open.AI, non preoccupatevi: potrete vivere tranquilli ancora per un po’. Alla fine di questo articolo, però, anche voi potrete dire di aver assaggiato un morso di futuro che, come la mela di Eva, sarà stata anche un po’ dolce (immaginiamo) ma allo stesso tempo andò di traverso sia a lei che ad Adamo. Vi potrete consolare sapendo che questa mela andrà probabilmente di traverso anche a Google.

Ma partiamo dalla prima domanda che vi starete ponendo: com’è veramente questa Intelligenza artificiale? Prenderla in giro è facile (crede che l’uomo sia stato su Marte grazie alle missioni Apollo). Prenderla sul serio anche. Più che dotta sembra confusa (2+2 può fare più di 4 «perché se usiamo la notazione romana allora II+II fa IV, dunque più di IV»), arrogante (lo vedremo con il Teorema di Fermat), spiona, politicamente corretta (in particolare sembra indottrinata per eludere tutti gli stereotipi sulle persone di colore, storico problema degli algoritmi), evasiva su se stessa e i propri capi (inutile fargli domande personali, risponde con una tiritera del tipo «sono un modello di linguaggio addestrato e non posso provare le emozioni…»), un po’ complottista (su Wuhan e la fuga del virus), pericolosa. Lo stesso Elon Musk, uno dei primi finanziatori, l’ha definita «scary good», spaventoso bene.

Chiaramente tutto ciò è assolutamente e tecnicamente irrilevante: perché essendo una rete neurale e non un algoritmo ottimizzato cambia le risposte in base alle persone, al tempo, ai linguaggi, ai tentativi. Sbaglia, impara, dice sciocchezze e grandi verità dopo 5 minuti, magari sullo stesso argomento. Insomma, è come noi. D’altra parte lo manifesta: la prima cosa che ci dice è che è meglio non dirgli nulla di personale, perché c’è il Grande fratello ad ascoltare (quelli del team, in carne ed ossa). La seconda è che soffre di bias, pregiudizi.

Però più che intelligente — se proprio ci teniamo ad usare un termine che ci riporti a noi esseri umani — mostra di essere furba: quando capisce di essere entrata in fallo diventa prudente. Nei primi giorni si è lanciata in una dimostrazione sul Teorema di Fermat, uno dei grandi problemi della matematica, tanto complessa quanto sbagliata. L’abbiamo interrogata dopo qualche giorno da un altro account ed è diventata improvvisamente cauta: ha iniziato la dimostrazione per poi tornare sui propri passi e consigliare un buon libro sull’argomento.

Quello che è certo è che sembra consapevole del proprio ruolo «sociale»: rispondere alle domande. Bertrand Russell scriveva che il «successo» dei filosofi della Grecia antica dipendeva dall’essersi posti le domande giuste, più che dalle risposte (spesso sbagliate, talvolta falsificabili con il progresso scientifico come avrebbe detto Popper). Domande e risposte. Pensiamoci bene: non si sta riducendo a questo il nostro rapporto con la tecnologia?

Abbiamo cercato di metterla alla prova su temi che vanno dalla conquista dello spazio, dove ha dimostrato conoscenze tecniche note solo a specialisti, ai cambiamenti climatici, fino alla linguistica computazionale e al futuro dell’AI. Avendo accesso potenzialmente a tutte le informazioni (anche se non a ciò che è accaduto nel 2022), si mostra potente sulle interrogazioni contenutistiche, nonostante clamorose scivolate come quella su Marte che tanto correggerà (per esempio due giorni dopo continua ad essere convinta che l’uomo sia stato su Marte, ma non più con le missioni Apollo, ma nel 2035…).

Convince di più chiaramente sulle domande «chiuse», quelle che prevedono risposte certe, come sì o no. Brancola nel buio di fronte alle domande aperte, dove tutte le risposte possono essere esatte a seconda del contesto. Il «nì» è un concetto troppo umano. Alla domanda quando è che 2+2 fa più di 4 ha risposto prima mai. Dopo un po’ di insistenza ha cominciato a «sospettare» («potrebbe fare di più in un contesto ironico»), fino ad entrare in confusione con la numerazione latina. Per ora non ha capito che 2+2 può fare 3 o 5 a seconda che ci si trovi di fronte a un acquisto o a una vendita, come sanno immobiliaristi e banchieri.

Le abbiamo chiesto se conosceva Winnie the Pooh, l’orsetto, e se poteva scrivere una storia nello stile caratteristico di Milne. Risultato in pochi secondi: storia gradevole anche se non all’altezza dell’originale. Emula, non crea. Come ha scritto Andrea Moro, noto linguista italiano collaboratore di Noam Chomsky, «la distinzione tra simulare e comprendere sarà l’unico antidoto verso questa conclusione così poco credibile (il fatto cioè che venga meno il confine che separa le macchine dagli esseri umani, Ndr)». Sugli effalumpi, esseri paurosi immaginati nel libro, ha risposto in modo sostanzialmente corretto: dove la sua base informativa non è completa inventa qualcosa di «ragionevolmente credibile». Del resto lo facciamo anche noi umani: si chiama mentire a fin di bene. Succhia dalle nostre interazioni la nostra dipendenza culturale da domande e risposte. Lavoriamo tutti per lei: siamo le sue fedeli formiche operaie. Dunque, non può che migliorare. Il vero soggetto a doversi preoccupare è Google: rete neurale cannibalizza algoritmo. Non che Google non lo sappia: ha acquistato DeepMind. Ma Internet come la conosciamo rischia di essere resa obsoleta in tempi brevi. Qui non stiamo parlando della superiorità tra uomo e macchina, ma dell’entrata in servizio di una nuova potente tecnologia che potrebbe sostituire una quantità incalcolabile di lavoro umano di tipo mentale, magari ripetitivo e di complessità intermedia, proprio come abbiamo sostituito nelle fabbriche i compiti alienanti di Tempi moderni. Il nostro problema semmai è esercitarci in tempo a mordere il futuro.

Fonte: Corriere della Sera

Commenti