ChatGPT, l’Intelligenza artificiale che può sostituire Google (ma non l’uomo)

ChatGPT, l’Intelligenza artificiale che può sostituire Google (ma non l’uomo)

Spread the love

LA PROVA

di Roberto Battiston e Massimo Sideri20 dic 2022

ChatGPT, l'Intelligenza artificiale che pu sostituire Google (ma non l'uomo)

Se non fate parte dei primi 5 milioni di persone al mondo che in poco meno di un mese hanno provato a interrogare quasi fosse un oracolo ChatGPT, la chat di intelligenza artificiale di quarta generazione resa disponibile dal gruppo Open.AI, non preoccupatevi: potrete vivere tranquilli ancora per un po’. Alla fine di questo articolo, per, anche voi potrete dire di aver assaggiato un morso di futuro che, come la mela di Eva, sar stata anche un po’ dolce (immaginiamo) ma allo stesso tempo and di traverso sia a lei che ad Adamo. Vi potrete consolare sapendo che questa mela andr probabilmente di traverso anche a Google.

Ma partiamo dalla prima domanda che vi starete ponendo: com’ veramente questa Intelligenza artificiale? Prenderla in giro facile (crede che l’uomo sia stato su Marte grazie alle missioni Apollo). Prenderla sul serio anche. Pi che dotta sembra confusa (2+2 pu fare pi di 4 perch se usiamo la notazione romana allora II+II fa IV, dunque pi di IV), arrogante (lo vedremo con il Teorema di Fermat), spiona, politicamente corretta (in particolare sembra indottrinata per eludere tutti gli stereotipi sulle persone di colore, storico problema degli algoritmi), evasiva su se stessa e i propri capi (inutile fargli domande personali, risponde con una tiritera del tipo sono un modello di linguaggio addestrato e non posso provare le emozioni…), un po’ complottista (su Wuhan e la fuga del virus), pericolosa. Lo stesso Elon Musk, uno dei primi finanziatori, l’ha definita scary good, spaventoso bene.

Chiaramente tutto ci assolutamente e tecnicamente irrilevante: perch essendo una rete neurale e non un algoritmo ottimizzato cambia le risposte in base alle persone, al tempo, ai linguaggi, ai tentativi. Sbaglia, impara, dice sciocchezze e grandi verit dopo 5 minuti, magari sullo stesso argomento. Insomma, come noi. D’altra parte lo manifesta: la prima cosa che ci dice che meglio non dirgli nulla di personale, perch c’ il Grande fratello ad ascoltare (quelli del team, in carne ed ossa). La seconda che soffre di bias, pregiudizi.

Per pi che intelligente — se proprio ci teniamo ad usare un termine che ci riporti a noi esseri umani — mostra di essere furba: quando capisce di essere entrata in fallo diventa prudente. Nei primi giorni si lanciata in una dimostrazione sul Teorema di Fermat, uno dei grandi problemi della matematica, tanto complessa quanto sbagliata. L’abbiamo interrogata dopo qualche giorno da un altro account ed diventata improvvisamente cauta: ha iniziato la dimostrazione per poi tornare sui propri passi e consigliare un buon libro sull’argomento.

Chiamiamola Furbizia Artificiale.

Quello che certo che sembra consapevole del proprio ruolo sociale: rispondere alle domande. Bertrand Russell scriveva che il successo dei filosofi della Grecia antica dipendeva dall’essersi posti le domande giuste, pi che dalle risposte (spesso sbagliate, talvolta falsificabili con il progresso scientifico come avrebbe detto Popper). Domande e risposte. Pensiamoci bene: non si sta riducendo a questo il nostro rapporto con la tecnologia?

Abbiamo cercato di metterla alla prova su temi che vanno dalla conquista dello spazio, dove ha dimostrato conoscenze tecniche note solo a specialisti, ai cambiamenti climatici, fino alla linguistica computazionale e al futuro dell’AI. Avendo accesso potenzialmente a tutte le informazioni (anche se non a ci che accaduto nel 2022), si mostra potente sulle interrogazioni contenutistiche, nonostante clamorose scivolate come quella su Marte che tanto corregger (per esempio due giorni dopo continua ad essere convinta che l’uomo sia stato su Marte, ma non pi con le missioni Apollo, ma nel 2035…).

Convince di pi chiaramente sulle domande chiuse, quelle che prevedono risposte certe, come s o no. Brancola nel buio di fronte alle domande aperte, dove tutte le risposte possono essere esatte a seconda del contesto. Il n un concetto troppo umano. Alla domanda quando che 2+2 fa pi di 4 ha risposto prima mai. Dopo un po’ di insistenza ha cominciato a sospettare (potrebbe fare di pi in un contesto ironico), fino ad entrare in confusione con la numerazione latina. Per ora non ha capito che 2+2 pu fare 3 o 5 a seconda che ci si trovi di fronte a un acquisto o a una vendita, come sanno immobiliaristi e banchieri.

Le abbiamo chiesto se conosceva Winnie the Pooh, l’orsetto, e se poteva scrivere una storia nello stile caratteristico di Milne. Risultato in pochi secondi: storia gradevole anche se non all’altezza dell’originale. Emula, non crea. Come ha scritto Andrea Moro, noto linguista italiano collaboratore di Noam Chomsky, la distinzione tra simulare e comprendere sar l’unico antidoto verso questa conclusione cos poco credibile (il fatto cio che venga meno il confine che separa le macchine dagli esseri umani, Ndr). Sugli effalumpi, esseri paurosi immaginati nel libro, ha risposto in modo sostanzialmente corretto: dove la sua base informativa non completa inventa qualcosa di ragionevolmente credibile. Del resto lo facciamo anche noi umani: si chiama mentire a fin di bene. Succhia dalle nostre interazioni la nostra dipendenza culturale da domande e risposte. Lavoriamo tutti per lei: siamo le sue fedeli formiche operaie. Dunque, non pu che migliorare. Il vero soggetto a doversi preoccupare Google: rete neurale cannibalizza algoritmo. Non che Google non lo sappia: ha acquistato DeepMind. Ma Internet come la conosciamo rischia di essere resa obsoleta in tempi brevi. Qui non stiamo parlando della superiorit tra uomo e macchina, ma dell’entrata in servizio di una nuova potente tecnologia che potrebbe sostituire una quantit incalcolabile di lavoro umano di tipo mentale, magari ripetitivo e di complessit intermedia, proprio come abbiamo sostituito nelle fabbriche i compiti alienanti di Tempi moderni. Il nostro problema semmai esercitarci in tempo a mordere il futuro.

RIPRODUZIONE RISERVATA

Iscriviti alla newsletter “Whatever it Takes” di Federico Fubini. Dati, fatti e opinioni forti: le sfide della settimana per l’economia e i mercati in un mondo instabile. Ogni luned nella tua casella di posta.

E non dimenticare le newsletter L’Economia Opinioni”
e “L’Economia Ore 18”

.

© RIPRODUZIONE RISERVATA

, 2022-12-20 11:35:00, La rete neurale di Openai dovrebbe fare più paura a Google che agli esseri umani. Non stiamo parlando della superiorità tra uomo e macchina, ma di una nuova tecnologia che potrebbe sostituire una quantità incalcolabile di lavoro di tipo mentale, magari ripetitivo e di complessità intermedia , Roberto Battiston e Massimo Sideri

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.