Per usare bene l’intelligenza artificiale “bisogna essere più intelligenti dell’intelligenza artificiale”, cioè bisogna capire e non ridursi a copiare meccanicamente, perché l’uomo non è una macchina. “Le possibilità positive dell’intelligenza artificiale sono enormi, però anche le possibilità negative, e quindi dobbiamo essere di più della macchina, dobbiamo usare nostra umanità e questo richiede uno sforzo individuale”.
A dirlo, a tutti gli studenti che si entusiasmano per il software che fa i compiti e perfino gli elaborati più difficili e impegnativi, è stato Federico Faggin, proprio l’inventore del microprocessore e di altre tecnologie alla base della quarta rivoluzione industriale, in una conferenza aperta al pubblico che si è tenuta il 27 aprile all’Itis Rossi di Vicenza.
Vari i temi affrontati durante l’incontro, da quello centrale del rapporto uomo-macchina, alla natura della coscienza, ai rischi connessi all’utilizzo delle tecnologie più avanzate.
Chi è Federico Faggin
Classe 1941, Federico Faggin è un vicentino illustre famoso nel mondo. Una carriera eccezionale di scienziato, inventore di tecnologie informatiche, imprenditore, scrittore, che gli è valsa una serie di riconoscimenti internazionali. Ha studiato presso l’Istituto tecnico industriale Alessandro Rossi di Vicenza (dove torna ogni tanto per apprezzate conferenze) e si è laureato in fisica all’Università di Padova, ha lavorato a lungo negli Stati Uniti ed ha assunto anche la cittadinanza statunitense. Figlio del filosofo e storico della filosofia Giuseppe Faggin, un approccio umanistico l’ha comunque ereditato, tanto che negli ultimi 20 anni i suoi studi sono stati orientati all’approfondimento della teoria della coscienza, argomento centrale di ogni sua conferenza. “Irriducibile” è il suo ultimo libro in cui affronta la tematica della vita, della coscienza e dei computer. Nessuna macchina potrà mai sostituirci completamente, è la tesi sostanziale.
Coscienza e libero arbitrio
Faggin racconta di aver studiato anche neuroscienza e biologia per capire come funzionano le reti neurali del cervello e per cercare di “emularlo meglio”. “Avevo bisogno di capire se era possibile fare un computer cosciente, perché mi rendevo conto che la coscienza era una proprietà fondamentale nostra, che non aveva un correlato fisico con un computer o con un programma”. All’inizio l’atteggiamento era materialista e meccanicista, come per la stragrande maggioranza della comunità scientifica, ma, dopo anni di ricerca e approfondimento, la convinzione formatasi è che la coscienza è una proprietà umana basata sull’esperienza interiore e individuale. “È fondamentale che noi possiamo decidere le nostre azioni con libero arbitrio, anche contro il nostro interesse. Questa è la capacità umana, è quello che rende umani, le macchine non hanno questa capacità”.
“Bisogna cominciare a guardare dentro di noi, capire chi siamo, riconoscere che siamo di più di una macchina, capire che c’è dentro di noi una scintilla di divino. Una macchina, per quanto sia sofisticata, dentro ha il buio, non ha una coscienza, non c’è una interiorità. Il computer è semplicemente la somma delle parti, non c’è un qualcosa di più che non sia un’altra parte che controlla le parti, e quindi è sempre parte della somma delle parti”.
Intelligenza artificiale e rischi: essere controllati da chi controlla le macchine
Se è chiaro che l’intelligenza artificiale non è l’intelligenza umana e non ha l’etica, nel prossimo futuro i rischi gravissimi potrebbero essere due: dare troppo potere alle macchine, fino a prendere decisioni al posto nostro, e l’“uso oscuro” che possono farne i governanti e in generale chi controlla le macchine.
Il problema già si pone realmente per esempio in situazioni di guerra con l’uso dei droni. Sganciare la bomba è una decisione da prendere in pochi secondi, si può lasciare che sia il drone a decidere in base al suo programma. Ma “se cominciamo a dare alla macchina l’autorità di prendere decisioni di vita o di morte sugli altri questo sarebbe la fine dell’umanità”.
Nella quotidiana normalità, l’uso dell’intelligenza artificiale prende piede in vari campi. C’è chi sostiene, per esempio, che anche il diritto dovrebbe essere gestito dall’intelligenza artificiale. Benissimo, se si tratta di avere tutte le informazioni in pochi secondi. Ma potrebbe diventare un problema etico, se si arriva a condannare le persone sulla base di un algoritmo.
Di fatto sembra sempre più diffusa e accettata dall’opinione pubblica l’idea che l’intelligenza artificiale possa superarci. “Se noi accettiamo queste cose, ci riduciamo a essere controllati da chi controlla le macchine” dice Faggin. Sta a noi tuttavia, e alla nostra responsabilità, fare le scelte fondamentali per il futuro. Avremo il futuro che ci meritiamo.
C’è un antidoto a cui fare riferimento? E quale messaggio trasmettere ai giovani?
“L’antidoto è appunto di capire di essere di più della macchina – insiste Faggin – dobbiamo superare l’automatismo, usare il buon senso, la comprensione, che è una proprietà non algoritmica dell’uomo”. L’uomo insomma deve mantenere la capacità di capire e di decidere.
Con una buona dose di ottimismo, Faggin sostiene che “l’intelligenza artificiale ci forzerà a insegnare ai ragazzi a capire, non solo a ripetere, quindi a sviluppare il senso critico, la discriminazione e la comprensione profonda, che è quella che poi permette di gestire questa intelligenza artificiale per il bene comune, invece di essere usata per altro” .
, L’articolo originale è stato pubblicato da, https://www.tecnicadellascuola.it/faggin-agli-studenti-cari-ragazzi-bisogna-essere-piu-intelligenti-dellintelligenza-artificiale, Alunni,federico faggin,Intelligenza artificiale,scuola,Studenti, https://www.tecnicadellascuola.it/feed, Anna Maria Bellesia,