di Massimo Sideri
Il software Sybil testato negli Usa calcola il rischio di cancro ai polmoni entro 6 anni. Dall’oncologia al deterioramento cognitivo, le promesse e i limiti dei nuovi algoritmi
Secondo Giorgio Metta, direttore scientifico dell’Iit di Genova, l’aspetto meno interessante nello sviluppo dell’intelligenza artificiale forse proprio quello di riproduzione dell’intelligenza umana. Per Metta ci sono altri argomenti. Le scienze della vita, la medicina, la salute umana, l’ambiente e l’industria dove l’intelligenza artificiale pu contribuire a risolvere tantissimi problemi interessanti. In altre parole: stiamo guardando il dito (l’AI che dovrebbe renderci obsoleti come homo sapiens: leggi l’interesse mondiale per ChatGpt) invece della Luna (l’AI che pu contribuire a migliorare i progressi nella lotta alle malattie dell’homo sapiens). La possibilit presentata sul Journal of Clinical Oncology da un gruppo di scienziati del Mass general cancer center, in collaborazione con ricercatori del Massachusetts Institute of Technology di Boston, sembra seguire il solco di ragionamento di Metta.
Sybil — ha dichiarato la coautrice dello studio, Regina Barzilay del Jameel Clinic — in grado di osservare un’immagine e di prevedere il rischio che un individuo sviluppi un cancro ai polmoni entro sei anni. Lo speriamo. Ma il forse d’obbligo. Sybil un software di intelligenza artificiale, un modello di deep learning che invece di aver imparato a giocare a scacchi o a dama cinese stato istruito per analizzare le tomografie computerizzate del torace e vedere ci che l’occhio umano non vede.
(Qui sotto il nuovo episodio sull’Intelligenza artificiale di Geni Invisibili, il podcast sulle scoperte italiane dimenticate di Massimo Sideri qui la serie completa)
Tecnologia
Di per s non dovrebbe stupirci: la tecnologia gi ci permette di vedere ci che noi non vediamo. Da secoli. Basti pensare alle immagini dell’Universo profondo arrivate dal supertelescopio Space Webb della Nasa. Anche Galilei senza strumenti sarebbe rimasto alla sua intuizione. E cosa sarebbe stata la stessa medicina senza il microscopio? Ma l’argomento non potrebbe essere pi scivoloso, perch anche in passato ci sono stati casi di abbagli eclatanti e come sempre le promesse della scienza e della tecnologia spesso non vengono confermate. Per adesso parliamo di una ricerca testata su tre gruppi: una serie di scansioni di oltre 6 mila persone che Sybil non aveva visto in precedenza, 8.821 scansioni del Massachusetts General Hospital (Mgh) e 12.280 del Chang Gung Memorial Hospital di Taiwan.
I numeri
Numeri importanti, ma non certo definitivi. Non un caso che lo studio stesso sottolinei come ulteriori indagini siano necessarie e che questi sono risultati preliminari. Esistono altri campi di sperimentazione dell’intelligenza artificiale nel mondo diagnostico come il Dermatology assist di Google per i tumori alla pelle o l’Ai Mind per il deterioramento cognitivo. Lo stesso supercomputer Leonardo, in fase di rodaggio al Cineca di Bologna, dovrebbe essere usato per aiutare la selezione delle molecole per lo sviluppo dei nuovi farmaci, anche se in questo caso pi una applicazione di big data che di machine learning.
Gli inizi
Ma importante sottolineare che la strada solo all’inizio. Anche perch l’utilizzo dell’intelligenza artificiale nel campo della salute non ha la fedina penale intonsa. Qualche anno fa l’utilizzo di algoritmi di AI per selezionare quali cittadini inglesi dovessero fare ulteriori controlli si concluse con degli errori che portarono alla morte di alcuni pazienti. Tutti i Paesi si stanno dotando di regolamentazioni sull’utilizzo di questi potenti strumenti che possono ledere i diritti dei cittadini. Il primo problema noto sotto il nome di black box. Tutti i modelli di machine learning funzionano con dei dati (input) che vengono forniti all’algoritmo che offre come risposta gli output. Come ci arrivato? Nemmeno chi ha sviluppato i codici e gli algoritmi saprebbe rispondere alla domanda (da qui il nome tecnico di scatola nera). Se ha sbagliato non si sa perch. Ma il paradosso che non si sa il perch nemmeno se sta dicendo la cosa giusta. La stessa Ue ha previsto un diritto al perch, cio il diritto a sapere perch c’ stato un certo responso da parte delle macchine. Un ulteriore motivo che consiglia l’utilizzo non sostitutivo ma complementare dell’intelligenza artificiale rispetto all’esperto umano. un supporto, non un succedaneo.
13 gennaio 2023 (modifica il 14 gennaio 2023 | 00:54)
© RIPRODUZIONE RISERVATA