L’INTELLIGENZA ARTIFICIALE IN MEDICINA: È VERA GLORIA? (prima parte)

Tutto cambia perché nulla cambi”? *

a cura di Vincenzo O. Palmieri

L’Intelligenza Artificiale (Artificial Intelligence, AI) è l’abilità di una macchina, ad esempio un computer, di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. Il computer riceve i dati (già preparati o raccolti tramite sensori), li processa e risponde.

Premessa

Secondo alcuni (come riporta Maurizio Crippa ne “Il Foglio” di sabato 6 maggio 2023), siamo di fronte a un salto quantitativo, a un mondo governato unicamente da un computer che ha imparato a pensare e a parlare, da una intelligenza non più umana ma artificiale, un cambiamento che promette di condizionare il governo stesso della conoscenza, poiché la macchina diventa a immagine e somiglianza dell’uomo. È ovvio pertanto che esplodano dibattiti ed entusiasmi, o che emergano paure arcaiche. Come si può infatti restare indifferenti alle parole pronunciate da Geoffrey Hinton, il Padrino della AI che ha lasciato Google, dove era a capo dei progetti di sviluppo per i linguaggi di apprendimento artificiale, che riferendosi alla sua “creatura” dice: “È una minaccia esistenziale all’umanità, la politica deve regolare questi modelli”? O ancora, come non riflettere sul contenuto della lettera aperta scritta da esperti e scienziati “Pause Giant AI Experiments” in cui essi dicono: “Se trattiamo l’intelligenza artificiale come un oracolo rischiamo la fine della storia umana” e richiedono a gran voce una moratoria sulla ricerca scientifica in questo settore?

Si tratta di un pericolo reale o non piuttosto del tentativo da parte di alcuni di recuperare un ritardo di ricerca rispetto ad aziende più avanti nel campo della sperimentazione innovativa in questo settore? È reale l’allarme rosso (“Il Sole 24 Ore”, 3 maggio 2023) lanciato da parte di alcuni per cui cresce il numero delle aziende che decide di non assumere più personale per profili professionali che saranno coperti dalle macchine?

E tutto questo che implicazioni ha nel campo della medicina, in cui le applicazioni della AI si stanno progressivamente estendendo? È realmente tutto così in bianco e nero o possiamo piuttosto pensare a un’area grigia in cui questa straordinaria innovazione può portare benefici a tutte le persone in ogni parte del mondo?

Se infatti leggiamo il bel libricino di Francesco Caio e Pierangelo Soldavini “Digitalizzazione per un nuovo rinascimento italiano”, siamo portati a pensare che l’innovazione digitale (e fra queste anche le applicazioni di AI) può contribuire a sviluppare una sanità costruita attorno alla persona, a far entrare l’ospedale nel corpo umano, una metafora che indica la trasformazione della prospettiva di una cura che non è più centralizzata nell’ospedale o nello studio del medico di base, ma che è diffusa sul territorio, che si avvicina alla persona, paziente attuale o futuro, per costruire un servizio in cui al centro ci sia il singolo.

Eppure c’è tanto scetticismo, formulato con argomenti tutt’altro che banali, in cui si scomoda anche la filosofia: basti pensare al libro “Le non cose: come abbiamo smesso di vivere il reale” scritto da Byung-chul Han (filosofo e docente sudcoreano che vive in Germania, dove si occupa di teoria della cultura) poco più di un anno fa. Egli dice: “Non abitiamo più la terra e il cielo, bensì Google Earth e il Cloud. Il mondo si fa sempre più inafferrabile, nuvoloso e spettrale. Abbiamo perso il contatto con il reale. È necessario tornare a rivolgere lo sguardo alle cose concrete, modeste e quotidiane. Le sole capaci di starci a cuore e stabilizzare la vita umana. Le non-cose stanno prendendo il sopravvento sul reale, sui fatti e la biologia”. Sembra quasi che il filosofo coreano abbia appreso la lezione del grande filosofo tedesco del secolo scorso, Martin Heidegger, che in uno dei suoi cosiddetti “Holzwege”, cioè Sentieri, scritti che riassumono molte delle sue lezioni accademiche, dedica numerose pagine al significato della parola “Cosa”, soffermandosi con una argutezza straordinaria sul celebre quadro in cui Van Gogh dipinge un paio di scarpe di contadino (Figura 1), immagine che è la rappresentazione più icastica possibile di quello che tutti noi comprendiamo essere “una cosa”.

Chi ha ragione allora? I detrattori della AI o i suoi sostenitori? Qual è il reale beneficio che ricaviamo da questi modelli matematici applicati in così numerosi ambiti della vita di ogni giorno e in settori professionali così vasti e differenziati, fra i quali la Medicina?

Considerando la complessità di tali domande, ho pensato di suddividere questo articolo in due parti:

  • una prima parte dedicata alla descrizione rapida della AI e di alcune sue applicazioni;

  • una seconda parte, che verrà pubblicata nel prossimo numero del Sorpasso, dedicata più in dettaglio alla descrizione delle applicazioni della AI in Medicina, con una riflessione sui possibili vantaggi e i potenziali rischi.

Le origini della AI

L’origine della AI è lontana nel tempo: già nel 1930, il matematico inglese Turing (Figura 2) teorizzò il concetto di intelligenza artificiale, che egli applicò tra l’altro per decriptare i codici cifrati delle potenze dell’Asse durante la Seconda Guerra Mondiale per conto del governo del Regno Unito. Nel 1950 egli scrisse un articolo chiave dal titolo “Computing machinery and intelligence” su Mind, una rivista, guarda caso, di filosofia. Ma il progresso tecnologico è stato più lento della grandiosa intelligenza di Turing!

Negli anni ’50 i computer erano grandi e lenti. Il primo disco rigido è stato l’IBM Modello 350 Disk File, introdotto nel 1956. Aveva una capacità di archiviazione totale di appena 5 milioni caratteri (poco meno di 5 MB). Il primo disco rigido con una capacità superiore a 1 GB è stato l’IBM 3380, introdotto nel 1980. Aveva le dimensioni di un frigorifero e pesava 250 kg; il prezzo era di $ 100.000. Ma la tecnologia dei circuiti integrati stava migliorando. Nel 1965, Gordon Moore, cofondatore di Fairchild Semiconductor e Intel, ha previsto che il numero di transistor in un circuito integrato e, quindi, la sua potenziale potenza di calcolo sarebbe raddoppiata ogni 2 anni. La sua previsione era giusta; questo cambiamento nella densità dei semiconduttori è noto come legge di Moore. Con circuiti più densi, la memoria del computer e la velocità di elaborazione sono aumentate e oggi i dispositivi tascabili, più potenti dei supercomputer degli anni ’80 che occuparono interamente camere, sono comuni e disponibili a una frazione del prezzo iniziale (Figura 3).

Il progresso nella scienza dei dati, però, non è semplicemente una questione di maggiori prestazioni, velocità e spazio di archiviazione. Oltre al tipo di informazioni che si trovano nelle biblioteche, ai dati generati nelle organizzazioni e ai sistemi stabiliti progettati per raccogliere e codificare i dati, nuove forme di tecnologia possono utilizzare i dati che sono generati sia dalle persone che dalle macchine. Questi dati sono spesso caotici e non strutturati. I dati ora provengono da molte altre fonti, inclusi social network, blog, chat rooms, siti di recensioni di prodotti, comunità, pagine di siti Web, e-mail, documenti, immagini, video e musica, insieme a sensori indossabili e ambientali.

Una volta avuti i dati, avevamo bisogno di modalità per identificarli ed elaborarli.

Ciò ha richiesto una seconda rivoluzione, algoritmi matematici che potessero rapidamente, e con ragionevole affidabilità, tracciare questo comportamento e aiutare l’utente finale nel reperire particolari informazioni.

Ora siamo in grado di utilizzare dati non strutturati per identificare relazioni nuove tra gli elementi dei dati stessi, consentendo l’uso di dati dinamici e dati con più contesti che, quando approcciati e analizzati in modi non tradizionali, sono in grado di fornire intuizioni operative sul comportamento umano.

Con questo approccio le complessità dei sottostanti modelli informatici e il corpus di dati da cui quei modelli potevano derivare sono cresciuti e diventati più potenti. L’obiettivo di un computer che potrebbe emulare certi aspetti dell’interazione umana è passato da un sogno impossibile alla realtà.

Questi avanzamenti, ad esempio, hanno permesso l’emergere di computer che possono aiutare a eseguire attività in precedenza ritenute noiose. Il computer HAL di 2001 Odissea nello spazio o il personaggio C-3PO di Star Wars, in effetti, sono versioni primitive degli assistenti virtuali basati sulla AI, come Siri di Apple o Alexa di Amazon.

L’intelligenza artificiale e l’apprendimento automatico costituiscono l’elemento trainante dietro questi dispositivi.

Riflessioni conclusive sulla AI

Come è facile intuire, questi progressi hanno ampiamente attirato la ricerca industriale privata e pubblica. La prestigiosa università californiana di Stanford ha creato un sito web (https://aiindex.stanford.edu/report/) con questo obiettivo: “Forniamo dati imparziali, rigorosamente controllati e di provenienza globale per responsabili politici, ricercatori, giornalisti, dirigenti e il pubblico in generale per sviluppare una comprensione più profonda del complesso campo dell’IA”. Si tratta di una vera miniera di informazioni su ciò che nel campo della AI succede un po’ in tutto il mondo, attivo già dal 2017. Spulciando nel rapporto 2023, ad esempio, scopriamo (Figura 4) che fino al 2014 i modelli di machine learning più significativi venivano rilasciati dal mondo accademico. Da allora l’industria ha preso il sopravvento. Nel 2022 vi sono stati 32 modelli rilevanti di machine learning prodotti dal settore industriale rispetto ai soli tre prodotti dal mondo accademico. Costruire sistemi di intelligenza artificiale all’avanguardia richiede sempre più grandi quantità di dati, potenza del computer e denaro, risorse che gli attori del settore possiedono intrinsecamente in quantità maggiori rispetto alle organizzazioni non profit e al mondo accademico. Dallo stesso sito apprendiamo anche che in un sondaggio IPSOS del 2022 il 78% degli intervistati cinesi (la percentuale più alta dei paesi intervistati) concorda con l’affermazione secondo cui i prodotti e i servizi che utilizzano l’IA hanno più vantaggi che svantaggi. Dopo gli intervistati cinesi, quelli dell’Arabia Saudita (76%) e dell’India (71%) si sono detti i più positivi riguardo ai prodotti AI. Solo il 35% degli americani inclusi nel campione (tra i più bassi dei paesi intervistati) concorda sul fatto che i prodotti e i servizi che utilizzano l’intelligenza artificiale hanno più vantaggi che svantaggi. Non è un caso anche che la Cina rappresenti in assoluto il Paese che realizza più pubblicazioni in questo settore.

Personalmente plaudo a una iniziativa come quella della Stanford University, perché cerca di aprire una finestra di massima trasparenza sul ruolo della AI nella nostra società. In realtà tale cambiamento è già in atto e dobbiamo averne la massima consapevolezza e capirne le implicazioni, come è stato a suo tempo per la rivoluzione di Internet: nel caso della AI il fenomeno è fortemente pervasivo ed è destinato a cambiare molto della nostra vita. Ciò che conta è la consapevolezza che le macchine non hanno pensieri umani (il linguaggio, ad esempio, è irriducibile a una funzione meccanica), sono algoritmi che li riassumono e stabiliscono previsioni statistiche. Il problema principale è quello di rendere il più possibile trasparente (esplicabile o accountable come dicono gli inglesi) il loro processo di accumulo ed elaborazione.

Nella prossima parte vedremo come questi principi conclusivi possono riferirsi alle delicate applicazioni della AI nel campo della Medicina.

*Citazione da Il Gattopardo di Tomasi di Lampedusa, modificata in forma interrogativa

Lascia un commento