AI IS ALL WE NEED?!?

Campo invernale Adulti 2025

Cosa ha portato decine di persone a rinchiudersi in stanze più o meno capienti per sentir parlare di concetti piuttosto astrusi, infarciti perdipiù di equazioni e formule matematiche? Ci voleva solo l’Intelligenza Artificiale (IA, o AI, all’inglese), con cui gli adulti di Azione Cattolica delle due diocesi di Carpi e Modena-Nonantola si sono misurati al campo invernale di quest’anno: tre giorni piuttosto intensi, in cui si sono succeduti relatori competenti, coinvolgenti e forse a tratti sconvolgenti. Vediamo perché.

Dopo una corposa introduzione della nostra presidente, Benedetta Lodi, che ci ha subito messo davanti alcuni termini del vocabolario dell’IA (come prompt, token, ecc.), è stata la volta di Fabio Ferrari, ora consigliere per Accenture e UNICEF su temi relativi all’IA e già fondatore dell’azienda Ammagamma. Fabio ha iniziato tracciando un quadro a tinte fosche riguardo all’IA nel mondo: sono pochissimi i laboratori dove realmente si sviluppa IA, ce ne sono 8 o 9 in USA, Israele e Cina (della quale si sa pochissimo, ma dove comunque l’IA viene insegnata fin dalle elementari). L’Europa perlopiù usa (e dunque subisce) le applicazioni di IA (come ChatGPT, Gemini, Copilot, iMode), anche perché gli investimenti del Vecchio Continente per l’IA sono molto al di sotto di quelli ricevuti dalle Big Tech americane. È pure in atto una diatriba fra Stati Uniti ed Europa sulla regolamentazione dell’IA, con i primi che, per lasciare il più possibile liberi gli sviluppatori in questo campo, rifiutano recisamente ogni tentativo (da alcuni definito addirittura opera dell’Anticristo…) di dare delle regole. Al contrario, in Europa, nel 2024 è uscito il cosiddetto AI Act. Se il nostro Continente ha ancora delle possibilità per dire la sua, questo sarà solo nel campo dell’etica dell’IA.

Fabio ha poi tracciato un po’ di storia dell’IA, partendo dalla nascita della cibernetica negli anni ’50, che si prefiggeva di imitare le funzioni del cervello umano (inventando quindi le reti neurali), fino ai nostri giorni (il titolo di questo pezzo è un adattamento di quello di un articolo del 2017 che spiegava il Transformer, ovvero il cuore degli algoritmi di intelligenza artificiale generativa, come ChatGPT, la cui versione 4 è uscita solo nel novembre del 2022).

Ciò che fa funzionare l’IA è essenzialmente algebra, statistica e logica. In particolare, vi sono tre fasi: una funzione di ingresso, od obiettivo, in pratica la domanda che facciamo; un modello “stocastico”, ovvero costruito prendendo un insieme enorme di dati, quelli presenti su internet, e trovando le correlazioni statistiche fra parole e concetti: questo modello non ha dunque nessuna consapevolezza (o tantomeno coscienza) del mondo, ma mette insieme dati che già sono in relazione, sulla rete, con la nostra domanda. Essendo inoltre stocastico, non è basato su equazioni deterministiche, come E=mc2, ma su relazioni appunto statistiche. Questo ha portato a dichiarare qualche scienziato che siamo entrati in una nuova fase della conoscenza, dove la teoria, intesa come equazioni che spiegano la realtà, non servirebbe più (“The end of theory”, Wired, 2008). Nell’ultima fase l’algoritmo fornisce un risultato, che però deve essere interpretato. Questo terzo passaggio è molto delicato, in quanto, mentre l’IA si fonda su un modello statistico, noi ragioniamo in termini deterministici, ovvero “esatti”. Occorre anche fare attenzione alle cosiddette allucinazioni, ovvero agli errori nelle risposte dell’IA, che dipendono dalla base dei dati e dal modello, ma che sono in piccolissima percentuale rispetto alle capacità umane.

Infine, in ottica di futuri lavori, Fabio pensa che gli umanisti saranno più ricercati, perché possono contestualizzare il modello su cui si fonda l’IA. Gli informatici potranno avere un importante ruolo sia nel programmare l’IA, ma anche nell’allenarla.

Nel secondo giorno Massimo Cerofolini, giornalista RAI e conduttore del programma di tecnologia Eta Beta, ci ha guidato in una riflessione sull’importanza di restare umani nell’era dell’IA. Massimo è partito dal parallelo fra l’Amazzonia, ultima porzione incontaminata del globo, e Singapore, la città dove tutto è pervaso dalla tecnologia, anche il governo. Negli ultimi tempi, anche in Amazzonia è arrivato internet: gli Indios sono stati molto pronti ad adeguarsi, probabilmente perché già la loro cultura porta a pensare che tutto sia connesso. App come TikTok vengono usate non per diffondere balletti virali, ma per segnalare abusi. In più, sono stati installati dei sensori sugli alberi della foresta per rilevare a distanza le azioni abusive di disboscamento. Dall’altra parte, per difendersi dal caldo e dalle alluvioni, a Singapore hanno usato l’IA per aumentare la superficie verde, sfruttando soprattutto l’altezza dei grattacieli, vista la scarsità di terreno. Possiamo dunque dire che l’Amazzonia e Singapore si sono un po’ avvicinate.

E in Italia? Dagli Indios dovremmo prendere esempio per valorizzare i nostri dati e usarli a fini benefici, piuttosto che metterli in mostra e a disposizione di ignoti. Da Singapore dovremmo invece imparare a ridurre la burocrazia e impiegare robot per espletare le funzioni più semplici e ripetitive, o anche per far compagnia ad una popolazione sempre più anziana. Più in generale, per proteggere il nostro know-how, Massimo suggerisce di digitalizzare i saperi (creando i cosiddetti gemelli digitali). Ciò che comunque nessuna macchina può dare è quel tocco umano che mettiamo, anche involontariamente, nelle nostre opere e che rende il nostro lavoro unico ed irripetibile. Qualcosa si sta muovendo: nel campo della medicina, proprio dalla fine di gennaio 2026, 1500 medici cominceranno ad usare un software di IA come supporto di lavoro, ed entro un anno questa sperimentazione verrà estesa ad altri 15000 professionisti.

Per finire ci è stata raccontata la storia di un genio italiano, purtroppo dimenticato: Angelo Dalle Molle. Imprenditore veneto nel campo dei distillati, inventò l’amaro Cynar, nonché il suo indimenticabile spot, omologò la prima auto elettrica, introdusse il car-sharing, oltre che fare il primo tentativo di TV nazionale. Nel gestire le sue aziende seguì lo stile di vicinanza umana che fu caratteristico di Adriano Olivetti. Ad un certo punto abbandonò l’impresa e si interessò di cibernetica, fondando il primo centro studi di Intelligenza Artificiale, in Svizzera. Dalle Molle è un bell’esempio di imprenditore illuminato che, pur cavalcando le innovazioni più spinte, ha sempre messo l’uomo prima della tecnologia, nel tentativo di migliorare la nostra condizione.

Il terzo giorno, domenica mattina, Tiziano Maini, insegnante di informatica alle superiori, ci ha guidati nell’ambito delle reti neurali, che potremmo definire le cellule dell’IA: con pratici e semplici esempi ha spiegato come una rete neurale, con i suoi molteplici strati, può arrivare a riconoscere lettere e numeri, opportunamente allenata con esempi corretti. Più reti neurali costituiscono poi il Large Language Model, ovvero il meccanismo di funzionamento dell’IA ed in particolare dell’IA generativa, che cioè è in grado di creare dati (di testo, visivi, sonori, ecc.) che prima non esistevano, assemblando informazioni già correlate fra loro su internet.

È stata poi la volta di Stefano Zona, medico infettivologo, che ci ha offerto una panoramica dell’utilizzo dell’IA in campo sanitario. L’IA applicata in medicina è definita come dispositivo medico. Anche qui, si distinguono ormai i software classici (ovvero i programmi dei nostri computer), che sono statici e deterministici (a domanda precisa rispondono con una risposta sola, esatta), da quelli basati sull’IA, che sono adattabili e probabilistici, perché riflettono l’incertezza dei dati (ma anche del mondo…) su cui il modello è stato allenato. Un tema scottante a questo riguardo è di chi è la responsabilità delle risposte (diagnosi) dell’IA: per ora essa non può che risiedere in colui che ha proposto lo studio e ha interrogato l’IA. Qui è cruciale il ruolo dell’uomo (medico), nel prendere la risposta ed eventualmente ridarla in ingresso perché questa venga migliorata (retroazione). Ad ora l’IA appare un ausilio molto potente per la diagnosi differenziale, che, condotta dai soli medici, può richiedere molto tempo, sia per l’esecuzione degli esami che per lo studio dell’andamento temporale dei sintomi: l’IA può avvalersi invece di molti più parametri e dati già pubblicati. Per legge, tuttavia, non possiamo lasciare l’IA da sola in medicina: essa può solo supportare il sanitario. Se qualche tempo fa in alcuni campi, come la radiologia o l’anatomia patologica, gli specialisti sembravano essere stati fatalmente superati, ci si è accorti che rimangono invece fondamentali, non solo per formulare le domande giuste, ma soprattutto per l’interpretazione dei risultati, per non parlare della relazione con pazienti e familiari. Un paio di campi in cui l’IA sta dando una mano decisiva sono la chirurgia robotica, per aumentare l’accuratezza dell’intervento, nonché limitare la sua invasività, e la sperimentazione farmacologica, dove l’IA non solo riesce a creare molecole iniettabili, ma può effettuare anche sperimentazione in-silico, ovvero basata su modelli matematici, prima di arrivare quindi ai test in-vitro ed in-vivo (anche qui aumentando le chances di successo e accorciando i tempi di disponibilità di nuovi farmaci).

L’ultimo intervento è stato di Maria Laura Mantovani, matematica e già Senatrice nella scorsa Legislatura (Lalla, per gli amici). Siamo ripartiti dalla definizione di IA, che è una macchina la quale, per obiettivi definiti dall’uomo, può fare previsioni, raccomandazioni o prendere decisioni che influenzano ambienti reali o virtuali. L’IA risulta essere uno strumento di potere, perché prevede e può modificare il futuro. In realtà noi abbiamo cominciato ad usare l’IA ben prima che ce ne accorgessimo: lo facciamo aprendo un qualsiasi motore di ricerca (Google, Edge, FireFox, ecc.), ricevendo i feed dai social network, cercando un tragitto su Google Maps, comprando on-line, traducendo brani di testo, interrogando Alexa o Siri, o scegliendo un programma di intrattenimento su Netflix o Sky… In realtà tutti questi strumenti forniscono dati ritagliati su di noi, ovvero aderenti ai nostri gusti, indole, carattere, ecc. L’IA ci ha già superato in qualche campo, ad esempio nel gioco degli scacchi: nessun uomo ormai può vincere una partita con l’IA, che viene invece usata per allenare i campioni. Ha anche creato Halicin, un nuovo antibiotico, molto efficace contro i batteri finora resistenti, in uso negli USA ma non ancora in Europa. Lalla ha poi passato in rassegna le Big Tech che operano sula rete: ci si può chiedere come mai i fatturati di Google, Amazon, Microsoft, e Meta superino il PIL di molti paesi, non solo del Terzo Mondo, quando i contenuti che offrono sono gratuiti. La risposta è la pubblicità micro-mirata (micro-targeted-advertisement): i nostri dati, che abbiamo offerto ai nostri “amici” digitali elencati qui sopra, vengono in realtà presi, elaborati e usati per costruire il nostro profilo, in modo da proporci, al nostro successivo accesso, proposte che non possiamo rifiutare… questo è il potere che hanno le macchine (e le aziende che le sviluppano) sulle persone.

Il tempo è finito quando è giunto il momento di partecipare alla messa della parrocchia di Gesù Redentore, che ci ha ospitato la domenica. Poiché Lalla non è quindi riuscita a terminare il suo intervento, il consiglio diocesano degli adulti di AC ha deciso di organizzare un’appendice del campo, venerdì sera 6 febbraio, probabilmente nel salone della parrocchia di san Giuseppe a Carpi. Vi aspettiamo, anche in questa occasione, numerosi ed interessati!

Per approfondire questi argomenti, i nostri relatori ci hanno infine consigliato i seguenti libri: la Trilogia sull’IA dello scienziato Nello Cristianini; “Geopolitica dell’IA”, scritta da Alessandro Aresu, consigliere scientifico di Limes, e il volume del filosofo Luciano Floridi, “L’etica dell’IA”.

Di Carlo Alberto Lodi

Cosa stai cercando?