Il tema dell’intelligenza artificiale è “esploso” da appena un paio d’anni, quando il suo utilizzo per la generazione di immagini e testi con applicazioni come Midjourney o ChatGPT ha suscitato emozioni avverse nell’opinione pubblica, dall’entusiasmo per questa nuova tecnologia ai timori dei rischi che porta con sè.
Va detto però che la tecnologia alla base dell’Intelligenza artificiale non è nuova, e non è nemmeno opportuno denominarla “intelligenza”. «La generazione di testi e immagini non è che l’ultimo passaggio di una storia iniziata negli anni ’50 – spiega Massimo Cerofolini, giornalista e conduttore del programma sulle nuove tecnologie “Eta Beta” di Rai Radio 1, ospite dell’iniziativa organizzata per sabato 28 ottobre dal Festival Biblico nell’ambito della Scuola del pensare (vedi box) -. Tutto comincia dalle intuizioni di Alan Turing, matematico inglese, primo teorizzatore di una macchina capace di imitare il ragionamento umano (da qui il titolo del film “The imitation game” del 2014 con Benedict Cumberbatch,ndr).Le sue intuizioni vennero riprese negli anni ’50 dall’informatico statunitense John McCarthy il quale, per attrarre fondi per le sue ricerche, utilizzò il termine “intelligenza artificiale”, rimasto tuttora».
Di fondo, però quella che chiamiamo intelligenza artificiale (d’ora in avanti IA), «altro non è che un sistema che imita il modo di ragionare degli esseri umani attraverso gli algoritmi – prosegue Cerofolini -. La ricerca nel campo andò avanti tra alti e bassi, ma il passaggio decisivo fu lo sviluppo di computer sempre più potenti e la raccolta di dati sempre più numerosi».
Ma perché, sebbene il termine sia entrato nel gergo comune, non è del tutto corretto parlare di “intelligenza”? «I primi esperimenti con l’IA tentavano di emulare le forme di apprendimento dell’essere umano – prosegue Cerofolini -. Le squadre di ricercatori avevano coinvolto dei linguisti per tradurre in codici le regole del linguaggio umano. Ma era un lavoro troppo complesso, non era possibile elaborare regole sufficienti per descrivere il funzionamento del linguaggio. La scorciatoia è stata rinunciare a far capire al sistema il significato dei contenuti e limitarsi a fargli fare accostamenti statistici».
I compiti che l’IA svolge, di fatto, sono quelli di rinvenire corrispondenze, correlazioni tra parole, immagini, suoni, dati. «Alla macchina – spiega Cerofolini – viene fornito l’intero patrimonio di conoscenze presenti su internet. Per fare un esempio, l’IA non sa chi è Dante Alighieri, ma in rete alla “Divina Commedia” è sempre associata la parola Dante, e questo le fa ‘capire’ che lo scrittore fiorentino deve per forza essere l’autore del poema». In sintesi, «siamo di fronte a qualcosa di estremamente poco intelligente e impossibile da confondere con un essere umano». È infatti possibile che l’IA generi risposte sbagliate ai quesiti che le si pone. «Proprio perché in internet non c’è tutto, quello che la macchina non sa lo inventa, su base statistica» spiega l’esperto.
E qui si presenta uno dei rischi che la tecnologia dell’IA porta con sè. «In gergo si chiamano “allucinazioni”, sono appunto le risposte che l’IA si inventa, sbagliando – spiega Cerofolini -. Ma sbaglia perché il sistema è fatto così, è così che elabora i dati che ha a disposizione». L’altro rischio è che la macchina venga “indotta a sbagliare”. «In questo caso parliamo di “avvelenamento” dei dati, che possono essere inquinati volontariamente da contenuti falsi generati da bot (un ‘bot’, abbreviazione di robot, è un programma software che esegue attività automatizzate, ripetitive e predefinite. I bot in genere imitano o sostituiscono il comportamento di utenti umani, ndr). Fake news, dati sbagliati o contenuti che veicolano messaggi specifici se creati i gran quantità possono ingannare l’algoritmo alla base dell’IA. Proprio perché non è che un sistema di calcolo che elabora i dati di cui dispone». E a proposito di dati, «un altro grosso problema è quello della privacy – spiega Cerofolini -. Le IA sono macchine che si nutrono di dati, e i più ghiotti sono quelli che produciamo noi navigando sul web. Ma ci sono anche dati industriali e tutto il tema del diritto d’autore sulle opere d’arte».
Dalla violazione dei dati personali può derivare il pericolo di truffe altamente tecnologiche: «L’algoritmo potrebbe generare file audio con voci estremamente realistiche, facili da confondere – spiega Cerofolini -. Ad un anziano potrebbe esser inviato su WhatsApp un audio con la voce del nipote che domanda dei soldi, giusto per fare un esempio». Ma la realizzazione di contenuti fittizi estremamente realistici può impattare anche sul dibattito pubblico, come peraltro abbiamo iniziato a rendercene conto vedendo le foto, rigorosamente fake degli arresti di Trump. «C’è poi il tema dei posti di lavoro – afferma Cerofolini – Ikea ha sostituito un centinaio di centralinisti con l’IA. ma la cosa che deve farci pensare è che questi dipendenti sono stati riqualificati come commessi 4.0 nei negozi della catena».
Tuttavia, secondo il conduttore Rai, il gioco vale la candela. «Molti rifiutano l’IA, la trovano disumanizzante e pericolosa. I rischi ci sono, indubbiamente, ma personalmente la vedo come una chiamata a un grande salto verso la nostra umanizzazione.
Certe cose potremmo farle con l’IA e questo dee permetterci di recuperare le dimensioni umane, relazionali, che in ogni lavoro esistono».
Tra meraviglia e mostruosità.
Nel secondo appuntamento della ‘scuola del pensare’ organizzata dal Festival Biblico, in programma sabato 28 ottobre presso Salvagnini Italia Spa a Sarego (VI), si parlerà di intelligenza artificiale e del suo impatto sulla nostra vita quotidiana e sulla nostra capacità critica, alternando momenti di riflessione a sperimentazioni pratiche. “L’intelligenza artificiale tra meraviglia e mostruosità. Come e perché l’AI influenza il nostro pensiero critico” è il titolo dell’appuntamento che si svolge dalle 9.30 alle 16.30 nella sede dell’azienda (via Guido Salvagnini 51, Sarego). Parteciperanno: Cosimo Accoto, Filosofo tech affiliato al MIT (Boston); Alessio Pomaro, Head of AI di Search On Media Group; Emanuela Girardi, Founder e Presidente di Pop AI; Andrea De Lorenzo, professore associato di Ingegneria informatica; mons. Lucio Adrian Ruiz, segretario del Dicastero per la comunicazione (in videocollegamento); Ammagamma, società che sviluppa soluzioni di AI per le imprese. Conduce Massimo Cerofolini, giornalista radiofonico e televisivo Rai. Per informazioni e iscrizioni, www.festivalbiblico.it.
Andrea Frison