Se l’intelligenza artificiale deve essere “una tecnologia antropocentrica” e “migliorare il benessere degli esseri umani”, allora “è essenziale che l’IA e il suo quadro normativo siano sviluppati conformemente ai valori dell’Unione, ai diritti e alle libertà fondamentali sanciti dai trattati”. L’Unione europea, con la recente approvazione del Regolamento “che stabilisce regole armonizzate sull’intelligenza artificiale” sta percorrendo una strada “in solitaria” rispetto al resto del mondo: dare basi etiche in conformità ai suoi valori fondativi a questa nuova tecnologia che negli ultimi vent’anni ha avuto uno sviluppo vertiginoso. Nel bene e nel male.
Ne parliamo con il filosofo Fabio Grigenti, vicentino, professore ordinario e docente di Storia della FIlosofia all’Università di Padova, studioso del rapporto tra esseri umani e macchine.
Professor Grigenti, i Paesi dell’Unione Europea sono i primi Stati al mondo a darsi un regolamento “etico” sull’utilizzo e lo sviluppo dell’IA. Perché?
«Perché l’Europa ha una memoria più viva dei processi di industrializzazione e automazione iniziati con la rivoluzione industriale dell’800. E per una cultura filosofica, politica e morale i cui elementi fondamentali sono l’autonomia e la responsabilità personali. Per noi europei una scelta, anche se esposta all’errore, deve avere come inizio sempre un elemento di libertà umana».
Perché ha tirato in ballo la Rivoluzione industriale?
«Perché negli ultimi due secoli la nostra civiltà è entrata in una fase nuova della produzione di beni proprio per l’avvento di macchine che sostituiscono capacità umane. Tra il 1800 e il 1830 è scomparsa la figura professionale del tessitore, sostituita da manodopera meno specializzata che doveva assistere l’attività del telaio meccanico. Nel corso degli anni le macchine si sono appropriate di capacità specifiche, parcellizzando e trasformando il lavoro. L’IA è solo l’ultima fase di questo processo. Ciò che la rende preoccupante è che l’automazione non riguarda capacità fisiche legate al movimento del corpo, ma capacità ritenute “superiori” di pensiero e linguaggio che ritenevamo prerogativa esclusiva degli esseri umani».
L’IA è stata teorizzata negli anni ’30, la ricerca è proseguita tra alti e bassi per poi “esplodere” con lo sviluppo di server capaci di raccogliere grandi quantità di dati e computer in grado di eseguire calcoli sempre più complessi e sempre più velocemente. Quando l’Ue ha iniziato a ravvisare un rischio etico?
«È dagli anni 2000 che in Europa l’IA comincia a diventare un oggetto di attenzione dal punto di vista morale e legislativo. I problemi nascono dal fatto che l’IA ha una grande capacità di manipolare un’enorme quantità di dati stoccati in sistemi informatici vulnerabili e potenzialmente accessibili da chiunque».
Quali rischi possono palesarsi, a titolo di esempio?
«Può accadere che dati che forniamo a soggetti terzi in cambio di servizi, l’esempio classico sono gli acquisti online, vengano analizzati da sistemi di IA che crea no un nostro profilo digitale sempre più dettagliato anche con informazioni delicate, come l’aver contratto una malattia grave. Se questa informazione finisse in mano ad una banca che sta erogandoci un mutuo o ad un’azienda che intende assumerci, sarebbe un fatto grave».
Nel resto del mondo però le sensibilità sono molto diverse: Cina e Stati Uniti non si pongono i problemi etici sulla’IA che si pone l’Europa. Perché?
«In Cina la sensibilità etica è molto diversa. La collettività prevale sull’individualità. Il pericolo che si avverte è che l’IA possa andare contro ai beni comuni, agli scopi collettivi, al socialismo, al buon andamento dell’ordine sociale. Gli Stati Uniti sono più simili a noi europei, ma le grandi aziende tecnologiche temono che introdurre vincoli possa limitare la ricerca, la commercializzazione dei sistemi IA e la ricerca più avanzata in ambito militare, che per gli Usa è vitale. In Europa, siamo gli unici ad andare verso una regolamentazione pura, che produrrà obblighi, certificazioni e burocratizzazione. Da un lato c’è la volontà di offrire protezione ai cittadini, specie i più fragili, dall’altro c’è la consapevolezza che siamo già in ritardo su ricerca e sviluppo di sistemi di IA, pertanto cerchiamo di imporre ai produttori dei limiti che rispondano ai nostri requisiti».
Nei giorni scorsi fonti legate all’intelligence israeliana hanno rivelato che durante l’invasione di Gaza sono stati impiegati sistemi di intelligenza artificiale per identificare fino a 37mila palestinesi come sospetti militanti di Hamas. In base a questi profili sono stati eseguiti attacchi aerei che hanno causato molte vittime civili (l’esercito israeliano ha smentito la notizia, ndr). Il commento raccolto da una di queste fonti è stato: “La macchina ha reso le cose più facili”. Che ne pensa?
«È un cruccio dell’Europa, non così sentito dagli altri: l’uccisione automatica. Il fatto che sia un uomo a poter uccidere un altro uomo implica che all’ultimo momento possa esserci la libertà di non farlo. La macchina toglie ogni responsabilità. È la fine del principio etico di autonomia, di cui parlavo all’inizio. Ma non siamo così lontani dall’arresto automatico, che ad esempio può avvenire in Cina, sulla base di riconoscimenti biometrici, senza che ci sia il giudice ad intervenire».
Possiamo dire di essere arrivati ad un buon punto d’arrivo, in Europa, sulla regolamentazione etica dell’IA?
«Siamo di fronte ad un paradigma tecnico-scientifico non ancora esaurito. I risultati d’oggi saranno superati e questo è un limite per una regolamentazione etica. Quella che è in gioco è una trasformazione globale delle nostre capacità cognitive. Le macchine ci trasformano. Nessuno, oggi, sa più fare il lavoro del tessitore, perché non è più stato richiesto. L’IA produrrà trasformazioni in quello che siamo, nei rapporti con gli altri e con il mondo. Ci sono dei vantaggi ma anche degli svantaggi, per qualcosa diventeremo meno capaci, abili e insensibili».
Andrea Frison