• Chi siamo
  • Dove acquistare
  • Edizione digitale
  • Contatti
giovedì 22 Maggio 2025
No Result
View All Result
Edizione Digitale
La Voce dei Berici
Il periodico di informazione della Diocesi di Vicenza
  • Editoriali
  • Chiesa
    • Parrocchie
    • Diocesi
    • Missioni
    • Vaticano
  • Attualità
    • Territorio
    • Italia
    • Mondo
  • Liberamente
    • Cultura
    • Spettacoli
    • Sport
  • Abbonamenti

Nessun prodotto nel carrello.

La Voce dei Berici
  • Editoriali
  • Chiesa
    • Parrocchie
    • Diocesi
    • Missioni
    • Vaticano
  • Attualità
    • Territorio
    • Italia
    • Mondo
  • Liberamente
    • Cultura
    • Spettacoli
    • Sport
  • Abbonamenti
No Result
View All Result
La Voce dei Berici
No Result
View All Result
Home Liberamente Cultura

L’Intelligenza Artificiale può essere “etica”? Ne parliamo con il filosofo Fabio Grigenti

10 Aprile 2024
in Cultura
0
L’Intelligenza Artificiale può essere “etica”? Ne parliamo con il filosofo Fabio Grigenti

Se l’intelligenza artificiale deve essere “una tecnologia antropocentrica” e “migliorare il benessere degli esseri umani”, allora “è essenziale che l’IA e il suo quadro normativo siano sviluppati conformemente ai valori dell’Unione, ai diritti e alle libertà fondamentali sanciti dai trattati”. L’Unione europea, con la recente approvazione del Regolamento “che stabilisce regole armonizzate sull’intelligenza artificiale” sta percorrendo una strada “in solitaria” rispetto al resto del mondo: dare basi etiche in conformità ai suoi valori fondativi a questa nuova tecnologia che negli ultimi vent’anni ha avuto uno sviluppo vertiginoso. Nel bene e nel male.
Ne parliamo con il filosofo Fabio Grigenti, vicentino, professore ordinario e docente di Storia della FIlosofia all’Università di Padova, studioso del rapporto tra esseri umani e macchine.

Professor Grigenti, i Paesi dell’Unione Europea sono i primi Stati al mondo a darsi un regolamento “etico” sull’utilizzo e lo sviluppo dell’IA. Perché?
«Perché l’Europa ha una memoria più viva dei processi di industrializzazione e automazione iniziati con la rivoluzione industriale dell’800. E per una cultura filosofica, politica e morale i cui elementi fondamentali sono l’autonomia e la responsabilità personali. Per noi europei una scelta, anche se esposta all’errore, deve avere come inizio sempre un elemento di libertà umana».

Perché ha tirato in ballo la Rivoluzione industriale?
«Perché negli ultimi due secoli la nostra civiltà è entrata in una fase nuova della produzione di beni proprio per l’avvento di macchine che sostituiscono capacità umane. Tra il 1800 e il 1830 è scomparsa la figura professionale del tessitore, sostituita da manodopera meno specializzata che doveva assistere l’attività del telaio meccanico. Nel corso degli anni le macchine si sono appropriate di capacità specifiche, parcellizzando e trasformando il lavoro. L’IA è solo l’ultima fase di questo processo. Ciò che la rende preoccupante è che l’automazione non riguarda capacità fisiche legate al movimento del corpo, ma capacità ritenute “superiori” di pensiero e linguaggio che ritenevamo prerogativa esclusiva degli esseri umani».

L’IA è stata teorizzata negli anni ’30, la ricerca è proseguita tra alti e bassi per poi “esplodere” con lo sviluppo di server capaci di raccogliere grandi quantità di dati e computer in grado di eseguire calcoli sempre più complessi e sempre più velocemente. Quando l’Ue ha iniziato a ravvisare un rischio etico?
«È dagli anni 2000 che in Europa l’IA comincia a diventare un oggetto di attenzione dal punto di vista morale e legislativo. I problemi nascono dal fatto che l’IA ha una grande capacità di manipolare un’enorme quantità di dati stoccati in sistemi informatici vulnerabili e potenzialmente accessibili da chiunque».

Quali rischi possono palesarsi, a titolo di esempio?
«Può accadere che dati che forniamo a soggetti terzi in cambio di servizi, l’esempio classico sono gli acquisti online, vengano analizzati da sistemi di IA che crea no un nostro profilo digitale sempre più dettagliato anche con informazioni delicate, come l’aver contratto una malattia grave. Se questa informazione finisse in mano ad una banca che sta erogandoci un mutuo o ad un’azienda che intende assumerci, sarebbe un fatto grave».

Nel resto del mondo però le sensibilità sono molto diverse: Cina e Stati Uniti non si pongono i problemi etici sulla’IA che si pone l’Europa. Perché?
«In Cina la sensibilità etica è molto diversa. La collettività prevale sull’individualità. Il pericolo che si avverte è che l’IA possa andare contro ai beni comuni, agli scopi collettivi, al socialismo, al buon andamento dell’ordine sociale. Gli Stati Uniti sono più simili a noi europei, ma le grandi aziende tecnologiche temono che introdurre vincoli possa limitare la ricerca, la commercializzazione dei sistemi IA e la ricerca più avanzata in ambito militare, che per gli Usa è vitale. In Europa, siamo gli unici ad andare verso una regolamentazione pura, che produrrà obblighi, certificazioni e burocratizzazione. Da un lato c’è la volontà di offrire protezione ai cittadini, specie i più fragili, dall’altro c’è la consapevolezza che siamo già in ritardo su ricerca e sviluppo di sistemi di IA, pertanto cerchiamo di imporre ai produttori dei limiti che rispondano ai nostri requisiti».

Nei giorni scorsi fonti legate all’intelligence israeliana hanno rivelato che durante l’invasione di Gaza sono stati impiegati sistemi di intelligenza artificiale per identificare fino a 37mila palestinesi come sospetti militanti di Hamas. In base a questi profili sono stati eseguiti attacchi aerei che hanno causato molte vittime civili (l’esercito israeliano ha smentito la notizia, ndr). Il commento raccolto da una di queste fonti è stato: “La macchina ha reso le cose più facili”. Che ne pensa?
«È un cruccio dell’Europa, non così sentito dagli altri: l’uccisione automatica. Il fatto che sia un uomo a poter uccidere un altro uomo implica che all’ultimo momento possa esserci la libertà di non farlo. La macchina toglie ogni responsabilità. È la fine del principio etico di autonomia, di cui parlavo all’inizio. Ma non siamo così lontani dall’arresto automatico, che ad esempio può avvenire in Cina, sulla base di riconoscimenti biometrici, senza che ci sia il giudice ad intervenire».

Possiamo dire di essere arrivati ad un buon punto d’arrivo, in Europa, sulla regolamentazione etica dell’IA?
«Siamo di fronte ad un paradigma tecnico-scientifico non ancora esaurito. I risultati d’oggi saranno superati e questo è un limite per una regolamentazione etica. Quella che è in gioco è una trasformazione globale delle nostre capacità cognitive. Le macchine ci trasformano. Nessuno, oggi, sa più fare il lavoro del tessitore, perché non è più stato richiesto. L’IA produrrà trasformazioni in quello che siamo, nei rapporti con gli altri e con il mondo. Ci sono dei vantaggi ma anche degli svantaggi, per qualcosa diventeremo meno capaci, abili e insensibili».

Andrea Frison

CondividiInviaTweet
Sostienici Sostienici Sostienici
Prossimo articolo
Anffas Vicenza compie 60 anni. Il racconto di come tutto ebbe inizio.

Anffas Vicenza compie 60 anni. Il racconto di come tutto ebbe inizio.

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

No Result
View All Result

Voce

  • Abbonamenti
  • Dove acquistare
  • Edizione digitale
  • radio_tower [#1019]Created with Sketch. Radio Oreb
  • Contatti

I più letti di questo mese

  • Il cardinale Pietro Parolin: «Il Conclave ha identificato colui che il Signore ha scelto»

    Il cardinale Pietro Parolin: «Il Conclave ha identificato colui che il Signore ha scelto»

    0 shares
    Condividi 0 Tweet 0
  • Don Luigi Castagna, «Un prete molto semplice»

    0 shares
    Condividi 0 Tweet 0
  • Il cantiere Tav si avvicina al centro di Vicenza. Ecco cosa succederà.

    0 shares
    Condividi 0 Tweet 0

Iscriviti alla Newsletter

Ogni settimana ti segnaleremo notizie, storie e interviste da leggere sul nostro sito.

Privacy Policy | Cookies Policy

CONTRIBUTI E SOVVENZIONI DALLA PUBBLICA AMMINISTRAZIONE
Come richiesto dall’art. 1, commi 125 – 129, della Legge 4 Agosto 2017, n. 124 ed in ossequio alle modifiche introdotte dall’art. 35 del D.L. 34/2019 (Decreto Crescita), convertito in legge dall’art. 1, comma 1, L. 58/2019, si comunica che la Nuova Voce srl Unipersonale Codice Fiscale: 04123490247 ha ricevuto nel corso dell’anno 2023 i seguenti contributi dalla Pubblica Amministrazione:
Soggetto erogante: Dipartimento per l’informazione e l’editoria; Somma incassata: 281.589,38 euro; Causale: Contributi diretti alle imprese editrici di quotidiani e periodici di cui al D.Lgs 15 maggio 2017, n. 70.
Come richiesto dall’art. 1, commi 125 – 129, della Legge 4 Agosto 2017, n. 124 ed in ossequio alle modifiche introdotte dall’art. 35 del D.L. 34/2019 (Decreto Crescita), convertito in legge dall’art. 1, comma 1, L. 58/2019, si comunica che la Nuova Voce srl Unipersonale Codice Fiscale: 04123490247 ha ricevuto nel corso dell’anno 2022 i seguenti contributi dalla Pubblica Amministrazione:
Soggetto erogante: Dipartimento per l’informazione e l’editoria; Somma incassata: 269.290,52 euro; Causale: Contributi diretti alle imprese editrici di quotidiani e periodici di cui al D.Lgs 15 maggio 2017, n. 70.
Come richiesto dall’art. 1, commi 125 – 129, della Legge 4 Agosto 2017, n. 124 ed in ossequio alle modifiche introdotte dall’art. 35 del D.L. 34/2019 (Decreto Crescita), convertito in legge dall’art. 1, comma 1, L. 58/2019, si comunica che la Nuova Voce srl Unipersonale Codice Fiscale: 04123490247 ha ricevuto nel corso dell’anno 2021 i seguenti contributi dalla Pubblica Amministrazione:
Soggetto erogante: Dipartimento per l’informazione e l’editoria; Somma incassata: 269.290,52 euro; Causale: Contributi diretti alle imprese editrici di quotidiani e periodici di cui al D.Lgs 15 maggio 2017, n. 70.

Nuova Voce Srl – PIVA 04123490247 – Borgo Santa Lucia, 51, 36100 Vicenza | Tel: 0444 301711

Gestisci Consenso
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici. L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
Gestisci opzioni Gestisci servizi Gestisci {vendor_count} fornitori Per saperne di più su questi scopi
Visualizza le preferenze
{title} {title} {title}
No Result
View All Result
  • Home
  • Editoriali
  • Chiesa
  • Attualità
  • Liberamente
  • Abbonamenti
  • Edizione digitale
  • Chi siamo
  • Dove acquistare
  • Contatti

Nuova Voce Srl P.IVA 04123490247  - Borgo Santa Lucia, 51, 36100 Vicenza. Tel: 0444-301711