L’Italia ha premuto l’acceleratore: è ufficialmente il primo Paese europeo ad avere una legge nazionale per regolare l’intelligenza artificiale, anticipando persino l’applicazione completa dell’AI Act dell’UE. Il “ddl AI”, approvato in via definitiva, stabilisce paletti precisi per l’uso di questa tecnologia rivoluzionaria in settori chiave come lavoro, sanità e giustizia.
L’obiettivo dichiarato è nobile: un’AI “antropocentrica”, dove l’uomo mantiene sempre il potere decisionale. Eppure, le critiche sono feroci e l’allarme è già scattato. Tra accuse di una legge “nata già vecchia” e il timore di una deriva verso la sorveglianza di massa, andiamo a vedere nel dettaglio cosa cambia davvero e perché questa legge fa così discutere.
I principi guida: l’uomo al centro, almeno sulla carta
La filosofia della legge è chiara: l’innovazione deve rispettare i diritti dei cittadini. Il testo mira a essere coerente con due pilastri europei: l’AI Act e il GDPR (il regolamento sulla privacy).
La governance sarà affidata a due entità principali: l’AgID (Agenzia per l’Italia Digitale) e l’ACN (Agenzia per la Cybersicurezza Nazionale), che avranno il compito di vigilare. Il Governo, attraverso le parole del Sottosegretario Alessio Butti, rassicura: “L’Italia è il primo Paese europeo con un quadro nazionale allineato all’AI Act. Alle imprese diciamo: investite qui, troverete regole trasparenti”. Ma è proprio su questa governance centralizzata che si accendono le prime polemiche
Lavoro: l’AI può assumere? Le nuove regole
L’impatto dell’AI sul mondo del lavoro è una delle maggiori preoccupazioni. Ecco cosa prevede la legge:
- Trasparenza Obbligatoria: Un’azienda che usa un algoritmo per analizzare i curriculum o per valutare la produttività di un dipendente dovrà informare chiaramente le persone coinvolte su come funziona il sistema e quali parametri utilizza.
- Nessuna Decisione Finale: L’AI può supportare il processo, ma la decisione finale (assumere, promuovere, licenziare) deve rimanere umana.
- Osservatorio sul Lavoro: Verrà istituito un osservatorio presso il Ministero del Lavoro per monitorare l’uso dell’AI e prevenire discriminazioni e abusi.
- Professioni Intellettuali: L’uso dell’AI è consentito (ad esempio, per scrivere parti di un articolo come questo), ma è obbligatorio che ci sia una revisione umana e che il lettore o cliente finale venga informato.
Sanità: un algoritmo può negarti una cura?
Il settore della salute è estremamente delicato. La legge impone paletti rigidissimi:
- Accesso alle Cure: È assolutamente vietato utilizzare l’intelligenza artificiale per decidere chi ammettere a una prestazione medica o per limitare l’accesso alle cure. Un algoritmo non potrà mai creare “liste d’attesa” o escludere pazienti.
- Decisione Medica Umana: La diagnosi, la terapia e ogni decisione medica rimangono di esclusiva competenza del personale sanitario. L’AI può essere solo uno strumento di supporto.
- Ricerca Scientifica: I dati personali potranno essere usati per la ricerca scientifica senza scopo di lucro e senza consenso esplicito, ma sol dopo l’approvazione di un comitato etico e la notifica al Garante della Privacy.
Giustizia: sentenze scritte da un robot? Impossibile
Anche in tribunale, il ruolo dell’AI sarà molto limitato per evitare derive preoccupanti:
- Niente Atti Giudiziari: È vietato usare l’AI per scrivere sentenze, decreti o qualsiasi atto legato all’interpretazione e all’applicazione della legge.
- Nessuna Valutazione dei Fatti: Un algoritmo non potrà essere usato per valutare le prove in un processo o per decidere l’entità di una pena.
- Uso Amministrativo Limitato: Potrà essere impiegata in alcuni procedimenti amministrativi, ma la responsabilità finale sarà sempre e solo umana e non delegabile.
La guerra ai deepfake: pene fino a 5 anni di carcere
La legge introduce un nuovo pacchetto di reati per punire gli abusi. La norma più dura è quella contro i deepfake:
Chiunque causa un danno ingiusto diffondendo immagini o video di persone alterati con l’AI per ingannare sulla loro genuinità rischia il carcere da 1 a 5 anni.
Viene inoltre introdotto l’obbligo di etichettare con la dicitura “immagine/video generato/alterato con sistemi di intelligenza artificiale” qualsiasi contenuto non autentico, per garantire la massima trasparenz
Le critiche feroci: “Occasione mancata, legge senza soldi e pericolosa”
Nonostante le norme, le critiche sono durissime e arrivano da più fronti.
- L’Opposizione Politica: Il Partito Democratico la definisce “un’occasione mancata” e una “legge che nasce già vecchia”. La critica principale è che non stanzia nemmeno un euro per sostenere la ricerca e lo sviluppo. “Mentre la Francia investe 10 miliardi e la Gran Bretagna 22, noi introduciamo solo reati invece di incentivi”, ha dichiarato il senatore Lorenzo Basso. Il rischio, dicono, è che l’Italia diventi uno “spettatore pagante” della rivoluzione AI.
- I Difensori dei Diritti Digitali: La “Rete per i Diritti Umani Digitali” (che include Amnesty International Italia e Privacy Network) è ancora più netta: “Questa legge consegna il controllo dell’AI direttamente al governo”. La loro denuncia è gravissima: le autorità di controllo (AgID e ACN) sono affiliate all’esecutivo, manca un organo di vigilanza indipendente. Questo, secondo loro, apre a scenari inquietanti, come “tentativi di implementare la sorveglianza biometrica e possibili abusi per controllare la vita pubblica dei cittadini”.