HomeAIEU AI Act: la prima legge globale sull’intelligenza artificiale è realtà

EU AI Act: la prima legge globale sull’intelligenza artificiale è realtà

L’intelligenza artificiale sta rapidamente rivoluzionando ogni settore, dalla sanità alla finanza, passando per il marketing e la pubblica amministrazione. Ma chi vigila su questi sistemi? Come possiamo garantire che l’AI non violi i diritti fondamentali?

È da queste domande che nasce l’EU AI Act, la prima legislazione al mondo che regola lo sviluppo, la distribuzione e l’uso dell’intelligenza artificiale secondo un principio chiave: il rischio.

Cosa prevede l’EU AI Act?

Approvato nel 2024, il Regolamento europeo sull’intelligenza artificiale introduce un approccio basato sul rischio. I sistemi AI vengono classificati in quattro categorie principali:

🔹 AI a rischio minimo
🔹 AI ad alto rischio
🔹 AI vietata
🔹 Modelli per scopi generali (GPAI)

Pratiche vietate: l’AI che non avrà futuro

Alcuni usi dell’intelligenza artificiale sono considerati eticamente inaccettabili o pericolosi e saranno vietati a partire dal 2 febbraio 2025.

Esempi di AI proibita:

  • Punteggio sociale (stile “Black Mirror”): valutare le persone in base al loro comportamento, con conseguenze nella vita reale.
  • Manipolazione psicologica: sistemi che spingono gli utenti a prendere decisioni dannose o non consapevoli.
  • Scraping di volti da Internet per database biometrici.
  • Riconoscimento delle emozioni in scuole e luoghi di lavoro (tranne che per motivi di salute o sicurezza).
  • Sorveglianza biometrica in tempo reale da parte delle forze dell’ordine, salvo casi eccezionali autorizzati.

AI ad alto rischio: regole e requisiti

I sistemi ad alto rischio sono quelli che impattano direttamente sui diritti, sulla sicurezza o sull’accesso ai servizi essenziali. Dovranno rispettare requisiti rigorosi.

Esempi concreti:

  • AI usata per assumere candidati o valutare performance.
  • Sistemi che determinano l’idoneità al credito o ai benefici sociali.
  • Algoritmi in dispositivi medici o infrastrutture critiche (energia, trasporti).
  • Strumenti AI che influenzano il sistema giudiziario o elezioni democratiche.

I fornitori dovranno:

  • Adottare sistemi di gestione del rischio continuo
  • Garantire alta qualità dei dati di training e test
  • Documentare ogni fase con trasparenza tecnica
  • Implementare piani di monitoraggio post-commercializzazione

Gli utilizzatori dovranno:

  • Utilizzare i sistemi seguendo le istruzioni specifiche
  • Conservare i log del sistema AI
  • Valutare gli impatti sui diritti fondamentali in contesti pubblici o sensibili

Le regole entreranno in vigore dal 2 agosto 2026.

Regole per i modelli AI generici (GPAI)

Il regolamento introduce anche una disciplina ad hoc per i foundation models come Granite di IBM o LLaMA 3 di Meta, che possono essere utilizzati in numerose applicazioni diverse.

Obblighi dei fornitori GPAI:

  • Rispetto del copyright UE
  • Riepilogo pubblico dei dataset di training
  • Marcatura automatica dei contenuti generati (deepfake, testi, immagini)

Se un modello supera la soglia di 10²⁵ FLOP in fase di addestramento, è considerato a rischio sistemico e dovrà:

  • Segnalare incidenti gravi
  • Adottare misure avanzate di cybersecurity

Le regole si applicano ai nuovi modelli dal 2 agosto 2025, con un periodo di adattamento fino al 2027 per quelli già esistenti.

A chi si applica l’EU AI Act?

Il regolamento si applica a:

  • Fornitori (chi sviluppa o commercializza AI)
  • Utilizzatori (chi usa sistemi AI nella propria attività)
  • Importatori e distributori nell’UE

Anche le aziende extra-UE rientrano nella normativa se i loro sistemi o output vengono usati nell’Unione Europea. In tal caso, devono nominare un rappresentante autorizzato nell’UE.

Sanzioni: fino a 35 milioni di euro

Le multe sono proporzionate alla gravità della violazione:

Tipo di ViolazioneSanzione Massima
Uso di AI vietata€35 milioni o 7% del fatturato globale
Violazione requisiti per AI ad alto rischio€15 milioni o 3% del fatturato globale
Informazioni fuorvianti alle autorità€7,5 milioni o 1% del fatturato globale

Le PMI e startup beneficiano di un regime sanzionatorio proporzionale.

Date chiave

 1° agosto 2024: entrata in vigore ufficiale
2 febbraio 2025: divieto pratiche AI proibite
2 agosto 2025: GPAI (nuovi modelli)
2 agosto 2026: AI ad alto rischio
2 agosto 2027: sistemi regolati da altre normative UE

FAQ – Domande frequenti sull’AI Act

▶ L’AI Act si applica anche all’uso personale dell’intelligenza artificiale?
No. Gli usi personali o per ricerca scientifica sono esenti.

▶ I sistemi open source sono regolamentati?
Sì, se hanno impatto sistemico o sono utilizzati in contesti a rischio.

▶ Cosa significa “marcare i contenuti generati”?
Aggiungere metadati o etichette leggibili dalle macchine che segnalano che il contenuto (es. un video deepfake) è stato generato o alterato da un’AI.

Conclusione 

L’EU AI Act è molto più di una legge: è una dichiarazione d’intenti sul futuro dell’innovazione digitale europea. Le aziende che sviluppano, distribuiscono o usano AI devono agire subito per valutare i propri rischi, adeguare i processi e investire in trasparenza e governance.

Francesco Antonio Russo
Francesco Antonio Russo
Imprenditore Web 3.0 da oltre 4 anni, esperto di Criptovalute ed Intelligenza Artificiale. Usa le sue competenze trasversali per una Gestione dei social funzionale ed al passo con i trend.
RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

MOST POPULARS