EU AI Act: Scadenze Chiave d’Implementazione 2025-2027

La Legge sull’AI dell’UE: Una Tabella di Marcia per l’Implementazione

  • Autori: Tristan Marcelin con Lucille Killmayer
  • Titolo Originale: Al Act implementation timeline
  • Fonte: EPRS | European Parliamentary Research Service

L’intelligenza artificiale sta ridisegnando il nostro mondo a ritmi vertiginosi. Per guidare questa trasformazione in modo etico e sicuro, l’Unione Europea ha adottato un quadro normativo fondamentale: la Legge sull’AI (AI Act). Questa normativa, pubblicata a luglio 2024, non è un manuale d’istruzioni da applicare dall’oggi al domani, ma un complesso meccanismo che entrerà in vigore gradualmente. Capire la sua tabella di marcia è essenziale per chiunque operi o intenda operare nel settore dell’AI in Europa.

1. Un Quadro Normativo basato sul Rischio

Il cuore della Legge sull’AI è un approccio differenziato che si basa sul rischio che un sistema di AI può comportare per i cittadini. L’obiettivo, come indicato dall’Articolo 1, è duplice: garantire il buon funzionamento del mercato interno promuovendo al contempo un’AI antropocentrica, affidabile, sicura e a sostegno dell’innovazione.
Come un semaforo che regola il traffico in base alla pericolosità dell’incrocio, la Legge sull’AI classifica i sistemi in quattro categorie principali:

  • Rischio Inaccettabile: Sistemi che minacciano la sicurezza, i mezzi di sussistenza e i diritti fondamentali delle persone (ad esempio, sistemi di social scoring governativi). Questi sono proibiti.
  • Rischio Elevato: Sistemi che creano un alto rischio di danno per la salute e la sicurezza o per i diritti fondamentali (ad esempio, AI utilizzata nelle infrastrutture critiche, nelle forze dell’ordine, nell’occupazione). Questi sono soggetti a obblighi stringenti prima di poter essere immessi sul mercato.
  • Rischio di Trasparenza: Sistemi che richiedono specifici obblighi di trasparenza per informare gli utenti (ad esempio, chatbot, sistemi di riconoscimento delle emozioni).
  • Rischio Minimo o Nullo: La vasta maggioranza dei sistemi AI (ad esempio, filtri antispam, videogiochi basati sull’AI). Questi non sono regolamentati dalla Legge sull’AI.

Un elemento chiave, aggiunto durante il processo legislativo, riguarda i modelli di AI di Uso Generale (GPAI – General-Purpose AI), inclusi i grandi modelli linguistici come i GPT di OpenAI. Anche questi modelli sono ora contemplati dalla normativa, con obblighi specifici a seconda delle loro capacità e del potenziale rischio sistemico.

2. La Tabella di Marcia: Un Processo a Tappe

Contrariamente a quanto si potrebbe pensare, la Legge sull’AI non diventa pienamente operativa con un unico “click”. Pur essendo entrata in vigore nel 2024, l’applicazione delle sue disposizioni è scaglionata nel tempo, un po’ come costruire un edificio complesso, dove diverse sezioni vengono completate in fasi distinte. La data generale di applicazione è il 2 agosto 2026, ma la piena efficacia dell’intera normativa è prevista solo per il 2027.

Ecco le tappe principali dell’implementazione:

  • 2 Febbraio 2025: Entrano in vigore le disposizioni generali (Capitolo 1) e le pratiche AI proibite (Capitolo 2). La Commissione Europea dovrà pubblicare orientamenti sull’applicazione di queste pratiche proibite.
  • 2 Maggio 2025: I codici di condotta per i modelli GPAI devono essere pronti.
  • 2 Agosto 2025: Diventano applicabili diversi capitoli e sezioni chiave:
    • La sezione sugli organismi notificati per i sistemi AI ad alto rischio.
    • Il capitolo sui modelli GPAI (Capitolo 5).
    • Il capitolo sulla governance (Capitolo 7).
    • Il capitolo sulle sanzioni (Capitolo 12), escluse però le multe per i fornitori di GPAI.
    • L’articolo sulla riservatezza nel monitoraggio post-mercato.
  • 2 Febbraio 2026: La Commissione pubblica orientamenti che specificano l’applicazione pratica delle regole di classificazione per i sistemi AI ad alto rischio.
  • 2 Agosto 2026: La maggior parte della Legge sull’AI diventa applicabile, incluse le sanzioni per i fornitori di GPAI. Rimane esclusa una parte specifica delle regole di classificazione per i sistemi ad alto rischio (Articolo 6, paragrafo 1).
  • 2 Agosto 2027: L’articolo 6, paragrafo 1, sulla classificazione dei sistemi AI ad alto rischio e gli obblighi correlati diventano pienamente applicabili. L’intero corpo normativo è quindi effettivo.

Questa progressione riflette la complessità della materia e la necessità di dare tempo a operatori, autorità e legislatori di prepararsi adeguatamente.

3. L’Importanza degli Standard Armonizzati

Un elemento cruciale per facilitare l’applicazione pratica della Legge sull’AI sono gli standard armonizzati, come specificato nell’Articolo 40. Ma cosa sono esattamente? Immaginate gli standard armonizzati come ricette dettagliate e riconosciute a livello europeo: seguire queste “ricette” nella progettazione e nello sviluppo di sistemi AI ad alto rischio garantirà una “presunzione di conformità” con i requisiti legali della Legge sull’AI. In altre parole, se il vostro sistema AI ad alto rischio rispetta questi standard, si presume che sia conforme alla legge.

Il Joint Research Centre (JRC) della Commissione Europea sottolinea che questi standard sono vitali e che devono essere pubblicati prima che gli obblighi per i sistemi ad alto rischio diventino effettivi (quindi prima dell’agosto 2026). La Commissione ha richiesto questi standard agli organismi di normazione europei (CEN e CENELEC) nel maggio 2023, con una scadenza inizialmente fissata per l’aprile 2025. Tuttavia, fonti giornalistiche indicano che il lavoro potrebbe protrarsi fino al 2026, il che potrebbe spingere la Commissione a considerare soluzioni temporanee per evitare ritardi nell’applicazione delle regole per l’AI ad alto rischio.

Conclusione: Navigare la Complessità Normativa

La Legge sull’AI dell’UE è un’iniziativa pionieristica a livello globale, pensata per garantire che l’innovazione nel campo dell’intelligenza artificiale proceda di pari passo con la protezione dei diritti fondamentali e la sicurezza. La sua implementazione graduale è una caratteristica fondamentale, volta a consentire un adattamento ordinato da parte di aziende e istituzioni.

Capire questa tabella di marcia non è solo un esercizio burocratico, ma un passaggio essenziale per pianificare gli investimenti, adeguare i processi interni e prepararsi a operare in un mercato che mira a essere il punto di riferimento globale per un’AI affidabile e centrata sull’uomo. Mentre il conto alla rovescia verso la piena operatività è iniziato, l’attenzione si sposta ora sulla concretizzazione delle disposizioni, con la pubblicazione di linee guida e standard che trasformeranno i principi della legge in pratiche operative per l’intero ecosistema dell’AI in Europa.

Ti potrebbe anche interessare

Data Science: Infrastrutture Scalabili con Docker e Jupyter

Docker per la Data Science: Creazione di Infrastrutture Scalabili con...

IA Generativa Responsabile: Guida per Leader e Product Manager

Uso Responsabile dell'IA Generativa: Guida per Product Manager e Leader...

IA per PMI: Guida Efficace all’Implementazione

INTELLIGENZA ARTIFICIALE E DIGITALIZZAZIONE NELLE PMI: UN QUADRO PER L'IMPLEMENTAZIONE...