“L’AI Act e i Modelli per Scopi Generali: Guida Essenziale della Commissione Europea”

L’AI Act e i Modelli per Scopi Generali: Guida Essenziale della Commissione Europea

  • Autori: Commissione Europea
  • Titolo Originale: ANNEX to the Communication to the Commission – Approval of the content of the draft Communication from the Commission – Guidelines on the scope of the obligations for general-purpose AI models established by Regulation (EU) 2024/1689 (AI Act)

L’Intelligenza Artificiale (AI) sta rapidamente ridefinendo il nostro mondo, con i modelli per scopi generali – quei sistemi versatili capaci di svolgere un’ampia gamma di compiti – al centro di questa trasformazione. Per promuovere l’innovazione salvaguardando al contempo la sicurezza, i diritti fondamentali e la democrazia, l’Unione Europea ha introdotto il Regolamento (UE) 2024/1689, noto come AI Act. Queste linee guida della Commissione Europea, che entreranno in vigore a partire dal 2 agosto 2025, offrono una bussola chiara per gli attori della filiera dell’AI, definendo gli obblighi per i fornitori di questi modelli innovativi.

Ma cosa significa esattamente essere un “modello AI per scopi generali”? E quali sono le responsabilità che ne derivano? Scopriamolo insieme.

1. Cosa Sono i Modelli AI per Scopi Generali (GPAI)?

Immaginate un coltellino svizzero dell’AI: uno strumento non progettato per un unico compito specifico, ma versatile e adattabile a mille usi diversi. Questo è il concetto alla base di un modello AI per scopi generali (GPAI). Secondo l’AI Act, un GPAI è un modello AI addestrato su una vasta quantità di dati (spesso tramite auto-supervisione su larga scala) che dimostra una “significativa generalità” ed è capace di svolgere un’ampia gamma di compiti distinti, indipendentemente da come viene immesso sul mercato o integrato in altri sistemi.

Il Criterio “Computazionale”: Un Indicatore Chiave

Poiché elencare ogni possibile capacità sarebbe impossibile, la Commissione ha stabilito un criterio indicativo basato sulla potenza computazionale utilizzata per l’addestramento, misurata in FLOP (operazioni in virgola mobile).

  • Soglia Indicativa: Un modello è considerato un GPAI se il suo “training compute” supera i 10^23 FLOP ed è capace di generare linguaggio (testo o audio), testo-immagine o testo-video.
    • Perché i FLOP? Pensateci come l’energia consumata da un atleta: più energia spende per allenarsi su diverse discipline, più diventa versatile. Allo stesso modo, più FLOP vengono impiegati nell’addestramento su dati eterogenei, maggiore è la generalità e la capacità del modello.
    • Eccezioni: Se un modello supera questa soglia ma è palesemente specializzato in un compito ristretto (es. solo trascrizione vocale), potrebbe non essere considerato un GPAI. Viceversa, un modello che non raggiunge la soglia ma dimostra una generalità eccezionale, potrebbe esserlo.

2. Il Rischio Sistemico: Quando un GPAI Diventa un “Gigante”?

Alcuni GPAI, i “giganti” tra i modelli, presentano rischi sistemici. Questi sono rischi specifici dei modelli più avanzati, con un impatto significativo sul mercato dell’UE, sulla salute, sulla sicurezza, sui diritti fondamentali o sulla società nel suo complesso.

  • Presunzione di Rischio Sistemico: Un GPAI è presunto avere capacità ad alto impatto (e quindi rischio sistemico) se il suo “training compute” cumulativo supera i 10^25 FLOP.
    • Esempio: Immaginate un motore AI così potente e diffuso che un suo malfunzionamento, anche minimo, potrebbe causare effetti a cascata su settori vitali. Per questi modelli, gli obblighi sono più stringenti.
  • Obblighi Aggiuntivi per i “Giganti”: I fornitori di GPAI con rischio sistemico devono:
    • Condurre valutazioni approfondite del modello.
    • Segnalare incidenti gravi.
    • Garantire un adeguato livello di protezione della cibersicurezza per l’intero ciclo di vita del modello e la sua infrastruttura.

3. Chi è il Fornitore e Cosa Significa “Immettere sul Mercato”?

L’AI Act impone obblighi ai “fornitori” che “immettono sul mercato” i GPAI nell’Unione.

  • Fornitore: È la persona o l’entità che sviluppa un GPAI o lo fa sviluppare per proprio conto e lo rende disponibile sul mercato sotto il proprio nome o marchio, a pagamento o gratuitamente.
  • Immissione sul Mercato: Si riferisce alla prima volta che un GPAI viene reso disponibile nel mercato dell’UE. Questo può avvenire in vari modi: tramite librerie software, API, download diretti, servizi cloud o persino come copia fisica. Anche quando un modello viene integrato in un sistema AI e questo sistema è immesso sul mercato UE, il modello si considera “immesso sul mercato”.
  • Il Concetto di “Ciclo di Vita”: Gli obblighi non si esauriscono con l’immissione iniziale. La Commissione considera il “modello” e il suo “ciclo di vita” in senso ampio, a partire dalla grande sessione di pre-addestramento. Ogni sviluppo successivo da parte del fornitore fa parte dello stesso ciclo di vita. Ciò significa che la documentazione, la politica sul copyright e la valutazione dei rischi sistemici devono essere mantenute e aggiornate continuamente.

4. I “Modificatori a Valle”: Quando si Diventa Fornitori?

Un aspetto cruciale è il ruolo degli attori “a valle” (downstream modifiers) che modificano o ottimizzano un GPAI esistente. Non ogni modifica trasforma l’attore in un nuovo fornitore, ma la Commissione stabilisce un criterio.

  • Criterio per i Modificatori: Un modificatore a valle diventa fornitore se la modifica comporta un “training compute” maggiore di un terzo del “training compute” del modello originale (o di un terzo delle soglie di 10^23 o 10^25 FLOP se il valore originale non è noto).
    • Analogia: Pensate a un’auto. Se cambiate le gomme, non diventate il costruttore dell’auto. Ma se ricostruite metà del motore e cambiate il telaio, avete essenzialmente creato un nuovo veicolo. Allo stesso modo, una modifica computazionalmente significativa indica una nuova “creazione” che giustifica nuovi obblighi.
  • Implicazioni: Se un modificatore a valle diventa fornitore, è soggetto agli obblighi pertinenti dell’AI Act per quella specifica modifica (es. documentazione, policy sul copyright per i dati usati nella modifica).

5. Open Source e AI Act: Esenzioni e Limiti

L’AI Act riconosce il valore dei modelli open-source per l’innovazione e la ricerca. Per i modelli rilasciati con licenza open-source che consentono libero accesso, uso, modifica e distribuzione, sono previste esenzioni da alcuni obblighi, a meno che non siano GPAI con rischio sistemico.

  • Quali Obblighi Possono Essere Esentati?
    • L’obbligo di redigere e mantenere la documentazione tecnica del modello.
    • L’obbligo di rendere disponibili informazioni e documentazione ai fornitori di sistemi AI che intendono integrare il modello.
    • L’obbligo di nominare un rappresentante autorizzato per i fornitori non UE.
  • Condizioni per l’Esenzione:
    1. Licenza Veramente Aperta: Deve consentire accesso, uso, modifica e distribuzione liberi.
    2. Assenza di Monetizzazione: Non deve essere richiesto alcun compenso monetario per l’accesso, l’uso, la modifica o la distribuzione del modello. Questo include modelli a doppia licenza (gratis per uso accademico, a pagamento per uso commerciale) o servizi di supporto/hosting essenziali e a pagamento.
      • Cosa non è monetizzazione? Servizi opzionali o versioni premium che non impediscono l’uso gratuito del modello base.
    3. Disponibilità Pubblica dei Parametri: Parametri (inclusi i pesi), architettura del modello e informazioni sull’uso devono essere pubblicamente disponibili in modo chiaro e specifico.
  • Obblighi Non Esentati: Anche per i modelli open-source esentati, rimangono l’obbligo di:
    • Avere una politica per rispettare la legge sul diritto d’autore dell’Unione.
    • Rendere pubblica una sintesi del contenuto utilizzato per l’addestramento.

6. L’Applicazione dell’AI Act: Ruolo dell’AI Office e Conformità

La Commissione, tramite l’AI Office, è l’organo incaricato di supervisionare e far rispettare gli obblighi per i fornitori di GPAI.

  • Approccio Collaborativo e Proporzionato: L’AI Office incoraggia la cooperazione proattiva con i fornitori, specialmente quelli di GPAI con rischio sistemico.
  • Notifica Proattiva: I fornitori di GPAI-SR devono notificare la Commissione “senza indugio e in ogni caso entro due settimane” da quando il modello soddisfa o si prevede che soddisfi la soglia di rischio sistemico (10^25 FLOP).
  • Codici di Condotta: I fornitori possono dimostrare la conformità aderendo a codici di condotta valutati come “adeguati” dall’AI Office. Questo semplifica la dimostrazione di conformità e rafforza la fiducia.
  • Periodo di Transizione: Gli obblighi si applicano dal 2 agosto 2025. Per i modelli immessi sul mercato prima di tale data, i fornitori hanno tempo fino al 2 agosto 2027 per conformarsi. L’AI Office si impegna a supportare questo processo di adattamento.
  • Sanzioni: A partire dal 2 agosto 2026, la Commissione potrà imporre multe (fino al 3% del fatturato globale o 15 milioni di euro) per la mancata conformità.

7. Il Cuore Tecnico: Misurare il “Training Compute”

Il “training compute” (misurato in FLOP) è una metrica centrale per la classificazione dei modelli. Ma come si stima?

  • Cosa Includere: Il calcolo dovrebbe includere tutte le risorse computazionali che contribuiscono direttamente all’aggiornamento dei parametri del modello e al miglioramento delle sue capacità. Questo include il pre-addestramento, la generazione di dati sintetici (anche quelli scartati se necessari per il processo) e il fine-tuning.
  • Cosa Non Includere: Non si includono calcoli puramente diagnostici, esperimenti di ricerca esplorativa falliti, o compute usato per modelli ausiliari che non contribuiscono direttamente alle capacità del modello principale.
  • Metodi di Stima:
    • Approccio Basato sull’Hardware: Stima i FLOP in base al numero di GPU o unità hardware utilizzate, alla durata dell’uso, alla loro prestazione teorica di picco e alla percentuale media di utilizzo. È come misurare il consumo di carburante di un’auto basandosi sul tipo di motore, la durata del viaggio e l’efficienza.
    • Approccio Basato sull’Architettura: Stima i FLOP direttamente dal numero di operazioni eseguite dall’architettura del modello (es. numero di passaggi completi durante l’addestramento moltiplicato per le operazioni per passaggio). È come calcolare le calorie bruciate da un atleta in base ai movimenti specifici e alla loro frequenza.

Conclusione: Un Futuro AI Bilanciato

Queste linee guida della Commissione Europea rappresentano un passo fondamentale per plasmare il futuro dell’intelligenza artificiale in Europa. Non sono solo un insieme di regole, ma un invito all’azione per i fornitori di GPAI a operare in modo responsabile e trasparente. L’obiettivo è chiaro: promuovere un’innovazione dinamica e sicura, che sia al servizio della società e che rispetti i valori e i diritti fondamentali dell’Unione. La proattività e la collaborazione tra gli attori del settore e l’AI Office saranno essenziali per navigare questa nuova era dell’AI, trasformando le sfide in opportunità.

Ti potrebbe anche interessare

Data Science: Infrastrutture Scalabili con Docker e Jupyter

Docker per la Data Science: Creazione di Infrastrutture Scalabili con...

IA Generativa Responsabile: Guida per Leader e Product Manager

Uso Responsabile dell'IA Generativa: Guida per Product Manager e Leader...

IA per PMI: Guida Efficace all’Implementazione

INTELLIGENZA ARTIFICIALE E DIGITALIZZAZIONE NELLE PMI: UN QUADRO PER L'IMPLEMENTAZIONE...