Contrastare gli Usi Malevoli dell’AI: I Risultati del Rapporto di OpenAI di Giugno 2025
- Autori: Ben Nimmo, Albert Zhang, Sophia Farquhar, Max Murphy, Kimo Bumanglag
- Titolo Originale: Disrupting malicious uses of AI: June 2025
L’intelligenza artificiale è uno strumento potente con un enorme potenziale per il bene, ma come ogni tecnologia avanzata, può essere sfruttata per scopi dannosi. La missione di OpenAI è garantire che i benefici dell’IA generale siano a disposizione di tutta l’umanità, e parte integrante di questa missione è impedire l’uso improprio dei loro modelli. Il rapporto di giugno 2025 offre uno sguardo diretto e trasparente sugli sforzi compiuti negli ultimi tre mesi per identificare, interrompere ed esporre le attività malevole che hanno cercato di utilizzare i modelli di OpenAI.
Queste indagini si sono concentrate su diverse forme di abuso, tra cui operazioni di influenza occulta, ingegneria sociale, schemi di impiego ingannevoli, truffe e attività informatiche malevole. Ciò che emerge è un quadro complesso: attori malintenzionati provenienti da varie parti del mondo, con origini sospette legate a paesi come Cina, Corea del Nord, Filippine, Russia, Iran e Cambogia, stanno sperimentando l’integrazione dell’IA nei loro flussi di lavoro dannosi. Tuttavia, l’indagine evidenzia anche un aspetto cruciale: l’uso stesso dell’IA da parte di questi attori spesso aumenta la loro “visibilità”, fornendo a OpenAI e ai suoi partner preziose informazioni per contrastarli.
OpenAI non agisce da sola in questo spazio; la collaborazione con altre aziende tecnologiche e autorità è fondamentale per costruire difese più robuste attraverso l’intero ecosistema digitale. Questo rapporto è un tassello in un quadro più ampio di condivisione delle informazioni sulle minacce basate sull’IA.
1. La Battaglia Continua: Usare l’AI per Difendersi
OpenAI adotta un approccio proattivo, non solo sviluppando l’IA per risolvere problemi complessi, ma anche impiegando l’IA stessa per rafforzare le proprie capacità investigative. Nei soli ultimi tre mesi, l’AI è stata utilizzata come un moltiplicatore di forza per i team investigativi, consentendo di rilevare, interrompere ed esporre una vasta gamma di attività abusive con maggiore efficienza.
Le minacce identificate spaziano dalle operazioni di influenza volte a manipolare l’opinione pubblica, alle truffe online, fino all’uso dell’IA nello spionaggio informatico. La diversità delle attività e delle origini geografiche sottolinea la natura globale della sfida.
2. Casi di Studio: Un Campionario di Abusi Basati sull’AI
Il rapporto presenta dieci casi studio dettagliati, offrendo esempi concreti di come i modelli di OpenAI siano stati (o abbiano tentato di essere) utilizzati in modo malevolo. Ecco alcuni dei principali tipi di attività riscontrate:
-
Schemi di Impiego Ingannevoli: Attori legati, con una probabilità stimata, alla Corea del Nord (DPRK) hanno utilizzato i modelli per automatizzare la creazione di curriculum vitae falsi e materiali di supporto per richieste di lavoro fraudolente nel settore IT a livello globale. Hanno anche ricercato come utilizzare strumenti per aggirare le misure di sicurezza aziendali nei setup di lavoro remoto.
-
Operazioni di Influenza Occulta (IO – Influence Operations): Diversi casi, alcuni dei quali probabilmente originati dalla Cina, dalle Filippine, dalla Russia e dall’Iran, hanno coinvolto l’uso dell’IA per generare contenuti polarizzanti per i social media.
- L’operazione “Sneer Review” (probabilmente Cina) ha generato post e commenti per TikTok e X (ex Twitter) su argomenti geopolitici allineati agli interessi cinesi, cercando di simulare un coinvolgimento organico attraverso commenti falsi. È interessante notare che hanno anche utilizzato i modelli per redigere quelle che sembravano revisioni interne delle prestazioni, suggerendo un uso a scopo organizzativo.
- L’operazione “High Five” (Filippine) ha usato l’IA per generare migliaia di commenti brevi su TikTok e Facebook riguardo alla politica interna, spesso a favore del Presidente Marcos. L’obiettivo era inondare le sezioni commenti per far apparire i canali affiliati più popolari.
- L’operazione “Helgoland Bite” (probabilmente Russia) ha generato contenuti in tedesco per criticare gli Stati Uniti e la NATO e promuovere un partito politico tedesco in vista delle elezioni del 2025. Il contenuto è stato diffuso su Telegram e X, spesso ripubblicato su siti legati a note reti di propaganda russe.
- L’operazione “Uncle Spam” (probabilmente Cina) ha puntato sulla polarizzazione politica statunitense, generando contenuti a favore o contro i dazi commerciali e utilizzando l’IA per creare immagini profilo stilizzate per account falsi, in particolare quelli che si spacciavano per veterani statunitensi critici dell’amministrazione.
- L’attività “STORM-2035” (probabilmente Iran), già interrotta in precedenza, ha continuato a generare tweet in spagnolo e inglese su temi divisivi come l’immigrazione USA, l’indipendenza scozzese, la riunificazione irlandese e i rapporti USA-Iran.
-
Ingegneria Sociale: L’operazione “VAGue Focus” (probabilmente Cina) ha utilizzato l’IA per generare post sui social media e tradurre messaggi in un apparente tentativo di ingegneria sociale, presentandosi come professionisti di entità con focus geopolitico per raccogliere informazioni. Hanno anche posto domande basilari su strumenti di attacco informatico.
-
Operazioni Cibernetiche: L’operazione “ScopeCreep” (lingua russa) ha sfruttato i modelli per sviluppare, affinare e fare debug di malware per Windows, utilizzando l’IA come assistente di codifica. L’attore ha cercato aiuto per implementare funzionalità specifiche nel codice malware, come l’offuscamento e l’evasione del rilevamento, e per impostare l’infrastruttura di comando e controllo.
- Attori legati a noti gruppi di minaccia (Keyhole Panda / APT5 e Vixen Panda / APT15), associati alla Repubblica Popolare Cinese, hanno utilizzato l’IA in diverse fasi delle loro operazioni informatiche. Hanno impiegato i modelli per la ricerca open-source su entità di interesse, per modificare script, risolvere problemi di configurazione di sistema, sviluppare software e configurare l’infrastruttura. Hanno anche usato l’IA per ricercare vulnerabilità, automatizzare lo scripting per la ricognizione di rete e analizzare dati estratti dalle piattaforme social.
-
Scam: L’operazione “Wrong Number” (probabilmente Cambogia) è una “task scam” in cui l’IA è stata utilizzata per generare messaggi di reclutamento ingannevoli in più lingue, offrendo pagamenti elevati per compiti minimi (come mettere “like” sui social media). L’IA è stata usata anche per tradurre le conversazioni tra gli operatori (che parlavano cinese) e le potenziali vittime in diverse lingue.
3. L’Impatto e la Rilevabilità
Molti di questi sforzi, sebbene ambiziosi nell’uso dell’IA, hanno avuto un impatto limitato in termini di engagement autentico da parte degli utenti. Le operazioni di influenza, misurate sulla “Breakout Scale”, sono state spesso valutate a livelli bassi (Categoria 1 o 2), con scarso coinvolgimento o diffusione organica.
Crucialmente, il tentativo di integrare l’IA nei flussi di lavoro malevoli ha paradossalmente aumentato la loro visibilità per OpenAI. Richiedendo assistenza ai modelli per generare contenuti, scrivere codice o tradurre messaggi, gli attori malintenzionati hanno lasciato tracce che hanno permesso ai sistemi di rilevamento di OpenAI di identificarli e di agire. Questo ha consentito di bannare gli account, coordinarsi con piattaforme partner e autorità per rimuovere contenuti o infrastrutture dannose.
4. Collaborazione e Prospettive
Il rapporto sottolinea l’importanza fondamentale della collaborazione. Condividendo le informazioni sulle attività malevole e sui metodi impiegati, OpenAI contribuisce a rafforzare le difese non solo sui propri servizi, ma sull’intero ecosistema digitale. I report di altre aziende come Google e Anthropic arricchiscono ulteriormente questo quadro condiviso delle minacce basate sull’IA.
Le indagini sull’abuso dell’IA sono un campo in continua evoluzione. Ogni operazione interrotta fornisce nuove conoscenze su come gli attori delle minacce cerchino di aggirare le difese e su come queste difese possano essere ulteriormente raffinate. L’obiettivo è chiaro: rendere l’uso dell’IA per scopi malevoli sempre più difficile e meno efficace.
Conclusione: Sicurezza come Priorità Costante
Il rapporto “Disrupting malicious uses of AI: June 2025” di OpenAI offre una preziosa istantanea della lotta in corso contro l’uso improprio dell’intelligenza artificiale. Dimostra che, nonostante gli attori malintenzionati stiano esplorando attivamente come sfruttare l’IA per amplificare le loro attività – siano esse truffe, propaganda o attacchi informatici – i progressi nei sistemi di rilevamento e la collaborazione tra le aziende tecnologiche stanno permettendo di identificare e neutralizzare queste minacce, spesso nelle loro fasi iniziali. La trasparenza e la condivisione delle informazioni, come quelle contenute in questo rapporto, sono strumenti essenziali per costruire un futuro in cui l’IA possa essere sfruttata per il bene, con difese robuste contro i suoi usi potenzialmente dannosi. La sicurezza nell’era dell’AI non è una meta, ma un percorso di vigilanza e adattamento continui.
Ti potrebbe anche interessare
Data Science: Infrastrutture Scalabili con Docker e Jupyter
Docker per la Data Science: Creazione di Infrastrutture Scalabili con...
IA Generativa Responsabile: Guida per Leader e Product Manager
Uso Responsabile dell'IA Generativa: Guida per Product Manager e Leader...
IA per PMI: Guida Efficace all’Implementazione
INTELLIGENZA ARTIFICIALE E DIGITALIZZAZIONE NELLE PMI: UN QUADRO PER L'IMPLEMENTAZIONE...