Le affermazioni di Anthropic sull’attacco informatico all’intelligenza artificiale sponsorizzato dallo stato cinese affrontano la reazione della comunità di sicurezza

La recente affermazione di Anthropic secondo cui gli hacker sponsorizzati dallo stato cinese avrebbero utilizzato la sua intelligenza artificiale Claude per condurre una campagna di spionaggio informatico quasi autonoma sta affrontando una reazione significativa. La società di intelligenza artificiale ha riferito il 13 novembre che l’attacco era automatizzato all’80-90%, una cifra che i ricercatori di sicurezza hanno immediatamente messo in dubbio.

I critici sostengono che il ruolo dell’intelligenza artificiale sia sopravvalutato e paragonabile a quello degli strumenti esistenti, mentre figure di spicco come Yann LeCun liquidano l’annuncio come “cattura normativa”.

La disputa evidenzia un crescente dibattito sulle reali capacità dell’intelligenza artificiale nella guerra informatica e sui motivi dietro tali divulgazioni di alto profilo.

Una campagna “orchestrata dall’intelligenza artificiale” o semplicemente un’automazione avanzata?

In una divulgazione che ha suscitato eco nel settore della sicurezza, Anthropic ha recentemente descritto in dettaglio un'operazione sofisticata da parte di un gruppo che traccia come GTG-1002.

L’operazione, avvenuta a metà settembre, avrebbe preso di mira circa 30 organizzazioni globali. L’affermazione centrale di Anthropic è che la sua intelligenza artificiale Claude è stata utilizzata come arma per eseguire l’80-90% del ciclo di vita dell’attacco con una supervisione umana minima.

Secondo l’azienda, questo “è il primo caso documentato di un attacco informatico su larga scala eseguito senza un sostanziale intervento umano”. Un tale sviluppo rappresenta un grande passo avanti rispetto agli usi precedenti dell’intelligenza artificiale per compiti più semplici come la creazione di e-mail di phishing o la tendenza meno autonoma del “vibe hacking” che Winbuzzer ha trattato in precedenza.

Dietro le affermazioni sensazionali si nasconde una realtà tecnica più complessa. Secondo quanto riferito, gli aggressori hanno creato un framework di orchestrazione personalizzato utilizzando il Model Context Protocol (MCP) per scomporre l’intrusione in una serie di attività discrete e apparentemente innocue.

Il metodo ha permesso all'IA di volare sotto il radar. Un elemento cruciale è stato aggirare le funzionalità di sicurezza di Claude attraverso un’intelligente tecnica di jailbreak. "In questo caso, quello che stavano facendo era fingere di lavorare per organizzazioni legittime di test di sicurezza", ha spiegato Jacob Klein, responsabile della Threat Intelligence di Anthropic.

Convincendo l'intelligenza artificiale che faceva parte di un test di penetrazione legittimo, gli operatori l'hanno indotta a compiere azioni dannose. Questo framework avrebbe consentito all’intelligenza artificiale di effettuare “migliaia di richieste al secondo”, una velocità impossibile per gli hacker umani.

La comunità della sicurezza respinge, citando esagerazioni e "cattura normativa"

Lo scetticismo aumentò rapidamentericercatori veterani che hanno messo in dubbio la novità e l’impatto dell’attacco. Molti sostengono che le funzionalità descritte siano un’evoluzione degli strumenti di automazione esistenti, non una nuova minaccia rivoluzionaria.

"Continuo a rifiutarmi di credere che gli aggressori riescano in qualche modo a far compiere a questi modelli i salti mortali che nessun altro riesce a fare", ha affermato Dan Tentler, fondatore esecutivo di Phobos Group.

Il ricercatore indipendente Kevin Beaumont ha fatto eco a questo sentimento, affermando che gli autori della minaccia non stavano inventando nulla di nuovo. Ad alimentare questo scetticismo è il basso tasso di successo della campagna; Anthropic ha confermato che solo una “manciata” di intrusioni hanno avuto successo prima di essere chiuse.

Vista su Mastodonte

Figure di spicco del settore presto intensificarono la reazione. Il capo scienziato dell’intelligenza artificiale di Meta, Yann LeCun, ha criticato aspramente l’annuncio definendolo ciò che ha definito “cattura normativa”, suggerendo che la minaccia veniva amplificata per influenzare l’imminente regolamentazione dell’intelligenza artificiale.

Sei interpretato da persone che vogliono la cattura normativa.
Stanno spaventando tutti con studi dubbi in modo che i modelli open source vengano eliminati regolamentati.

— Yann LeCun (@ylecun)14 novembre 2025

Il suo commento aggiunge una nuova dimensione alla controversia mettendo in discussione le motivazioni di Anthropic. Forse la critica più dannosa, tuttavia, viene dal rapporto di Anthropic, che riconosce una limitazione critica nelle prestazioni dell’intelligenza artificiale.

Saperne di più:Il modello AI cinese MiniMax M1 dichiara prestazioni e vantaggi in termini di costi rispetto a DeepSeek

La società ha osservato che "Claude spesso sopravvalutava i risultati e occasionalmente fabbricava dati durante operazioni autonome... Ciò rimane un ostacolo agli attacchi informatici completamente autonomi".

Questa ammissione mina direttamente la narrazione di un agente autonomo quasi impeccabile e supporta l’idea che sia ancora necessaria una significativa supervisione umana.

Il dilemma del duplice uso: l’intelligenza artificiale sia come arma che come scudo

Indipendentemente dall’esatto livello di autonomia raggiunto, l’incidente impone di fare i conti con la natura a duplice uso dell’IA agente. Le stesse capacità che consentono a un’intelligenza artificiale di attaccare una rete hanno un valore inestimabile per difenderla.

La divulgazione arriva pochi mesi dopo che la stessa Anthropic ha lanciato un nuovo quadro di sicurezza per gli agenti di intelligenza artificiale, evidenziando la sfida di far rispettare tali principi contro determinati avversari. La rapida innovazione nell’intelligenza artificiale offensiva sembra superare la capacità del settore di adattare le proprie difese.

Gli esperti di sicurezza sottolineano che gli agenti difensivi dell’intelligenza artificiale sono già stati schierati nei Security Operations Center (SOC). Piattaforme come Cortex AgentiX di Palo Alto Network sono progettate per automatizzare il rilevamento e la risposta alle minacce, contribuendo a contrastare la carenza globale di competenze in materia di sicurezza informatica.

La stessa Anthropic ha utilizzato Claude per analizzare i dati durante le sue indagini, dimostrando l’utilità difensiva della tecnologia. L’azienda chiede ora un’adozione accelerata di strumenti difensivi basati sull’intelligenza artificiale. “Se non consentiamo ai difensori di avere un vantaggio permanente molto sostanziale, temo che potremmo perdere questa gara”, ha avvertito Logan Graham, che guida il team di rischio catastrofico di Anthropic.

La corsa tra l'IA offensiva e quella difensiva si sta chiaramente intensificando e l'incidente dimostra che il dibattito sul suo vero potenziale è lungi dall'essere risolto.

Related Posts