Trump spinge le banche a testare Mythos di Anthropic

Nonostante il Dipartimento della Difesa USA abbia dichiarato Anthropic un rischio per la supply chain, funzionari dell'amministrazione Trump starebbero incoraggiando le banche a testare il suo modello di cybersecurity Mythos, rivelando le complesse dinamiche geopolitiche e regolatorie che circondano l'intelligenza artificiale.

Il paradosso della sicurezza nazionale

La notizia, riportata da TechCrunch AI, presenta un quadro contraddittorio. Da un lato, il Dipartimento della Difesa ha formalmente classificato Anthropic, una delle principali aziende di AI, come un potenziale rischio per la catena di approvvigionamento tecnologica nazionale. Questa designazione solitamente limita o vieta l'adozione della tecnologia in questione da parte di enti governativi e settori critici, sulla base di valutazioni di sicurezza nazionale.

Dall'altro lato, fonti interne suggeriscono che alti funzionari dell'amministrazione Trump stiano operando in direzione opposta, promuovendo attivamente i test del modello Mythos di Anthropic presso le principali istituzioni finanziarie. Mythos è specificamente progettato per la cybersecurity, un settore di importanza cruciale per la stabilità economica e la protezione dei dati sensibili.

Le pressioni del settore finanziario e l'attrattiva di Mythos

Il settore bancario e finanziario è da anni sotto costante attacco da parte di cybercriminali e attori statali, con minacce in continua evoluzione. Le istituzioni sono alla ricerca disperata di strumenti avanzati per:

Il modello Mythos di Anthropic, costruito sulla base dei suoi avanzati modelli di linguaggio, promette proprio questo: un assistente AI specializzato in grado di analizzare enormi volumi di log di sicurezza, comprendere il linguaggio naturale delle minacce e suggerire contromisure. Questa potenziale rivoluzione nella difesa informatica spiega l'interesse delle banche, che potrebbero vedere nel divieto del Dipartimento della Difesa un ostacolo alla loro sicurezza operativa.

Lo scontro tra politica industriale e sicurezza

La situazione evidenzia una frattura all'interno dello stesso establishment americano. Da una parte, gli apparati di sicurezza tradizionali adottano un approccio cautelativo, volendo evitare qualsiasi dipendenza da aziende la cui tecnologia, governance o catena di fornitura possa presentare vulnerabilità sfruttabili da avversari geopolitici.

Dall'altra, una parte dell'amministrazione, probabilmente sollecitata dalle lobby industriali e dalla percezione di un ritardo tecnologico, sembra voler favorire l'innovazione e la competitività del settore privato, anche a costo di ridefinire i parametri del rischio. Incoraggiare i test nelle banche potrebbe essere una strategia per:

Questa tensione riflette un dibattito più ampio su come governare tecnologie dual-use come l'AI, dove il confine tra vantaggio economico e vulnerabilità strategica è estremamente labile.

Cosa significa

La vicenda del modello Mythos di Anthropic è un caso di studio sulle forze in gioco nella regolamentazione dell'AI. Mostra come le valutazioni di sicurezza nazionale non siano monolitiche e possano essere controbilanciate da pressanti esigenze industriali e da opportunità tecnologiche percepite come irrinunciabili. Per il settore finanziario, si tratta di una potenziale apertura per accedere a strumenti di difesa all'avanguardia. Per il panorama geopolitico, è un segnale di come la competizione tecnologica globale possa creare divisioni interne nelle politiche dei singoli stati, con diversi rami dell'amministrazione che perseguono agende talvolta in conflitto tra loro. L'esito di questo braccio di ferro influenzerà non solo il futuro di Anthropic, ma anche il modello con cui l'Occidente intende conciliare innovazione, sicurezza economica e difesa nazionale.