L’amministrazione Trump sta esaminando l’ipotesi di introdurre un controllo governativo sui nuovi modelli di IA prima della loro diffusione pubblica.
Come scrive il New York Times, che ha fatto lo scoop citando funzionari americani e persone a conoscenza dei colloqui, si sta discutendo di un possibile ordine esecutivo per istituire un gruppo di lavoro che riunisca dirigenti delle principali aziende tecnologiche e rappresentanti del governo, con l’obiettivo di esaminare procedure di revisione dei nuovi sistemi IA.
Si tratta di un cambio di rotta netto e significativo rispetto alla precedente impostazione di deregolamentazione spinta che aveva caratterizzato i primi mesi del secondo mandato presidenziale.
Dopo aver promosso con forza un approccio di non intervento, definendo l’AI come un settore da lasciar crescere liberamente, la Casa Bianca sembra ora orientata verso forme di supervisione statale motivate soprattutto da preoccupazioni legate alla sicurezza nazionale, ai rischi cibernetici e alle potenziali ripercussioni politiche.
Bisogno di regole
Fino a pochi mesi fa Trump si era presentato come il grande sostenitore dell’IA americana. Nel luglio scorso l’aveva definita “un bellissimo bambino appena nato” che andava fatta crescere senza intralci politici o “stupide regole”.
Il presidente aveva rapidamente cancellato le misure di sicurezza introdotte dall’amministrazione Biden e puntato tutto sulla competizione con la Cina, allentando vincoli ambientali e facilitando le esportazioni.
Oggi il panorama appare diverso. Secondo quanto riportato dal Times, l’amministrazione sta valutando l’introduzione di un processo formale di revisione governativa dei nuovi modelli. Un’inversione di tendenza che arriva mentre crescono le preoccupazioni bipartisan sui rischi per l’occupazione, la privacy, i consumi energetici e, soprattutto, la sicurezza informatica.
L’ordine esecutivo e il gruppo di lavoro
Al centro delle conversazioni c’è un possibile ordine esecutivo che crei un “gruppo di lavoro” sull’IA Questo organismo riunirebbe executive delle aziende tech e funzionari governativi per studiare procedure di vigilanza.
La settimana scorsa alti funzionari della Casa Bianca hanno incontrato dirigenti di Anthropic, Google (Alphabet) e OpenAI per illustrare alcune delle proposte in esame, come riferito ancora dal Nyt.
Non è ancora chiaro come funzionerebbe nel dettaglio il meccanismo di revisione. Una delle ipotesi è un sistema simile a quello britannico, dove diversi enti governativi verificano che i modelli rispettino determinati standard di sicurezza.
L’obiettivo principale non sarebbe bloccare le pubblicazioni, ma garantire al governo un accesso prioritario per valutare rischi e possibili applicazioni militari o di intelligence.
Il caso Mythos di Anthropic
Gran parte di questa nuova attenzione nasce dall’annuncio di Anthropic sul modello Mythos. Questo sistema si è rivelato straordinariamente efficace nell’identificare vulnerabilità nei software, tanto da far parlare di un possibile “riconoscimento” nel settore della cybersecurity.
L’azienda ha scelto di non rilasciarlo pubblicamente, limitandone l’uso a pochi partner selezionati.
Come osserva anche Reuters, la Casa Bianca teme ripercussioni politiche in caso di un grave attacco cibernetico facilitato dall’IA.
Allo stesso tempo, funzionari americani stanno valutando le potenzialità del modello per le agenzie di intelligence e il Pentagono.
Proprio su Mythos si è concentrato l’incontro di aprile tra la capo di gabinetto Susie Wiles, il segretario al Tesoro Scott Bessent e l’amministratore delegato di Anthropic, Dario Amodei.
Tensioni con il Pentagono
La politica sull’IA è complicata da una disputa aperta tra il Pentagono e Anthropic.
Dopo il fallimento delle trattative su un contratto da 200 milioni di dollari e divergenze sulle misure di sicurezza per gli usi militari, il Dipartimento della Guerra ha interrotto l’impiego delle tecnologie dell’azienda su reti classificate. La situazione ha creato difficoltà ad agenzie governative che si erano abituate a questi strumenti.
Nel frattempo, alla Casa Bianca è cambiato il quadro di riferimento. David Sacks, ex responsabile per l’IA e sostenitore di una forte deregolamentazione, ha lasciato l’incarico a marzo.
Susie Wiles e Scott Bessent stanno assumendo un ruolo più attivo, cercando di ricucire i rapporti con le aziende e di riportare le tecnologie Anthropic nell’uso governativo.
Divisioni nel mondo tech
Le discussioni stanno creando divisioni anche tra le aziende. Alcuni dirigenti temono che un eccesso di controllo governativo possa rallentare l’innovazione americana nella gara con Pechino.
Altri riconoscono però la necessità di procedure condivise in un settore che evolve a velocità vertiginosa. Dean Ball, ex consigliere per l’IA dell’amministrazione Trump, ha parlato di un equilibrio delicato tra velocità e prudenza.
Speculazioni?
Per ora la Casa Bianca mantiene un profilo basso. Un funzionario ha definito le indiscrezioni su un possibile ordine esecutivo come “speculazioni”, ribadendo che qualsiasi annuncio arriverà direttamente da Trump.
Resta da vedere se questa fase porterà a un sistema di verifica leggero o a qualcosa di più strutturato, eventualmente coinvolgendo la National Security Agency, l’ufficio del National Cyber Director o il Center for AI Standards and Innovation.






Commenti recenti