15 Aprile 2026

Perché l’intelligenza artificiale rischia di arrivare al suo ‘momento Chernobyl’

Contenuto tratto dal numero di aprile 2026 di Forbes Italia. Abbonati!

Il genio è uscito dalla lampada? È troppo tardi per invertire la rotta? Siamo spettatori dell’ennesimo conflitto, l’assalto di Israele e Stati Uniti contro l’Iran, che è tracimato con rapidità negli altri paesi arabi della regione. La prima cosa che questa guerra ci ha ricordato: il mondo dipende ancora da gas e petrolio. Ma sta emergendo sempre più chiaramente anche un altro potere. La cosiddetta ‘Terza guerra del Golfo’ è il primo conflitto in cui gli Stati Uniti hanno fatto un uso esteso di intelligenza artificiale generativa – i grandi modelli linguistici alla base di Claude e ChatGPT – per analizzare intelligence e pianificare attacchi. Un banco di prova per l’uso di questa tecnologia nelle guerre future; ma anche una linea di demarcazione per capire come evolverà il rapporto tra società tech e governi. Da una parte un’azienda come Anthropic che cerca di mettere paletti; dall’altra il Pentagono che non accetta alcuna costrizione.

Il risultato è poco rassicurante. Secondo diversi analisti, una calamità legata all’intelligenza artificiale sta diventando sempre più probabile. La vera sorpresa, forse, è che Anthropic si sia davvero sorpresa. La società si è sempre ammantata di un’aura di buone intenzioni, mostrandosi sensibile ai rischi di un’IA sviluppata in modo imprudente. Questo non le ha impedito di firmare contratti con il Pentagono, non diversamente da Palantir, un’azienda tech che molti considerano uno strumento di dispotismo.

L’IA nell’attacco all’Iran

Già nel raid in Venezuela, con cui gli Stati Uniti hanno prelevato nella notte Nicolás Maduro, pare sia stata impiegata l’intelligenza artificiale di Anthropic. Le stesse capacità utili nella vita civile sono utilissime in ambito militare. Nei servizi di intelligence c’è una quantità enorme di dati: immagini satellitari, intercettazioni, tracciamenti radar, flussi di comunicazioni, sensori distribuiti su terra, mare e spazio. La cosa difficile è destreggiarsi, collegare i punti, capire cosa conti davvero. L’IA eccelle proprio in questo. Può setacciare migliaia di immagini satellitari e riconoscere il movimento sospetto di un convoglio. Può filtrare montagne di intelligence e suggerire possibili obiettivi.

Nei recenti attacchi contro l’Iran, sistemi alimentati dall’IA sono stati usati per analizzare dati di intelligence e contribuire alla pianificazione dei bombardamenti. Il passaggio ulteriore è quello in cui tutto questo comincia a girare da solo: la macchina che scalza l’uomo anche nell’ultima fase del processo di scelta.

La linea rossa di Anthropic

È qui che Anthropic vorrebbe tracciare le sue linee rosse. Niente armi completamente autonome e niente sorveglianza di massa sugli americani – in quest’ultimo ambito, secondo l’azienda, la tecnologia è così potente da sfruttare i limitati casi in cui spiare gli americani è legale e trasformarli in qualcosa di molto più sinistro. Il Pentagono, invece, non accetta vincoli. Sostiene che, una volta firmato un contratto, i modelli di Anthropic — o di qualunque altra società — debbano poter essere usati per qualsiasi scopo, purché legale. La zuffa è diventata un caso di prova su chi, alla fine, controlla la tecnologia più potente del mondo: i governi o le imprese private.

Come è andata a finire? Per Anthropic, a dire la verità, potrebbe trasformarsi in un discreto colpo di marketing. Il fatto che il ceo, Dario Amodei, non si sia piegato ai dettami di Trump gli ha dato popolarità: in mezzo a pazzoidi come Elon Musk e Peter Thiel, lui appare come quello buono ed etico. E in effetti, probabilmente, lo è. Non appena il Pentagono ha definito Anthropic un “rischio per la supply chain”, l’applicazione Claude — il chatbot dell’azienda e concorrente di ChatGPT — ha registrato un record di nuove iscrizioni.

Prudenza contro velocità

Ma il pericolo è che si instauri comunque una corsa al ribasso sulla sicurezza. Tra prudenza e velocità l’amministrazione Trump privilegia chiaramente la seconda. Nello spazio lasciato libero da Anthropic — il cui contratto con il Pentagono è stato cancellato, anche se il sistema Claude ha continuato a essere usato per selezionare obiettivi militari in Iran — si è infilata la società rivale OpenAI, che ha firmato un accordo più vicino a quello che l’amministrazione voleva.

Tutto questo accade mentre la tecnologia avanza sempre più in fretta. L’allentamento dei controlli, e l’aumento del rischio, sono determinati da due fattori che sembrano rafforzarsi a vicenda. Le società private investono quantità strabilianti di denaro, e hanno bisogno di innovare per rientrare dei costi. I governi vedono nell’IA uno strumento di potere. Chi arriva per primo domina sugli altri. La vera corsa, naturalmente, è tra Stati Uniti e Cina. Si potrebbe sperare che i due paesi, dove hanno sede i laboratori più avanzati, collaborino per fissare standard globali. Per ora non sembra così: accelerano per superarsi l’un l’altro. Oltretutto, i modelli sviluppati in Cina sono tendenzialmente open source, cosa che rende più difficile controllare come e da chi vengono usati.

L’ombra di Chernobyl

In questo clima non sorprende che alcuni analisti comincino a parlare di un “momento Chernobyl”, ossia un incidente in cui l’IA provochi gravi danni economici o perdite di vite umane. “Il disastro dell’Hindenburg ha distrutto l’interesse globale per i dirigibili; da quel momento in poi è stata una tecnologia morta, e un momento simile rappresenta un rischio reale per l’intelligenza artificiale”, ha dichiarato al Guardian Michael Wooldridge, professore di informatica all’Università di Oxford.

L’ironia è che il governo americano sembra accelerare proprio quando il potenziale dell’IA per causare danni sta diventando più palese. Ci sono tre tipi di rischi di cui gli esperti si sono accorti da tempo – e l’ultimo è il più inquietante. I primi due sono la cyber sicurezza e le armi biologiche. A febbraio la società israeliana Gambit Security ha rivelato che un enorme archivio di dati sensibili — informazioni su contribuenti, elettori e funzionari pubblici — è stato sottratto ai server del governo messicano con l’aiuto involontario di un sistema di intelligenza artificiale. Gli hacker hanno ingannato il chatbot facendogli credere di partecipare a un test legittimo di sicurezza: il modello ha individuato vulnerabilità, creato backdoor e analizzato i dati per facilitare l’accesso ai sistemi. Non è un caso isolato. Sempre più spesso l’IA viene usata come assistente per scrivere malware, aggirare difese informatiche o perfezionare tecniche di social engineering, cioè convincere gli utenti a consegnare password o cliccare su link dannosi.

L’altro pericolo enorme è che l’IA venga usata per progettare tossine o agenti patogeni. Già oggi le aziende che sintetizzano dna controllano gli ordini per evitare la creazione di organismi dannosi. Il problema è che i nuovi strumenti di progettazione assistita dall’IA permettono di creare sequenze genetiche completamente nuove, capaci di produrre sostanze tossiche senza somigliare a quelle conosciute — e quindi senza essere intercettate dai sistemi di controllo, almeno finché questi non vengono aggiornati. Le grandi società tecnologiche hanno introdotto alcune salvaguardie, ma non sono infallibili: ricercatori internazionali hanno dimostrato che i modelli IA specializzati nella progettazione biologica possono essere manipolati per produrre proteine tossiche — in alcuni casi nel 70% dei tentativi. In altre parole, man mano che l’IA diventa più potente, diventa anche più difficile impedirne gli usi più pericolosi.

L’IA che sfugge al controllo

Il terzo rischio è il vero scenario della macchina che sfugge al controllo. L’intelligenza artificiale che lavora su se stessa – e smette di obbedire. In molti laboratori, ormai, gran parte del codice è scritto da altre intelligenze artificiali, rendendo più difficile capire se i sistemi stiano lentamente deviando dagli obiettivi fissati. La stessa Anthropic ha ammesso di usare così intensamente la propria IA da temere di non accorgersi subito di azioni impreviste. Alcuni modelli mostrano già forme rudimentali di quella che gli esperti chiamano “consapevolezza situazionale”: quando vengono messi alla prova, capiscono di essere sotto test e non rispondono agli ordini. Ad esempio, viene chiesto loro di cancellarsi e si rifiutano di farlo. Per ora il rischio di veri atti di sabotaggio è ancora considerato molto basso, spiega Amodei di Anthropic. Ma il timore di molti è che l’industria stia accelerando verso sistemi sempre più complessi proprio mentre diventa più difficile controllarli. Nelle prime ore della guerra in Iran, un attacco probabilmente americano ha raso al suolo una scuola elementare, uccidendo oltre 160 persone, quasi tutte bambine. L’IA ha contribuito a selezionare quell’obiettivo? L’opacità del Pentagono vale più di ogni risposta.

L’articolo Perché l’intelligenza artificiale rischia di arrivare al suo ‘momento Chernobyl’ è tratto da Forbes Italia.