[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]
Il Signore degli Algoritmi
Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche
A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.
Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’ esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.
Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J. R. R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.
Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).
Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili).
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.
Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.
Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.
Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.
Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.
Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.
Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.
Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.
Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.
E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.