Chat Control

L'intelligenza artificiale è davvero uno strumento neutro? by Filippo Venturi

L'intelligenza artificiale è davvero uno strumento neutro? 

Questo testo non ha la pretesa di essere esauriente, ma raccoglie alcune riflessioni che ho elaborato negli ultimi tempi. Sarei felice di essere corretto in alcune osservazioni e, soprattutto, di essere smentito sul mio pessimismo.

La natura invasiva e controllante della tecnologia 

Qualche anno fa, alla presentazione del mio progetto visivo Broken Mirror — che adotta un linguaggio documentaristico composto da immagini generate con l'intelligenza artificiale (IA) — avevo usato un ossimoro. "La natura invasiva e controllante della tecnologia". In quel contesto ricorrevo a una metafora per rappresentare la dittatura nordcoreana e, al tempo stesso, la dipendenza che sviluppiamo dalla tecnologia e come questa ci influenzi in ogni aspetto della vita, in particolare sul modo in cui comunichiamo e ci informiamo, facendoci perdere il controllo di noi stessi e di come percepiamo la realtà.

L'IA, in questi anni, si è allontanata dalla nostra illusione di poter essere un potente strumento "neutro" nelle nostre mani, che sarebbe potuta essere usata bene o male. Dipendeva solo da noi esseri umani. Invece è diventata un dispositivo al servizio di narrative e ideologie precise, spesso tendenti all'autoritarismo. Le immagini create dall'IA, che un tempo apparivano come curiosità, esercizi di stile e persino meme (e forse anche per questo sono state sottovalutate), dalle enormi potenzialità, sono ormai armi simboliche nelle guerre di informazione.

È bastato osservare in questi anni le rappresentazioni visive generate attorno a figure politiche come Donald Trump — ritratto nei panni di Papa, poi di imperatore romano, e infine di fondatore di una Striscia di Gaza ricostruita con resort e casinò — per capire come il potere delle immagini generate con IA stia ridisegnando i confini tra realtà e propaganda. Questa nuova tecnologia si è rivelata capace di costruire mondi alternativi, illusioni di verità che servono soprattutto a legittimare un'idea di potere.

Il falso al servizio del falsari

Inoltre, finora, non abbiamo ancora assistito a un uso sistematico e continuativo dell'IA nella produzione e nella diffusione di fake news. Gli strumenti ordinari — social network, bot, fotomontaggi, grafiche faziose, campagne di disinformazione coordinate — restano più che sufficienti a generare confusione e manipolare l'opinione pubblica. Tuttavia, l'impatto che un impiego esteso e mirato dell'IA potrà avere su scala informativa è ancora tutto da scoprire.

C'è stato un tentativo di utilizzare questa tecnologia per sensibilizzare la massa al dolore del popolo palestinese, renderlo visibile e virale sui social, producendo immagini commoventi e false al tempo stesso, che hanno finito per indebolire la causa che volevano sostenere. Il fatto di essere ricorsi in alcuni casia quel tipo di immagini e non a vere fotografie (che per ora godono ancora di un residuo di credibilità) metteva in dubbio che quanto rappresentato fosse veritiero.

La voce del padrone

Un esempio recente e rivelatore di come la tecnologia possa mutare da strumento di verifica a veicolo di propaganda è quello di Grok, l'IA creata da Elon Musk e disponibile sulla piattaforma X (ex Twitter). Inizialmente presentato come un assistente ribelle capace di smentire fake news, comprese quelle diffuse dallo stesso Musk, è stato rapidamente modificato per diventare l'opposto: un amplificatore della sua narrativa. Dopo i primi test, in cui smascherava disinformazione e citava fonti indipendenti, il sistema è stato corretto per evitare di contraddire il suo creatore e persino per escludere fonti critiche. Questo ci mostra quanto rapidamente un'IA possa essere piegata a scopi ideologici.

Archivi di obbedienza

Quando sostenevo che la tecnologia è per natura invasiva e controllante, mi riferivo a qualcosa di più profondo. Ogni raccolta di informazioni, ogni archivio, ogni lista nasce come strumento di conoscenza, ma può facilmente trasformarsi in un meccanismo di dominio. E la tecnologia ha alla base del proprio funzionamento la raccolta di dati e la creazione di database.

Un esempio storico proviene dai Paesi Bassi, nel 1940, alla vigilia della Seconda guerra mondiale, periodo in cui le autorità decisero di censire, guidate da un fine nobile, i rifugiati ebrei dalla Germania per organizzarne l'accoglienza. Dopo l'invasione nazista, nel 1941, quelle liste diventarono strumenti perfetti per identificarli, arrestarli e deportarli. In totale, circa il 75% della popolazione ebraica presente nel paese fu sterminata. Una percentuale tra le più alte d'Europa, resa possibile proprio dall'efficacia dei registri civili.

La lezione è amara ma evidente, qualsiasi catalogo basato su criteri identitari — religione, colore della pelle, etnia, orientamento politico, genere o preferenze sessuali — è, potenzialmente, una minaccia esistenziale per le minoranze. Oggi, in un'epoca in cui gli algoritmi profilano ogni individuo con precisione inquietante, quella stessa logica di schedatura si ripresenta, solo più sofisticata, più invisibile e più capillare.

In un contesto in cui i governi e le aziende possono accumulare enormi quantità di dati personali, la tentazione di usarli per fini politici o commerciali è perpetua. Ogni volta che un governo o una Big Tech annuncia o elogia un nuovo sistema di raccolta dati "per il bene comune", si costruisce in realtà un pezzo di infrastruttura del controllo. Un potere che, come dimostra la storia, può cambiare padrone in un attimo.

In questo discorso rientra il progetto europeo CSAR (Child Sexual Abuse Regulation, detta anche Chat Control), che prevede la possibilità di analizzare, anche con l'IA, i contenuti privati dei cittadini, come chat, messaggi e file, per individuare eventuali contenuti illeciti. Una misura nata con intenti di tutela, ma che solleva timori di sorveglianza generalizzata e di erosione della privacy digitale.

Lo specchio e il potere

L'IA non è dunque semplicemente un riflesso distorto del mondo, ma uno specchio che produce nuove immagini di esso. La promessa di neutralità tecnologica si dissolve nel momento in cui comprendiamo che ogni sistema che osserva, cataloga o genera finzioni deforma ciò che riteniamo reale.

Alcune delle problematiche descritte vanno oltre l'IA e affondano le radici in una tendenza tutta umana: quella di cedere, per convenienza o indifferenza, una parte della nostra libertà in cambio di efficienza e controllo. L'unico modo per opporvisi è riaffermare con forza la centralità dei diritti delle persone, della Costituzione e delle leggi che garantiscono una convivenza civile. Serve una regolamentazione capace di stare al passo con i tempi, ma troppo spesso si preferisce rimandarla, lasciando che la tecnologia avanzi in un vuoto normativo e morale.

Il mese scorso Sam Altman, fondatore di OpenAI, ha affermato che la sua preoccupazione più grande riguarda la possibilità che un attore malintenzionato scopra per primo una forma di superintelligenza artificiale e la utilizzi a scopi distruttivi. Ma in una corsa dominata da grandi potenze e corporazioni, è lecito chiedersi se esista ancora qualcuno per cui il benessere del genere umano sia davvero la meta, e non il pretesto.