Come l’IA trasforma le false notizie in strumenti di controllo sociale

Sistemi di intelligenza artificiale rendono la disinformazione indistinguibile dalla realtà, alterando profondamente la nostra percezione del vero.

Esiste un disagio crescente, sottile, che fatica a trovare definizione. Sblocchiamo lo smartphone, sfogliamo fotografie, consultiamo testi, osserviamo filmati che appaiono autentici, attendibili, quasi consueti. Ogni elemento sembra genuino. Ogni dettaglio risulta plausibile. Tuttavia qualcosa non quadra, come una dissonanza in una melodia che conosciamo perfettamente.

Le notizie false e l’IA stanno modificando la nostra percezione della realtà, senza fanfare né preavvisi. Penetrano nel quotidiano, nei network digitali, nelle informazioni che consultiamo durante la pausa mattutina, nei contenuti che fruiamo seduti in poltrona. La questione non riguarda più la singola menzogna. La questione coinvolge l’atmosfera cognitiva nella quale siamo immersi.

Disinformazione e IA nel nostro vissuto giornaliero

L’inganno contemporaneo non presenta più i tratti evidenti della menzogna tradizionale. Assume l’aspetto rassicurante dell’ordinario. Un’affermazione attribuita a una celebrità. Un filmato naturalistico che ricorda una produzione televisiva. Un’immagine che veicola una narrazione emotiva e diretta. Tutto opera efficacemente perché comunica attraverso i sentimenti, non mediante la verifica dei fatti.

Da tempo ricercatori ed esperti di psicologia evidenziano come gli individui tendano a dare credito a ciò che “appare veritiero”, a quanto si allinea con le loro convinzioni preesistenti o stati d’animo. Questo fenomeno, definito truthiness, esisteva ben prima dell’era digitale. La tecnologia lo ha semplicemente accelerato, reso più immersivo, più duraturo.

Una ricerca recente pubblicata da Oxford University Press, False: Why an Untruth Is More Influential Than the Truth, illustra un concetto tanto elementare quanto preoccupante. Una menzogna ben architettata rimane più radicata nella memoria rispetto a un’informazione accurata. La nostra mente trattiene meglio ciò che suscita emozioni, ciò che viene ripetuto, ciò che risulta riconoscibile. L’intelligenza artificiale opera precisamente su questo livello. Genera contenuti scorrevoli, coerenti, persuasivi. Li replica. Li personalizza. Li rende indistinguibili dal resto. Così la credibilità si erode gradualmente: si logora come un tessuto sottoposto a continue tensioni.

L’IA come produttore di realtà verosimili

I deepfake costituiscono la manifestazione più evidente di questa trasformazione. Filmati nei quali individui reali sembrano pronunciare o compiere azioni mai effettivamente realizzate. Fotografie alterate con una precisione tale da ingannare l’osservazione superficiale. Testi generati da sistemi automatizzati che riproducono fedelmente lo stile comunicativo umano.

La criticità non coinvolge esclusivamente la sfera politica o gli eventi di portata globale. Riguarda l’ordinario. Riguarda la consuetudine di affidarsi alle rappresentazioni visive. Riguarda la fatica della verifica costante. Riguarda il bisogno di aderire a narrazioni che forniscano un significato immediato a ciò che osserviamo.

Anche l’ambiente accademico ha cominciato a confrontarsi con questa situazione. Pubblicazioni scientifiche contenenti riferimenti bibliografici inesistenti. Elaborati apparentemente rigorosi costruiti da sistemi di IA che “allucinano” informazioni e riferimenti. Ogni elemento appare strutturato, razionale, affidabile. L’architettura formale tiene. Il contenuto sostanziale sfugge.

In questo contesto emerge quella che numerosi studiosi definiscono un’autentica “sfilata dell’irreale”. Materiali che catturano l’interesse, provocano risposte emotive, indirizzano i sentimenti. La verità cessa di essere prioritaria. Prevale ciò che produce effetti.

Quando lo scetticismo si trasforma in esaurimento cognitivo

Già decenni or sono Hannah Arendt identificava un pericolo profondo. Una collettività sottoposta a una continua deformazione del reale perde progressivamente la facoltà di discernere, valutare, decidere. Non perché accetta acriticamente ogni cosa, ma perché rinuncia a credere in alcunché. Si tratta di una forma di logoramento mentale. Un abbandono silenzioso. Quando qualsiasi elemento può risultare ingannevole, ogni informazione perde peso. Anche quella realmente rilevante.

L’intelligenza artificiale intensifica questo meccanismo perché opera su vasta scala. Genera quantità enormi. Opera rapidamente. Produce in modo mirato. Ogni flusso informativo diventa un ecosistema personalizzato che conferma stati emotivi, consolida opinioni, elimina dissonanze. La disinformazione non grida: si insinua, si camuffa, diventa paesaggio.

Abitare questo scenario richiede una modalità rinnovata di consapevolezza. Non quella ossessiva della verifica incessante. Quella più raffinata del riconoscere le nostre reazioni emotive di fronte a un contenuto. Coinvolti. Indignati. Piacevolmente confermati. Le notizie false e l’intelligenza artificiale rivelano molto della nostra natura. Rivelano il desiderio di narrazioni lineari. Rivelano la difficoltà di sostare nell’incertezza. Rivelano l’aspirazione alla fiducia.

Integrare tecnologia, dimensione emotiva e pensiero critico diventa un esercizio quotidiano, paragonabile all’apprendimento nel riconoscere una fragranza nota nell’ambiente. Nessuna soluzione miracolosa. Soltanto un’attenzione leggermente più vigile.

Fonte: Oxford University

Condividi su Whatsapp Condividi su Linkedin