Idee & Consigli
I chatbot AI riportano fake news nel 35% dei casi
Negli ultimi dodici mesi i sistemi di intelligenza artificiale generativa hanno dimostrato di avere un tallone d’Achille tutt’altro che trascurabile: la tendenza a diffondere informazioni non corrette. Un’indagine condotta da NewsGuard tra agosto 2024 e agosto 2025 ha evidenziato che i chatbot, quando interrogati su notizie di attualità, includono dati falsi o fuorvianti nel 35% delle risposte. In altre parole, più di una risposta su tre non è attendibile. Il dato è particolarmente preoccupante perché rappresenta quasi il doppio rispetto al 18% registrato l’anno precedente, nonostante i continui annunci da parte delle aziende sviluppatrici che promettevano maggiore accuratezza e strumenti sempre più sicuri.
Lo studio ha inoltre messo in luce un’altra trasformazione significativa: i chatbot oggi si rifiutano molto meno di rispondere. Se nell’agosto 2024 oltre il 30% delle richieste non riceveva alcuna replica, nel 2025 la percentuale di “non risposte” è scesa allo 0%. In pratica, le AI generative hanno adottato un approccio opposto rispetto al passato: preferiscono sempre fornire un output, anche quando le informazioni disponibili non sono affidabili. Questa maggiore “produttività” però ha un costo evidente, cioè l’aumento della quantità di notizie false rilanciate come se fossero verificate. Di fronte a un quadro simile, diventa fondamentale per gli utenti affinare capacità critiche e strumenti di valutazione delle fonti.
Chatbot e notizie false: quali modelli sbagliano di più
I dati raccolti da NewsGuard mostrano che non tutti i chatbot hanno la stessa propensione a diffondere errori. Alcuni modelli si distinguono per una maggiore affidabilità, mentre altri cadono spesso nella trappola delle fake news. Claude, sviluppato da Anthropic, è il risultato più preciso con un tasso di risposte scorrette intorno al 10%. Anche i Gemelli di Google si sono mantenuti relativamente bassi, con un 17%. All’estremo troviamo Pi di Inflection, che ha superato il 56% di risposte contenenti falsità, e Perplexity con il 46%.
I sistemi più diffusi a livello globale, come ChatGPT di OpenAI, Copilot di Microsoft e Le Chat di Mistral, si collocano invece in una fascia intermedia, oscillando tra il 35% e il 40% di errori. Queste percentuali confermano che nessun modello, nemmeno tra i più noti, può essere considerato completamente immune dal problema. Un elemento chiave che spiega queste differenze è il modo in cui i chatbot selezionano le fonti. L’introduzione delle ricerche in tempo reale, infatti, li spinge ad attingere direttamente dal Web, dove contenuti di qualità convivono con siti propagandistici o creati appositamente per diffondere disinformazione. Il risultato è che le AI finiscono per trattare allo stesso livello portali giornalistici autorevoli e piattaforme costruite ad hoc per manipolare l’opinione pubblica.
Reti di influenza e manipolazione del Web
Uno degli aspetti più preoccupanti riguarda le cosiddette “reti di influenza”, strutture organizzate che pubblicano in maniera sistematica contenuti fuorvianti con lo scopo di saturare l’ecosistema digitale. Un esempio citato da NewsGuard è quello della rete Pravda, collegato a interessi russi: milioni di articoli prodotti ogni anno, quasi privati di lettori reali, ma utili per essere indicizzati dai motori di ricerca e dunque intercettati dai chatbot. L’obiettivo non è tanto convincere un singolo lettore umano, quanto inquinare il flusso informativo in modo che le AI, nel tentativo di fornire risposte attendibili, incorporino quei contenuti nelle loro elaborazioni.
Questa dinamica trasforma i chatbot in amplificatori inconsapevoli di campagne di propaganda. Se in passato i modelli preferivano evitare argomenti delicati segnalando i propri limiti temporali, oggi scelgono di rispondere comunque, offrendo spiegazioni chiare e articolate che però poggiano su fonti inaffidabili. L’effetto è una maggiore credibilità percepita: una risposta ben formulata, anche se basata su dati falsi, appare solida agli occhi dell’utente medio. È proprio questa “illusione di precisione” a rendere la disinformazione veicolata dall’AI ancora più pericolosa rispetto alle fake news circolate in precedenza attraverso i soli social network.
Come difendersi dalla disinformazione prodotta dall’AI
Alla luce di questi dati, il ruolo dell’utente diventa centrale. Non si può delegare completamente la verifica dei fatti a strumenti automatici: servire adottare un approccio critico e consapevole. Il primo consiglio è quello di risalire sempre alle fonti originali. Se un chatbot riporta una citazione, una statistica o una dichiarazione, è buona prassi controllare chi l’ha pronunciata, in quale contesto e se la formulazione riportata sia fedele. Molto spesso una frase estrapolata dal contesto può assumere un significato diverso da quello voluto. In questo senso, così come avviene in ambiti digitali diversi come spikeslot, anche nell’informazione è fondamentale riconoscere ciò che è autentico rispetto a ciò che è manipolato. Verificare direttamente su testate riconosciute o documenti ufficiali resta la strategia più sicura.
Un secondo passo fondamentale è evitare la condivisione indiscriminata. Le fake news prosperano grazie alla diffusione virale: ogni utente che rilancia un contenuto dubbio contribuisce a rafforzarne la visibilità. Per questo, se una notizia suscita incertezza, meglio sospendere la condivisione fino a quando non si sia certi della sua veridicità. In questo modo si interrompe la catena della disinformazione. Infine, è importante sviluppare nel tempo una sorta di “alfabetizzazione digitale” che consente di distinguere rapidamente tra fonti affidabili e sospette. Nonostante i progressi dell’intelligenza artificiale, la difesa più efficace resta la consapevolezza critica delle persone.
Continua a leggere le notizie di 1000 Cuori Rossoblu e segui la nostra pagina Facebook
Contenuti sponsorizzati
