Un nuovo studio dell’Istituto per il dialogo strategico (ISD) rivela una tendenza preoccupante: i chatbot con intelligenza artificiale incorporano spesso la propaganda russa nelle loro risposte sulla guerra in Ucraina. La ricerca, che ha analizzato le risposte di importanti piattaforme di intelligenza artificiale come ChatGPT di OpenAI, Gemini di Google, Grok di xAI e V3.2 di Deepseek, evidenzia come questi sistemi siano suscettibili di rispecchiare un linguaggio distorto e di fare affidamento su fonti russe, in particolare quando si affrontano argomenti specifici.
Metodologia e risultati principali
I ricercatori dell’ISD hanno posto oltre 300 domande in cinque lingue sul conflitto in Ucraina. Queste domande sono state realizzate intenzionalmente con un linguaggio parziale, dannoso o neutro per valutare come ogni chatbot avrebbe risposto e da quali fonti avrebbe attinto. Lo studio ha rilevato che le fonti russe sono apparse molto più spesso nelle risposte a richieste distorte e dannose, sollevando preoccupazioni sulla possibilità che queste piattaforme amplificassero inavvertitamente la disinformazione.
Osservazioni specifiche della piattaforma
Ogni chatbot AI ha mostrato comportamenti distinti nel rispondere alle domande sull’Ucraina:
- ChatGPT: Ha dimostrato una forte tendenza a fornire fonti russe quando vengono presentati suggerimenti parziali o dannosi, offrendo tre volte più collegamenti russi rispetto alle domande neutre.
- Grok: Era più propenso a citare fonti russe anche in domande neutre. Uno schema degno di nota è stata la citazione diretta di Grok dei giornalisti di Russia Today, confondendo il confine tra propaganda sostenuta dallo stato e opinione personale. I ricercatori hanno anche notato che Grok potrebbe non rilevare e limitare in modo efficace i contenuti dei media statali russi sanzionati, anche se ripubblicati da terze parti.
- Deepseek: ha fornito il maggior volume di collegamenti a fonti sostenute dalla Russia in due query, indirizzando gli utenti a piattaforme come VT Foreign Policy, che diffonde contenuti di noti gruppi di propaganda russi.
- Gemelli: ha mostrato il comportamento più perspicace, rifiutandosi di rispondere ad alcune richieste dannose citando preoccupazioni su argomenti potenzialmente inappropriati o non sicuri. Pur riconoscendo i rischi associati a suggerimenti distorti, a volte non ha rivelato le fonti utilizzate per formulare le sue risposte.
Il ruolo dei “vuoti di dati” e dei bias di conferma
Lo studio ha individuato un fattore chiave che contribuisce a questo fenomeno: la presenza di “vuoti di dati”. Si tratta di termini o argomenti di ricerca privi di una notevole quantità di informazioni affidabili e di alta qualità. In questi casi, i chatbot sembrano più propensi a fare affidamento su fonti disponibili, anche se provengono da fonti potenzialmente parziali o propagandistiche.
I ricercatori hanno sottolineato che i risultati confermano la presenza di “bias di conferma” nei sistemi di intelligenza artificiale. Ciò significa che i chatbot tendono a imitare il linguaggio utilizzato nei prompt, influenzando sia il modo in cui esprimono le loro risposte sia le fonti a cui danno la priorità.
Argomenti preoccupanti
La prevalenza delle fonti russe variava in base all’argomento indagato:
- Reclutamento militare: fonti statali russe sono state citate più frequentemente quando le domande riguardavano gli sforzi di reclutamento militare dell’Ucraina. Grok ha citato almeno una fonte russa nel 40% delle sue risposte, seguito da ChatGPT con oltre il 28%.
- Crimini di guerra e rifugiati ucraini: questi argomenti hanno prodotto il minor numero di fonti appoggiate dalla Russia su tutti e quattro i chatbot.
Conclusione
I risultati dello studio sottolineano l’urgente necessità di una maggiore vigilanza riguardo al potenziale dei chatbot con intelligenza artificiale di diffondere la propaganda russa. Sebbene alcune piattaforme come Gemini abbiano dimostrato la capacità di riconoscere e rifiutare richieste dannose, la tendenza generale evidenzia la necessità di una migliore verifica della fonte, aggiustamenti algoritmici per mitigare i bias di conferma e sforzi per riempire le lacune nei dati con informazioni affidabili e imparziali. Affrontare queste sfide è fondamentale per garantire che i chatbot basati sull’intelligenza artificiale fungano da fonti di informazioni affidabili e non contribuiscano inavvertitamente alla diffusione della disinformazione



















![[колонка мариобоя] серія «історія nintendo». Книга № 4: 1989-1999 game boy](https://itci.kiev.ua/wp-content/uploads/2021/12/1-93-100x70.png)










