Un recente rapporto di NewsGuard ha rivelato che una rete di disinformazione russa, denominata “Pravda”, ha immesso oltre 3,6 milioni di articoli di propaganda pro-Cremlino nei principali sistemi di intelligenza artificiale (IA). Questo stratagemma mira a influenzare le risposte dei chatbot utilizzati da milioni di utenti in tutto il mondo, sollevando preoccupazioni significative nel campo della sicurezza informatica.
La Strategia di Infiltrazione
La rete Pravda, attiva dall’aprile 2022, gestisce circa 150 siti web che diffondono contenuti pro-Russia in 49 paesi e in diverse lingue. Questi siti fungono da aggregatori, ripubblicando materiali provenienti da media statali russi e altre fonti filogovernative. L’obiettivo è saturare il web con informazioni distorte, influenzando i modelli di linguaggio su larga scala (LLM) che alimentano i chatbot.
L’Impatto sui Chatbot
NewsGuard ha condotto un audit su dieci dei principali chatbot, tra cui ChatGPT-4.0 di OpenAI, Copilot di Microsoft e Gemini di Google. L’analisi ha rilevato che questi sistemi hanno ripetuto false narrazioni provenienti dalla rete Pravda nel 33% dei casi esaminati. Le affermazioni errate includevano, ad esempio, la presunta esistenza di laboratori segreti di armi biologiche statunitensi in Ucraina e l’accusa infondata che il presidente ucraino Zelensky avesse abusato degli aiuti militari americani per arricchirsi personalmente.
Le Implicazioni per la Sicurezza Informatica
Questa infiltrazione rappresenta una nuova frontiera nella guerra dell’informazione, dove attori statali utilizzano l’IA per amplificare la disinformazione. La capacità dei chatbot di fornire informazioni accurate viene compromessa, aumentando il rischio che gli utenti siano esposti a contenuti manipolati. Per i professionisti della sicurezza informatica, ciò evidenzia la necessità di sviluppare contromisure efficaci per rilevare e mitigare la diffusione di disinformazione attraverso sistemi di IA.
Conclusione
L’infiltrazione dei chatbot da parte della propaganda russa sottolinea l’urgenza di affrontare le vulnerabilità nei sistemi di intelligenza artificiale. È fondamentale che sviluppatori e aziende tecnologiche implementino misure di sicurezza più robuste per proteggere gli utenti dalla disinformazione e preservare l’integrità delle informazioni fornite dai chatbot.