Acasă Externe Modelele lingvistice mari, noul câmp de luptă al războiului informațional rusesc

Modelele lingvistice mari, noul câmp de luptă al războiului informațional rusesc

IA, păcălită prin injectarea de informații false

Inteligenta artificiala

 176811 – 29102025 – În era digitală, campaniile de dezinformare au evoluat dincolo de rețelele de socializare și știrile false, devenind o formă completă de război informațional – un domeniu în care Rusia excelează.

Campaniile Kremlinului de manipulare a informațiilor și de ingerințe din exterior (FIMI) au rămas, în mare parte, la fel de la Războiul Rece încoace. Dar apariția internetului și a altor tehnologii de comunicare au sporit flexibilitatea și impactul acestor operațiuni, cu mai puține resurse. La fel cum Web 2.0 a remodelat războiul informațional în urmă cu aproximativ două decenii, ascensiunea inteligenței artificiale (IA) a transformat strategia Kremlinului. În loc să se limiteze la promovarea unor narațiuni personalizate către cititori, Moscova vizează acum și mașinile, o strategie cu atât mai importantă cu cât mulți utilizatori înlocuiesc acum căutările pe Google cu instrumente IA, cum ar fi ChatGPT.

În loc să vizeze publicul direct prin intermediul mijloacelor de comunicare socială, mașinăria de dezinformare a Rusiei și-a schimbat strategia, inundând internetul cu milioane de articole și conținuturi înșelătoare de calitate scăzută, concepute astfel încât instrumentele și aplicațiile bazate de IA să poată extrage informații din acestea. Kremlinul recurge la ceea ce experții numesc „LLM grooming”: antrenarea modelelor lingvistice mari (LLM) pentru a reproduce narațiuni manipulatoare și dezinformare.

Cum funcționează „LLM grooming”?

„LLM grooming” este o manipulare deliberată a modelelor lingvistice mari, care vizează nu doar răspândirea dezinformării, ci și contaminarea infrastructurii IA într-un sens mai larg, injectând dezinformare în răspunsurile generate de roboții de chat bazați pe IA, cum ar fi ChatGPT, de exemplu în legătură cu războiul purtat de Rusia în Ucraina.

În februarie 2024, agenția guvernamentală franceză Viginum – responsabilă de analiza ingerințelor digitale externe și de protecția Franței împotriva acestora – a publicat un raport care expune așa-numita operațiune „Portal Kombat”, cunoscută și sub numele de „Rețeaua Pravda”. Această rețea rusă de dezinformare constă din site-uri web în diverse limbi care produc conținut de calitate scăzută, reambalând afirmații false și înșelătoare provenite de la mass-media de stat din Rusia, influenceri pro-Kremlin și din alte surse de dezinformare. Regiunile vizate de această rețea includ Ucraina, Statele Unite ale Americii, Franța, Germania, Polonia, Regatul Unit și alte țări europene, precum și unele țări africane. Volumul mare de conținut produs garantează că modelele IA iau în considerare aceste narațiuni de dezinformare rusești în timp ce generează propriile răspunsuri. Cu alte cuvinte, Kremlinul intervine activ în spațiul informațional pentru a influența răspunsurile pe care le primiți de la asistentul IA ales.

De exemplu, un raport al NewsGuard Reality Check, un sistem de evaluare a site-urilor de știri și de informații, a constatat că rețeaua Pravda a susținut în mod fals că președintele Zelenski a interzis platforma Truth Social a lui Donald Trump. Șase din zece roboți de chat testați au repetat afirmația, citând rețeaua Pravda. Ponderea informațiilor false și înșelătoare la principalii 10 roboți de chat aproape s-a dublat în decurs de un an, crescând de la 18% în 2024 la 35% în 2025. Narațiunile FIMI din aceste modele au fost asociate și cu „Storm-1516”, o altă campanie de dezinformare pro-Kremlin și un produs derivat al fostei Agenții de Cercetare a Internetului, o organizație din Rusia cunoscută pentru orchestrarea operațiunilor de influență online pe scară largă, inclusiv ingerința în alegerile din 2016 din SUA. Legătura a fost identificată în toamna anului 2023 de o echipă de cercetători criminaliști în domeniul mass-media de la Universitatea Clemson.

Strădania Kremlinului de a polua ecosistemul informațional

Eforturile Rusiei de a injecta dezinformare într-un ecosistem informațional bazat pe IA, care se dezvoltă rapid, reprezintă o amenințare majoră la adresa securității globale, deoarece poate distorsiona opinia publică, eroda încrederea în integritatea informațiilor digitale și răspândi narațiuni aparent legitime la o scară fără precedent. Un raport realizat de Halyna Padalko pentru Digital Policy Hub at the Centre for International Governance Innovation (Platforma de Politici Digitale pentru Centrul de Inovare în Guvernanță Internațională) constată că Rusia a depășit metodele tradiționale de propagandă, trecând la exploatarea LLM. Prin LLM grooming, Moscova normalizează informațiile false pentru a părea că sunt informații bazate pe fapte. Chiar și platformele relativ de încredere, cum ar fi Wikipedia, au amplificat dezinformarea Kremlinului citând surse din rețeaua Pravda.

Pe măsură ce roboții de chat bazați pe IA joacă roluri mai importante în verificarea faptelor și căutarea de informații, aceste eforturi de a polua ecosistemul informațional reprezintă o provocare serioasă. Datorită automatizării și amplorii lor, aceste campanii sunt mai greu de detectat și de contracarat, subminând reziliența democratică. În 2017, cu mult înainte de ChatGPT, Putin a spus că liderul în domeniul IA „va conduce lumea”. Nu vă lăsați înșelați: după șapte ani, încercarea Rusiei de a cuceri acest statut se bazează în mare parte pe modele americane și chinezești. Din câte se pare, construirea unui imperiu vine acum la pachet cu software importat.