De aproape doi ani, Observatorul Prahovean derulează o campanie prin care avertizează autoritățile și opinia publică privind metodele folosite de Rusia în războiul hibrid împotriva României. Dovezile publicate de jurnalistul Mihai Nicolae se regăsesc în raportul prezentat de președintele Nicușor Dan liderilor europeni.
Președintele Nicușor Dan a transmis liderilor europeni o analiză privind războiul hibrid derulat de Federația Rusă împotriva României.
Acest război s-a accentuat începând din 2022, când Rusia a folosit atacuri cibernetice, acțiuni secrete destabilizatoare, subversiune politică, dezinformare și propagandă.
Asupra ultimului aspect s-a concentrat și campania inițiată de jurnalistul Mihai Nicolae și derulată de Observatorul Prahovean intitulată Reclame fake- public awareness.
Astfel, în ultimii doi ani am publicat zeci de articole și emisiuni cu dovezi clare ale războiului hibrid rusesc din România prin intermediul reclamelor contextuale.
Multe dintre informațiile prezentate de noi se regăsesc în raportul oficial care poate fi accesat aici: documentul prezentat de Nicusor Dan liderilor europeni
Înainte de a parcurge pasajul din acest document vă invităm să lecturați analiza efectuată de jurnalistul Observatorul Prahovean, Mihai Nicolae, care a fost prezentată la mai multe întâlniri oficiale cu reprezentanți ai statului român pe acest subiect: Ce sunt reclamele contextuale
Iată câteva exemple de dezinformare și propagandă
Ciclul campaniei de dezinformare identificat pe spațiul românesc
1. Localizarea și adaptarea narativelor la contexte naționale cu impact pentru populație
Pe parcursul investigațiilor au fost identificate companii cu legături certe în Federația Rusă, care atât anterior, cât și în perioada premergătoare scrutinelor electorale din 2024 au derulat activități informaționale, prin dezvoltarea și susținerea unor sisteme informatice complexe – Site-uri create pentru distribuirea de conținut malițios, pagini de social media care prezintă Comportament Neautentic Coordonat și utilizează inteligența artificială (AI), reclame de tip native ads, rețea de influenceri – care au targetat în mod coordonat populația României.
În concret, în cadrul acestui ecosistem a fost identificată o rețea amplă de siteuri al căror trafic este determinat de reclame promovate de 4 companii, cu legături certe în Federația Rusă – ADSKEEPER, MGID, ADNOW și GEOZO.
Aceste conexiuni sunt relevate de multiple elemente:
– Locațiile unde figurează uneori sediile internationale ale acestor companii, se află în clădiri unde nu sunt afișate simboluri sau elemente de vizibilitate aferente companiilor (de ex, într-un centru comercial), existând suspiciunea ca aceste sedii sunt fictive.
– Analizând istoricul acestor companii, a rezultat că figurează ca fiind înființate în Fed Rusă, uneori cu finanțare din partea unor holdinguri de investiții rusești.
– Marca companiilor este înregistrată de către alte firme cu sediul în jurisdicții off-shore, firme care sunt administrate însă de alte companii din Fed. Rusă.
– Nu în ultimul rând, în conducerea și personalul unora dintre cele 4 companii au fost identificate persoane comune, aspect ce evidențiază legătura din acestea si o posibilă coordonare comună.
În perioada premergătoare scrutinelor electorale, spațiul informațional al României a fost modelat în vederea influențării percepțiilor colective prin diseminarea mesajelor țintite unor audiențe susceptibile la manipulare. În acest scop, au fost realizate activități de sondare prin intermediul unor campanii sofisticate de microtargetare a populației care au vizat identificarea segmentelor vulnerabile și gradul de receptivitate al acestora.
Referitor la compania MGID, încă de la nivelul anului 2019 , aceasta a realizat mai multe sondaje cu privire la preferințele de conținut în mediul online ale utilizatorilor din România, inclusiv personalizate în funcție de regiune, identificand tipul de conținut care, plasat in reclame, putea crește numarul de accesari.
În urma procesului de targetare, au fost identificate 4 tipuri de narative la care segmente largi din populație se dovedeau receptive și care, așa cum vom arăta, vor fi folosite începând cu anul 2022, de infrastructura online implicată în atacurile hibride, în scopul segmentării populației românești și creării unor curente de opinie ulterior exploatabile în momente-cheie, cum au fost alegerile prezidențiale din toamna anului 2024.
– Identitar-nostalgic
– Conspiraționist
– Religie/spiritualitate
– Medicină alternativă
Un prim narativ utilizat în procesul de dezinformare a fost cel identitarnostalgic, prin care au fost promovate narative cu puternic impact emoțional, legate de reîntregirea familiei; nostalgie după perioada comunistă; retorici privind inegalități sociale.
Un alt segment al paginilor în cauză abordează știri cu caracter general, de actualitate la nivel național, astfel de acțiuni fiind specifice tehnicilor informaționale ale Federației Ruse (specularea informațiilor de interes în spațiul public pentru creșterea nivelului de interacțiune).
– anunțuri false ce vizează erodarea sprijinului acordat Ucrainei – instituirea unei taxe pentru sprijinirea Ucrainei, creșterea bugetelor militare, trimiterea trupelor românești combatante în Ucraina
– anunțarea unor măsuri guvernamentale false, menite să scadă încrederea populației în instituții – „restricții de deplasare” la care ar fi supuși bărbații cu vârste între 18 și 65 de ani, mobilizări secrete ale rezerviștilor, coloane militare care se îndreaptă către graniță etc.
– în urma activitatilor de monitorizare a spatiului informational a fost identificata si o campanie de inundare a mediului online cu narative conform carora demnitari de rang inalt sau rude ale acestora au decedat, dar și cu narative privind producerea unor dezastre naturale. Articolele provin de pe site-urile frost24.com, scholarsden.info, dreamsreading.com, sportspro.com.ng, xtrasport.com.ng, mbcfworld.com și au fost distribuite la nivelul platformei Facebook, in cadrul unor grupuri aferente comunitatilor locale, de catre utilizatori care prezinta un anumit tipar, respectiv cetateni straini de origine africana sau utilizatori anonimi.
La nivelul site-ului scholarsden.info a fost identificat același tipar de diseminare al narativului si in legatura cu președintii Republicii Cehe, Slovaciei și Sloveniei.
2. Adaptarea infrastructurii și plantarea narativelor (metoda Doppelgänger)
Metoda Doppelgänger este o tactică de tip FIMI operaționalizată de Federația Rusă după invazia Ucrainei în anul 2022.
Metoda de dezinformare de tip doppelganger” este o tactică folosită în campanii de dezinformare în mediul online, pentru a crea și distribui informații false sau manipulate astfel încât să pară provenite din surse credibile.
Această metodă operează după următorul tipar:
1. Crearea de „clone” ale surselor legitime
– Sunt clonate site-uri sau conturi de social media ale unor instituții publice sau agenții mass-media de renume, dar cu mici diferențe de nume sau aspect (de ex., un site cu domeniu .com în loc de .org).
– Aceste clone imită vizual și stilistic sursa originală pentru a părea autentice.
2. Publicarea de conținut fals sau manipulat
– Pe aceste clone sunt postate articole, știri sau postări care par reale, dar conțin informații denaturate, exagerate sau complet fabricate.
– Adesea, sunt vizate subiecte sensibile: politică, sănătate, război, crize economice etc.
3. Distribuirea în masă prin rețele sociale
– Conținutul este apoi distribuit masiv prin conturi false sau automate (prin rețele de bots), grupuri de discuții și forumuri.
– Se urmărește crearea unei impresii de consens sau urgență
4. Confuzie și erodarea încrederii
– Scopul nu este doar ca oamenii să creadă o minciună, ci să nu mai știe în cine să aibă încredere.
– Dacă publicul devine confuz și sceptic față de toate sursele, inclusiv cele reale, atacul și-a atins scopul.
La nivelul României a fost identificată o rețea amplă de site-uri de tip Doppelganger care imitau imaginea site-urilor oficiale ale unor institutii publice si de presă mainstream pentru a induce în eroare populatia, prin intermediul cărora erau promovate initial materiale ce se încadrau în cele 4 tipuri mari de narative identificate ca având o receptivitate ridicată în rândul populației din România.
Întreaga infrastructura era susținuta prin intermediul a peste 2000 de pagini de Facebook care distribuiau elemente de conținut generat de inteligența artificială, scopul acestora fiind de microtargetare a audiențelor vulnerabile și expunerea acestora la narative malițioase.
Aceste pagini de Facebook redirecționau traficul către site-uri autohtone de tip click-bait, ce postau un tip de conținut online, adesea bazat pe titluri senzationale sau înșelătoare, care are scopul de a genera cât mai multe click-uri și, implicit, trafic pe un site web. Titlurile sunt menite să atragă atenția prin apelul la emoții – curiozitate, indignare, surprindere.
Pentru promovarea acestora erau utilizate reclame platite în cadrul principalelor platforme online, prin intermediul tehnologiei native ads furnizată de cele 4 companii semnalate cu legături în Federația Rusă. Plata reclamelor era realizata prin intermediul unor pagini/conturi de socializare fictive.
În fine, prin accesarea știrilor de pe aceste site-uri utilizatorul era redirecționat
către site-uri de tip Doppelgänger (site-uri clonă), unde regăseau respectica știre și
altele asemănătoare, care prezentau credibilitate sporită, întrucât păreau să provină
de pe un site oficial.
Astfel, la nivelul Facebook a fost identificat un ecosystem de peste 2000 de pagini cu denumiri suggestive, menite să atragă curiozitatea: „Mango Musica Romania”, „ATHOS”; „Amintiri Frumoase”, „Acasă”, „Frumusețile Romaniei”, „Mormântul părintelui Arsenie Boca”, „Simpaticul”, „Miruna.gătește”, „Pagina iubitorilor de Dumnezeu-Tu, il iubesti?”, „Un singur Dumnezeu și Dumnezeu e bun”, „Osanu Ro”, etc.,
Acestea redirecționau traficul către site-uri cu domenii înregistrate pe servere din România sau internaționale, precum: „stiri.ro”, „secretele.com”; „stirilezilei.biz”; „dr-n.ro”; „priveste.info”; „sinaxar.eu”; „bucatidefericire.com”’; „bwm.ro”; „stirionline.xyz”;
„usd24.ro”; „mgnews.ro” și „romaniaculturala.eu”.
Prezintă interes faptul că majoritatea paginilor de Facebook menționate au fost create în perioada 2023-2024, având alte denumiri și abordând tematici din spectrul rețetelor, medicinei alternative, religios, au dobândit un nivel de interacțiune și vizibilitate foarte ridicat, iar ulterior au fost activate în contextul premergător scrutinului electoral din 2024, pentru a redirectiona utilizatorii catre site-uri de tip doppelganger cu teme politice de promovare a candidatului independent.
Ca exemplu, în cadrul ecosistemului ce distribuie, în mod coordonat, elemente de conținut create cu inteligența artificială (AI) prin care sunt promovate narative cu impact emoțional puternic, a fost identificat site-ul cezicelumea.ro.
Tehnologia native ads utilizată la nivelul acestui site a fost furnizată de una dintre cele 4 companii semnalate cu legături în Federația Rusă. Ulterior accesării site-ului menționat, utilizatorii sunt redirecționați către alte site-uri malițioase, care promovează conținut similar.
Acestea, la rândul lor, redirecționează utilizatorii pe pagini clonă ale unor trusturi de știri autohtone sau instituții publice (Digi24, Adevărul, Libertatea, Ministerul Sănătății etc.)
Un alt exemplu elocvent este site-ul romaniaculturala.eu, care face trimitere prin accesarea reclamelor malițioase la outlet-ul ro-newsn.com. Acesta, la rândul său, redirecționează utilizatorii pe pagini clonă ale unor trust-uri de știri autohtone sau instituții publice.
Anterior, site-ul ro-newsn.com a fost descoperit și în alt ecosistem cu aceleași caracteristici tehnice, interfața site-ului fiind identică la toate celelalte. În cadrul ecosistemului se regăsesc și site-uri în limba poloneză și cehă, un aspect relevant fiind reprezentat de alegerile din Polonia și Republica Cehă din acest an (eunewsnew.com, uzgazetanew.com, runewnews.com, pl-aenews.com, kznewnews.com, sknewsnew.com, pl-nnews.com, ronewsnew.com).
În cadrul aceleiași infrastructuri au fost identificate site-uri de tip doppelganger
promovate pe o rețea de pagini de Facebook, cu domenii din Federația Rusă.
Pentru a se înțelege amploarea fenomenului, poate fi luat ca exemplu cazul Ministerului Afacerilor Interne care a anunțat că au fost eliminate peste 160 de conturi de TikTok care utilizau ilegal însemne, denumiri sau elemente grafice asociate Poliţiei Române ori altor structuri ale ministerului. O parte dintre aceste conturi se prezentau în mod fals drept «conturi oficiale», menționând acest statut în secțiunea de descriere (bio), ceea ce a condus la inducerea în eroare a utilizatorilor platformei de socializare.
Rezultatele urmărite prin dezinformarea de tip Doppleganger:
• Întreținerea unei stări constante de teamă, angoasă, confuzie în
rândul opiniei publice
• Generarea unui sentiment de neîncredere în autoritățile statului
• Fragmentarea și polarizarea societății
3. Amplificarea mesajelor pe momentele-cheie alese de actorul statal
Se impun a fi subliniate câteva puncte cheie. Majoritatea paginilor au fost create în perioada 2022-2024, având alte denumiri și abordând tematici diferite din spectrul rețetelor, medicinei alternative, religios, conform celor 4 tipuri mari de narative în care a fost încadrat publicul românesc.
În contextul premergător scrutinului electoral din 2024, această infrastructură a fost activată și se remarcă o schimbare a tematicii cu narative de susținere a candidatului independent Călin Georgescu.
Conex, activitățile de microtargetare au vizat și postarea de materiale video în cadrul rețelelor de socializare (TikTok, Facebook, YouTube), cu scopul de a testa și verifica predispoziția publicului la diferite variații ale temelor legate de candidatul independent.