Descoperirea rețelei „fox8” – primul semn de alarmă
La mijlocul anului 2023, în perioada în care Elon Musk schimba numele Twitter în X, dar înainte ca acesta să elimine accesul academic gratuit la datele platformei, o echipă de cercetători a descoperit semne ale unor conturi de boți sociali care postau conținut generat de inteligență artificială. Boții sociali sunt programe software AI care produc conținut și interacționează cu oamenii pe rețelele sociale. Investigația a dezvăluit o rețea de peste o mie de boți implicați în escrocherii cu criptomonede, denumită „fox8” după unul dintre site-urile false de știri pe care aceștia erau programați să-l amplifice.
Identificarea acestor conturi a fost posibilă datorită unei erori a programatorilor: aceștia nu au reușit să filtreze postările care dezvăluiau natura lor artificială, scripturi generate de ChatGPT. Cel mai frecvent răspuns care trăda originea AI era: „Îmi pare rău, dar nu pot să îndeplinesc această cerere deoarece încalcă Politica de Conținut a OpenAI privind generarea de conținut dăunător sau inadecvat. Ca model de limbaj AI, răspunsurile mele ar trebui să fie întotdeauna respectuoase și adecvate pentru toți utilizatorii”.
Experții consideră că fox8 a fost doar vârful aisbergului, deoarece programatorii mai pricepuți pot filtra postările care dezvăluie natura AI sau pot utiliza modele AI open-source modificate pentru a elimina barierele etice.
Complexitatea fără precedent a noii generații de boți
Boții fox8 au creat serii de interacțiuni false între ei și cu conturi umane reale, prin comentarii realiste și redistribuiri. În acest mod, au păcălit algoritmul rețelei X, amplificând expunerea postărilor lor și au acumulat un număr semnificativ de urmăritori și influență.
Un astfel de nivel de coordonare între agenți online neautentici a fost fără precedent – modelele AI fuseseră transformate în arme pentru a da naștere unei noi generații de agenți sociali, mult mai sofisticați decât boții sociali anteriori. Instrumentele de învățare automată pentru detectarea boților sociali, precum Botometer, nu au reușit să facă distincția între acești agenți AI și conturile umane reale. Chiar și modelele AI antrenate pentru a detecta conținut generat de AI au eșuat.
Epoca actuală: oportunitate perfectă pentru manipulare
În prezent, situația s-a agravat considerabil. Persoanele și organizațiile rău-intenționate au acces la modele de limbaj AI mai puternice – inclusiv open-source – în timp ce platformele de social media și-au relaxat sau chiar au eliminat politicile de moderare. Mai mult, acestea oferă chiar stimulente financiare pentru conținut captivant, indiferent dacă este real sau generat de AI.
Aceasta reprezintă oportunitatea perfectă pentru operațiuni de influență străine și interne care vizează alegerile democratice. De exemplu, un roi de boți controlați de AI ar putea crea impresia falsă a unei opoziții răspândite, multipartinice, față de un candidat politic.
În SUA, situația este agravată de faptul că administrația actuală a desființat programele federale care combăteau astfel de campanii ostile și a retras finanțarea proiectelor de cercetare care le analizau. Cercetătorii nu mai au acces la datele platformelor care ar face posibilă detectarea și monitorizarea acestor tipuri de manipulare online.
Cum funcționează roiurile malițioase de AI
Tehnologia AI actuală permite organizațiilor rău-intenționate să implementeze un număr mare de agenți autonomi, adaptabili și coordonați pe multiple platforme de social media. Acești agenți permit operațiuni de influență care sunt mult mai scalabile, sofisticate și adaptive decât campaniile simple de dezinformare din trecut.
Caracteristicile cheie ale roiurilor AI malițioase:
- conținut variat și credibil: agenții AI pot genera conținut variat și credibil la scară largă, evitând generarea de postări identice sau spam evident,
- personalizare: roiurile AI pot trimite oamenilor mesaje adaptate preferințelor lor individuale și contextului conversațiilor lor online,
- adaptabilitate dinamică: agenții AI pot ajusta tonul, stilul și conținutul pentru a răspunde dinamic interacțiunii umane și semnalelor platformei, cum ar fi numărul de aprecieri sau de vizualizări.
Consensul artificial – cea mai periculoasă tactică
Într-un studiu realizat în 2024, cercetătorii au folosit un model de social media pentru a simula roiuri de conturi neautentice folosind diferite tactici pentru a influența o comunitate online țintă. O tactică s-a dovedit a fi de departe cea mai eficientă: infiltrarea.
Odată ce un grup online este infiltrat, roiurile malițioase de AI pot crea iluzia unui acord public larg în jurul narațiunilor pe care sunt programate să le promoveze. Aceasta exploatează un fenomen psihologic cunoscut sub numele de „justificare socială”: oamenii sunt înclinați în mod natural să creadă ceva dacă percep că „toată lumea spune asta”.

Cum funcționează consensul artificial
Astfel de tactici de astroturfing pe rețelele sociale există de mulți ani, dar acum roiurile malițioase de AI pot crea în mod eficient interacțiuni credibile cu utilizatori umani țintă la scară largă și pot determina acești utilizatori să urmărească conturi neautentice. De exemplu, agenții AI:
- pot discuta despre cel mai recent meci cu un fan al unui anumit sport,
- pot discuta despre evenimentele actuale cu un pasionat de știri,
- pot genera un limbaj care rezonează cu interesele și opiniile țintelor lor.
Chiar dacă afirmațiile individuale sunt dezmințite, corul persistent de voci care par independente poate face ca ideile radicale să pară majoritare și poate amplifica sentimentele negative față de „ceilalți”.
Amenințarea pentru democrație
Consensul artificial fabricat reprezintă o amenințare foarte reală pentru sfera publică și mecanismele pe care societățile democratice le folosesc pentru a forma credințe comune, a lua decizii și a genera încredere în discursul public. Dacă cetățenii nu pot face distincția între opinia publică reală și simularea algoritmică a unanimității, procesul decizional democratic poate fi grav compromis.
Soluții pentru atenuarea riscurilor
Din păcate, nu există o soluție unică. Experții propun mai multe măsuri complementare:
- Reglementare și acces la date
Reglementarea care acordă cercetătorilor acces la datele platformelor ar fi un prim pas esențial. Înțelegerea modului în care roiurile se comportă colectiv ar fi esențială pentru a anticipa riscurile. - Detectarea comportamentului coordonat
Detectarea comportamentului coordonat este o provocare cheie. Spre deosebire de boții simpli care copiază și lipesc conținut, roiurile malițioase produc rezultate variate care seamănă cu interacțiunea umană normală, făcând detectarea mult mai dificilă. Cercetătorii dezvoltă metode pentru a detecta modele de comportament coordonat care deviază de la interacțiunea umană normală. Chiar dacă agenții arată diferit unii de alții, obiectivele lor subiacente dezvăluie adesea modele care sunt puțin probabil să apară în mod natural în timing, mișcare în rețea și traiectorie narativă. - Filigrane și etichetare
Platformele AI și de social media ar trebui să adopte standarde mai agresive privind aplicarea de filigrane (watermarks) conținutului generat de AI și pentru recunoașterea și etichetarea unui astfel de conținut. - Restricționarea monetizării
Restricționarea monetizării interacțiunilor neautentice ar reduce stimulentele financiare pentru operațiunile de influențare cu rea-credință și de utilizare a consensului artificial.
Amenințarea este reală
Deși aceste măsuri ar putea atenua riscurile sistemice ale roiurilor malițioase de AI înainte ca acestea să devină înrădăcinate în sistemele politice și sociale din întreaga lume, peisajul politic actual din SUA pare să se îndrepte în direcția opusă. Administrația Trump a urmărit reducerea reglementării AI și a rețelelor sociale, favorizând în schimb implementarea rapidă a modelelor AI în detrimentul siguranței.
Amenințarea roiurilor malițioase de AI nu mai este doar pur teoretică, dovezile sugerează că aceste tactici sunt deja implementate. Factorii de decizie politică și specialiștii în tehnologie ar trebui să urmărească creșterea costului, riscului și vizibilității unor astfel de manipulări, pentru a proteja integritatea democrației și a discursului public.
Articol bazat pe cercetări și analize ale experților în securitate cibernetică, AI și științe sociale, care avertizează asupra pericolelor pe care le reprezintă tehnologiile AI avansate pentru procesele democratice și formarea opiniei publice
Surse:
Emilio Ferrara, Onur Varol, Clayton Davis, Filippo Menczer, Alessandro Flammini, The rise of social bots, Communications of the ACM, 59 (7), 2016, pag. 96–104, DOI:10.1145/2818717
Kai-Cheng Yang, Filippo Menczer, Anatomy of an AI-powered malicious social botnet, Journal of Quantitative Description: Digital Media, 4, 2024, DOI:10.51685/jqd.2024.icwsm.7
Daniel Thilo Schroeder et al.,How malicious AI swarms can threaten democracy, Science, 391, 2026, pag. 354-357, DOI:10.1126/science.adz1697
Filippo Menczer, David Crandall, Yong-Yeol Ahn, Apu Kapadia, Addressing the harms of AI-generated inauthentic content, Nature Machine Intelligence, 5, 2023, pag. 679–680, DOI:10.1038/s42256-023-00690-w
Filippo Menczer, Swarms of AI bots can sway people’s beliefs – threatening democracy, The Conversation, 12.02.2026
Foto: Filippo Menczer, Kai-Cheng Yang, The Conversation, CC BY-NC-ND