Ukrainai kovojant dėl Pokrovsko, prorusiškos paskyros kariauja dirbtinio intelekto karą

Ukrainai kovojant dėl Pokrovsko, prorusiškos paskyros kariauja dirbtinio intelekto karą

2025-11-26 19:21
BNS inf.

Kovos dėl Pokrovsko kontrolės Ukrainos rytuose tebevyksta, tačiau prorusiškų socialinių tinklų sluoksniuose Maskva jau laimėjo: plačiai paplitusiuose dirbtinio intelekto (DI) sukurtuose vaizdo įrašuose vaizduojama besitraukianti Ukrainos kariuomenė su netikrais ašarojančiais kariais.

Ukrainai kovojant dėl Pokrovsko, prorusiškos paskyros kariauja dirbtinio intelekto karą
Ukrainai kovojant dėl Pokrovsko, prorusiškos paskyros kariauja dirbtinio intelekto karą / AFP nuotr.

Rusija jau daugiau nei metus bando užimti logistiškai svarbų miestą rytinėje Donecko srityje, o pastarosiomis savaitėmis suintensyvino puolimą ir, remiantis Karo tyrimų instituto paskelbtais mūšio lauko žemėlapiais, priartėjo prie jo pakraščių.

Nors mūšis tęsiasi, daugybė paplitusių įrašų socialiniuose tinkluose pasakoja kitokią istoriją: lapkritį internete išplito dešimtys DI sukurtų vaizdo įrašų, surinkę milijonus peržiūrų, kuriuose ukrainiečių kariai atiduoda ginklus arba raudoja vykdami į frontą.

Suklastoti vaizdo įrašai yra „platesnio naratyvo, kurį matome nuo invazijos pradžios, dalis – kad (Ukrainos prezidentas Volodymyras) Zelenskis siunčia jaunus ir pagyvenusius žmones į fronto liniją prieš jų valią, nes jiems gyvenime nesiseka“, teigė Londone įsikūrusio analitinio centro „Institute for Strategic Dialogue“ (ISD) analitikas Pablo Maristany de las Casasas (Pablas Maristanis de las Kasasas).

„Visada yra įvykis, kuriuo remiantis galima sukurti klaidingą informaciją“, – pridūrė Prancūzijos Marselio universiteto mokslininkė Carole Grimaud (Karol Grimo).

Ji sakė naujienų agentūrai AFP, kad vaizdo įrašuose „netikrumas pasitelkiamas kaip priemonė, kad pasėtų abejonių viešojoje nuomonėje“.

Vizualiniai neatitikimai

Viename vaizdo įraše ukrainiečių karys, teigiantis, kad „išvyksta iš Pokrovsko“, eina be vargo, nors ant jo kojos uždėtas gipsas. Atrodo, kad neštuvai levituoja, o fone pasirodo ir išnyksta atsiskyrusios nuo kūno kojos.

Šie vizualiniai neatitikimai išlieka būdingi generatyvinio DI sukurtam turiniui, tačiau juos vis sunkiau pastebėti plika akimi.

Kituose suklastotuose vaizdo įrašuose, tarp jų ir pažymėtuose bendrovės „OpenAI“ vaizdo įrašų kūrimo įrankio „Sora“ logotipu, rodomi ukrainietiškomis uniformomis vilkintys kariai, kurie verkia ir prašo nesiųsti jų į frontą.

Kai kuriuose iš jų buvo naudojami rusų interneto transliuotojų veidai.

Tarp jų buvo į užsienį pasitraukęs „YouTube“ kūrėjas iš Rusijos Aleksejus Gubanovas, kurio atvaizdas pasirodė suklastotame vaizdo įraše, kuriame verkia Ukrainos karys.

„Akivaizdu, kad tai ne aš“, – sakė jis „YouTube“ vaizdo įraše.

„Deja, daug žmonių tuo patiki (...) ir tai pasitarnauja Rusijos propagandai“, – teigė jis.

Pakertama kovinė dvasia

Europos skaitmeninės žiniasklaidos observatorija (EDMO), ES finansuojamas faktų tikrinimo organizacijų tinklas, teigia, kad nuo 2022 metų, kai Rusija įsiveržė į Ukrainą, jos bendruomenė paskelbė daugiau kaip 2 tūkst. su karu Ukrainoje susijusių straipsnių, o DI tampa vis dažnesne tema.

Pileckio instituto Rusijos propagandos specialistas Ianas Garneris (Ijanas Garneris) sakė, kad dezinformacija yra „sena taktika, tačiau technologija yra nauja“.

Jis teigė, kad vaizdo įrašai veikia „pakirsdami ukrainiečių kovinę dvasią, sakydami: „Žiūrėk, tai yra toks pat žmogus kaip tu, tai gali būti tavo brolis, tavo tėvas.“

Tuo tarpu jie stiprina Rusijos kovinę dvasią, pridūrė jis.

Platforma „TikTok“ pranešė AFP, kad paskyros, kurios, atrodo, sukūrė šiuos vaizdo įrašus, buvo ištrintos, tačiau ne anksčiau nei vienas iš jų surinko daugiau nei 300 tūkst. „patinka“ paspaudimų ir kelis milijonus peržiūrų.

„OpenAI“ sakė AFP, kad atliko tyrimą, tačiau naujienų agentūrai nepateikė išsamesnės informacijos.

Tačiau tai nesustabdė vaizdo įrašų plitimo.

AFP juos, be kita ko, rado „Instagram“, „Telegram“, „Facebook“ ir „X“ tinkluose graikų, rumunų, bulgarų, čekų, lenkų ir prancūzų kalbomis, vieno Rusijos savaitraščio interneto svetainėje ir Serbijos bulvariniame laikraštyje.

Sunku išmatuoti suklastoto vaizdo įrašo poveikį, tačiau „kai jis kartojamas, gali būti, kad žmonių įsitikinimai pasikeičia“, sakė  C. Grimaud.

DI pokalbių robotai taip pat naudojami prokremliškiems teiginiams propaguoti.

Spalį paskelbtame ISD tyrime nustatyta, kad testuotuose pokalbių robotuose „beveik penktadalis atsakymų buvo cituojami Rusijos valstybiniai šaltiniai“.

Nors kai kurios bendrovės parodė norą kovoti su piktnaudžiavimu jų priemonėmis, sakė P. Maristany de las Casas, „informacinio karo mastas ir poveikis pranoksta bendrovių atsaką“.