Internetą užplūdo dirbtinio intelekto klastotės: toks laikas pasirinktas neatsitiktinai?
Inga Laurinaityte Delfi
Turinį įkėlė
Dirbtinis intelektas kaip galima grėsmė nacionaliniam saugumui pirmą kartą paminėtas 2021 m. grėsmių nacionaliniam saugumui vertinime. 75 puslapių dokumente šiai technologijai skirtas tik vienas sakinys, kuriuo įspėjama, kad dirbtinis intelektas ateityje gali sukelti problemų. „Dirbtinis intelektas jau dabar naudojamas sugeneruoti tekstą, kurti suklastotas asmenų nuotraukas, o artimiausioje perspektyvoje tokios naujovės gali būti pradėtos naudoti ir informacinėse operacijose prieš Lietuvą,“ – rašyta ataskaitoje.
Auga susirūpinimas dėl dirbtinio intelekto technologijos keliamų grėsmių
2022 m. ataskaitoje daugiau dėmesio skirta Kinijos investicijoms vystant dirbtinio intelekto sprendimus, masinio gyventojų stebėjimo technologijas, telekomunikacijų tinklus, elektroninę prekybą ir kitas sritis, susijusias su technologijų plėtra ir jų pritaikymu – vadinamajai „Skaitmeninio šilko kelio“ idėjai, kuri sulaukė autoritarinių ir besivystančių valstybių palaikymo.
Dar po metų ataskaitoje pasirodė pranešimas apie vadinamųjų virsmo technologijų – tokių, kurios gali reikšmingai patobulinti ar iš esmės pakeisti esamų technologijų vykdomas funkcijas – svarbą ir tai, kad šias technologijas vystančios šalys, tarp jų ir Lietuva, gali tapti priešiškų valstybių taikiniais. Tarp aktyviausiai vystomų virsmo technologijų paminėtos dirbtinis intelektas, didieji duomenys, kvantinės, autonominės, kosmoso ir kitos technologijos.
2024 metų vertinime dirbtinio intelekto technologijoms skirta jau daugiau dėmesio. Akcentuota, kad tai – vienas pagrindinių Kinijos įrankių norint tapti globalia technologijų lydere ir siekti pranašumo prieš JAV. „Tai gali būti taikoma stiprinant visuomenės kontrolę, sprendimų priėmimo efektyvumą, kuriant informacinių atakų turinį, stiprinant karinius pajėgumus,“ – paaiškinta vertinime.

Be to, atkreiptas dėmesys ir į tai, kad 3D spausdinimo ir dirbtinio intelekto technologijomis domisi teroristinės ir ekstremistinės organizacijos. „Natūralios kalbos apdorojimo modeliai, pavyzdžiui, pokalbių robotas „ChatGPT“, leidžia imituoti žmonių bendravimą skaitmeninėje erdvėje – atsakyti į klausimus, interpretuoti informaciją, ją analizuoti, pateikti pasiūlymus beveik visomis temomis, – rašoma vertinime, – 3D spausdintuvais galima pasigaminti įvairių dydžių ir lengvai daugelyje sričių pritaikomus objektus ar daiktų detales. Šios technologijos yra patrauklios, nes yra santykinai pigios, lengvai pasiekiamos ir nesunkiai perprantamos net ir neįgudusiems naudotojams. Teroristų ir ekstremistų rankose 3D spausdinimo ir DI technologijos tampa įrankiais, kurie jų veiklą padaro efektyvesnę, greitesnę ir sunkiau aptinkamą.“

Šių metų grėsmių nacionaliniam saugumui vertinime jau atvirai konstatuota, kad žmonija įžengė į dirbtinio intelekto amžių ir kad atsidūrę piktavalių ir autokratinių valstybių rankose šie įrankiai gali padaryti daug žalos. Vertinime užsiminta apie tai, kad dirbtinio intelekto technologijas turiniui internete stebėti aktyviai diegia Rusija, prisidengdama siekiu didinti piliečių saugumą, bet iš tiesų sekdama režimui nepaklusnius asmenis.
Ataskaitoje taip pat pirmą kartą skirta tiek dėmesio dirbtinio intelekto kuriamoms giluminėms vaizdo klastotėms, kuriose „imituojami politiniai veikėjai, besielgiantys neįprastai, pavyzdžiui, šmeižiantys kitus asmenis ar pritariantys savo programai nebūdingoms idėjoms.“ „Turiniui kurti skirti DI įrankiai savaime nėra laikomi grėsme, tačiau gali praplėsti dezinformacijos sklaidos galimybes, siekiant formuoti visuomenės nuomonę, diskredituoti politinę sistemą, skatinti nepasitikėjimą žiniasklaida ir rinkimais,“ – perspėjama vertinime.
Dirbtinis intelektas prabilo žurnalistų balsais
Vasaros mėnesiais lietuviškus socialinius tinklus užplūdo giluminės klastotės, kuriose atkurti Lietuvoje puikiai žinomi vieši asmenys ir žurnalistai. Birželio mėnesio pradžioje savo „Facebook“ paskyroje dėl dirbtinio intelekto sugeneruotų klastočių, kuriose pasirodė jos veidas, piktinosi Edita Mildažytė. Sukčiai jos atvaizdu pasinaudojo reklamuodami preparatus nuo šlapimo nelaikymo. Panašiu metu internete pasirodė ir dirbtinio intelekto sugeneruota melaginga reklama su šeimos gydytojo, profesoriaus Vytauto Kasiulevičiaus veidu. Giluminėje klastotėje imituotas „TV3“ televizijos žinių vedėjos Justinos Bezaraitės pokalbis su V. Kasiulevičiumi apie Covid-19 vakcinų žalą. „Delfi“ faktų tikrinimo rubrika „Melo detektorius“ paaiškino, kokie požymiai parodė, kad reklama yra netikra.

Sukčiai pasinaudojo ir Lietuvos valstiečių ir žaliųjų sąjungos partijos pirmininko Aurelijaus Verygos atvaizdu. Socialiniuose tinkluose paleistoje reklamoje buvo matomas dirbtinio intelekto sugeneruotas jo interviu su „Delfi“ vyriausiąja redaktore Rasa Lukaityte-Vnarauskiene. Jame buvo iškraipyti politiko žodžiai, pasigirdo skatinimų įsigyti preparatus akims.
Visuose tokiuose dirbtinio intelekto kūriniuose galima atpažinti tą pačią sukčiavimo schemą – žinių reportažus imituojantiems reportažams kurti panaudojami gerai Lietuvoje žinomų asmenų veidai, kurie interviu metu reklamuoja vienokius ar kitokius preparatus. Paprastai tokie reportažai socialiniuose tinkluose išplatinami kaip reklamos kartu su pridedama nuoroda su raginimu įsigyti prekes ar paslaugas. Tokią nuorodą spustelėjęs asmuo patenka į sukčių sukurtą interneto svetainę, kur jo prašoma suvesti savo asmens duomenis į specialią formą. Jei žmogus juos suveda, šie duomenys, įskaitant ir banko prisijungimus, kortelių duomenis, elektroninio pašto adresą ar telefono numerį, patenka į sukčių rankas.
Atkreipė institucijų dėmesį
Dirbtinio intelekto sugeneruoti interviu, kuriuose pasirodo Lietuvoje dirbantys žurnalistai, laidų vedėjai ir redaktoriai, atkreipė žurnalistus ginančių organizacijų ir institucijų dėmesį. Interneto žiniasklaidos asociacija kreipėsi į atsakingas institucijas, prašydama reaguoti į problemą, kuri kelia grėsmę visuomenės pasitikėjimui žiniasklaida ir nacionaliniam saugumui.
„Nuolat su kolegomis stebime viešąją erdvę, ypač socialinę erdvę, ir mums didžiulį nerimą sukėlė tai, kad Lietuvoje, galima sakyti, na, prasidėjo toks naujas reiškinys, kuris užsienyje nebėra naujiena, bet Lietuvoje galima teigti, kad žengia pirmuosius žingsnius. Tai yra, buvo dirbtinio intelekto pagalba klonuojami realybėje egzistuojančių tikrų žurnalistų veidai, balsai, į jų lūpas įdedamas tam tikras melagingas tekstas, klaidinantis visuomenę,“ – laidoje kalbėjo Interneto žiniasklaidos asociacijos pirmininkė Lina Bušinskaitė.
Į pagalbos šauksmą operatyviai sureagavo LR Seimas, kur surengtas tarpinstitucinis pasitarimas dėl tolimesnių veiksmų, ir Žurnalistų etikos inspektoriaus tarnyba. Žurnalistų etikos inspektorius Dainius Radzevičius laidoje pasakojo ir pats prieš dešimtmetį, kai melaginga informacija dar sklisdavo mažiau technologiškai pažangiais būdais, tapęs dezinformacijos skleidėjų taikiniu.
„Kaip tik tuo metu, 2015 metais, kadangi man teko dirbti radijo stotyje, dirbti radijo žurnalistu, bet dirbant su Jungtinių Valstijų medijomis mano vardu buvo neva sukurtas interviu su ponu Trumpu, tuometiniu prezidentu Jungtinių Valstijų, ir neva paviešintas Amerikoje viena labai paprasta tema, kad jeigu Baltijos šalių gyventojai nepatenkinti savo gyvenimu, tegul jie, kaip čia, čiuožia, lekia į Afriką, nes čia nevykę, reiškia, ir žmonės, ir šalis yra,“ – prisiminė D. Radzevičius.

Pasak jo, suklastotas interviu akimirksniu buvo išplatintas socialiniuose tinkluose ir interneto portaluose Kaliningrado srityje ir panaudotas Kremliui palankiam naratyvui skleisti. Nors melaginga istorija iš karto buvo paneigta, D. Radzevičius sulaukė net kelių sveikinimo skambučių iš Vidurio Azijos gyventojų ir žurnalistų, kurie sveikino suklastotame interviu girdimus teiginius.
„Aš sakau: „Nebuvo interviu su ponu Trumpu.“ Ir vienas bičiulis sako: „Tai interviu gal ir nebuvo, bet mintis o tokia pono Trumpo.“ Ir aš supratau, kad žmogui, kuris žino, kad to interviu nebuvo, žino, kad aš nedariau interviu, bet mintis kabutėse, kurios nebuvo, yra faina,“ – apibendrino D. Radzevičius, atkreipdamas dėmesį į tai, kad net laiku paneigus melagingą informaciją, ja pasiųsta žinutė dažniausiai jau būna padariusi nepataisomą žalą.
Laikas galėjo būti pasirinktas neatsitiktinai
Interneto žiniasklaidos asociacijos pirmininkė atkreipė dėmesį, kad internete eksponentiškai plintančios giluminės klastotės gali tapti grėsme ir nacionaliniam saugumui. Be to, reikėtų atkreipti dėmesį į tai, kokiu metu fiksuojamas tokių klastočių antplūdis.
„Mes birželio pabaigoje-liepos pradžioje kreipėmės į atsakingas institucijas, prašydami pagalbos ir, na, kad reaguotų, nes tai tikrai nėra vien tik žiniasklaidos reikalas, tai liečia mus visus ir tokiu būdu gali, na, sakykim, Lietuvai nedraugiškos jėgos, užsienio valstybės, tam tikri, na, interneto piktavaliai galbūt tokiu būdu testuoti ir Lietuvos institucijų pasirengimą reaguoti į tokias grėsmes ir netgi gebėjimus, mokėjimus atremti,“ – samprotavo L. Bušinskaitė.
Pasak Interneto žiniasklaidos asociacijos pirmininkės, klastojami žurnalistų veidai ir balsai primena prieš du metus internetą užplūdusias melagingas reklamas, kuriose sukčiai atkūrė gerai žinomus lietuviškus naujienų portalus. Pavogti visi šioms svetainėms būdingi elementai – šriftai, logotipas, meniu juostos, įprasta straipsnio konstrukcija. Sukčiai taip pat sukūrė bent šiek tiek realią interneto svetainę primenančius domenus, pavyzdžiui, delfiportalas.com, delfi-skandalai.com, delfinews.com. „Melo detektorius“ paaiškino, kaip tokius portalo „Delfi“ klonus atskirti nuo tikros naujienų portalo interneto svetainės.
Sukčių sukurtuose straipsniuose interneto vartotojai vilioti skambiomis skandalingomis antraštėmis, dažniausiai susijusiomis su Lietuvos valdžios atstovais ar įžymybėmis. Svetainių klonuose nukopijuoti ir realiai egzistuojantys straipsniai, pakeičiant vieną ar kelias pastraipas ar įterpiant naują informaciją. Dažniausiai įterptose pastraipose reklamuoti neva itin pasiteisinę investavimo į kriptovaliutas įrankiai. Spustelėjęs ant straipsnyje matomo įrankio pavadinimo žmogus, vėlgi, nukreipiamas į sukčių sukurtą interneto svetainę, kurioje prašoma asmens duomenų.

L. Bušinskaitė atkreipė dėmesį, kad ir tuo metu žiniasklaidos portalų klonai socialinius tinklus užplūdo panašiu metu, kaip šiemet dirbtinio intelekto sugeneruoti melagingi interviu – vasaros mėnesiais, prieš planuojamas „Zapad“ pratybas.
Kaip apsisaugoti nuo sukčių atakų?
Ekspertai sutinka, kad vieno būdo, kaip kovoti su vis tikroviškesnėmis klastotėmis, nėra, tačiau kiekvienas interneto vartotojas gali pasistengti dėl savo skaitmeninio atsparumo ir įspėti apie galimas grėsmes kitus. D. Radzevičius atkreipia dėmesį, kad dažnai pakanka ir labai paprastų žingsnių, pavyzdžiui, dažniau apsilankyti oficialiose žiniasklaidos portalų interneto svetainėse ir socialinių tinklų paskyrose ir pasitikrinti, ar tikrai socialiniuose tinkluose rasta informacija yra patikima, ar apie ją rašė kuri nors masinio informavimo priemonė.
„Jeigu tu galvoji, kad tu esi toks gudrus, kad gali be žiniasklaidos susigaudyt naujienas pasaulyje – gali būti, kad jau esi viena koja auka. Ir čia yra pirmas požymis, kad kai tu savim pernelyg pasitiki, kad tu socialiniuose tinkluose susigraibysi tiesą labiau negu žiniasklaidoje, kaip sakau, gali nepasitikėt, bet būtinai patikrink,“ – patarė Žurnalistų etikos inspektorius.
Pasak jo, lietuviams dažnai pakiša koją ne tik medijų ir informacinio raštingumo stoka, bet ir, pavyzdžiui, finansinio raštingumo trūkumas. „Jeigu tau kas nors siūlo uždirbti labai lengvai, greitai, nieko nedarant, tiesiog pervedant pinigus, tai panašu, kad čia suveikia tam tikras neraštingumas žmonių, kurie yra pernelyg gobšūs. Galvoja, kad nedirbant gali būti pinigų. Ir tai yra tiesa, matyt.
Tai šitoj vietoj technologinis raštingumas padėtų labai lengvai, jeigu žmonės, na, pasitikrintų, ar iš tikrųjų tokios, pavyzdžiui, platformos, kuriose siūlo investuoti, yra registravęsi Lietuvoje kaip finansinės institucijos. Ir greičiausiai paaiškės, kad nei Lietuvos bankas, nei kitos institucijos jų yra niekada neregistravę.“
Lietuvos pinigų plovimo prevencijos kompetencijų centro surinkti duomenys rodo, kad vis daugiau žmonių apsigauna ir praranda pinigus dėl finansinio sukčiavimo schemų. Praėjusiais metais finansiniai sukčiai kėsinosi į 35 milijonų eurų sumą ir net 20 milijonų jiems pavyko gauti. Tai – beveik dvigubai didesnė suma, nei išviliota per 2022-uosius metus. Atitinkamai padvigubėjo ir sukčiavimo atvejų skaičius. Praeitais metais užfiksuota daugiau nei 13 tūkst. sukčiavimo atvejų.

Svarbus žingsnis, siekiant apsaugoti žmones nuo sukčių atakų ir melagingos informacijos kuriamos žalos – laiku apie pastebėtus atvejus įspėti atsakingas institucijas. Tokie pranešimai laukiami Žurnalistų etikos inspektoriaus tarnybos interneto svetainėje zeit.lt. „Galima labai patogiai informuoti, nuorodą įdėti, kad ten yra išmanioji vaizdo klastotė, dezinformacija ir visiems sakau – darykite taip, praneškite. Mes jau po to imsimės kartu su kolegom iš kitų institucijų. Netylėkim ir negalvokime, kad kažkokia kvaila klastotė mūsų pačių demaskuota nepadarys žalos,“ – paaiškino D. Radzevičius.
Ieško sisteminio problemos sprendimo būdo
Sparčiai augant dirbtinio intelekto sugeneruoto turinio kiekiui svarstoma apie sisteminius sprendimus, kuriuos priėmus būtų galima greičiau ir efektyviau informuoti žmones ir interneto sistemas apie tokį turinį. Prie tokių sprendimų galima priskirti socialinių tinklų platformų atskaitomybės didinimą ir tarpinstitucinio bendradarbiavimo skatinimą. Be to, vis garsiau kalbama apie specialų dirbtinio intelekto sukurto turinio žymėjimą vandenženkliais.
Dirbtinio intelekto sugeneruoto turinio žymėjimas vandenženkliais leidžia susekti ir identifikuoti tokį turinį nedarant įtakos jo kokybei. Išskiriamos dvi vandenženklių rūšys: matomi vandenženkliais, tokie kaip logotipas ar tekstas, uždėtas ant dirbtinio intelekto sugeneruoto įrašo, ir nematomi, tik algoritmų atpažįstami, vandenženkliai, padedantys identifikuoti ne žmogaus kurtą turinį interneto paieškos sistemoms.

Tiesa, technologijų apžvalgininkai ir institucijos įspėja, kad ši turinio žymėjimo technologija dar nėra pakankamai patikima, kad ją būtų galima taikyti plačiu mastu. Pavyzdžiui, 2024 m. atliktas ir dar nerecenzuotas tyrimas parodė, kokių atakų gali imtis programišiai, siekdami apeiti dirbtinio intelekto sugeneruoto teksto žymėjimą vandenženkliais. Viena iš atakų, kurią tyrėjams pavyko įvykdyti – vandenženklio pašalinimas iš dirbtinio intelekto sukurto teksto, kita – jo vagystė.
„Dabartinės pažangiausios dirbtinio intelekto vandenženklių technologijos turi didelių techninių apribojimų ir trūkumų, susijusių su techniniu įgyvendinimu, tikslumu ir patikimumu. Generatyviojo dirbtinio intelekto kūrėjai ir politikos formuotojai dabar susiduria su daugybe problemų, įskaitant tai, kaip užtikrinti patikimų vandenženklių priemonių kūrimą ir kaip skatinti vandenženklių standartizavimą ir įgyvendinimo taisykles,“ – aiškinama Europos Parlamento išleistame pranešime, kuriame taip pat pripažįstama, kad generatyvinio dirbtinio intelekto technologijų kūrėjai turės išspręsti skaidrumo iššūkius, kad jų kurtomis technologijomis nesinaudotų piktavaliai.

Šis turinys yra projekto „Faktų galia“ dalis.
Tai informacinis-edukacinis projektas, stiprinantis visuomenės medijų raštingumą – aiškinantis žurnalistikos misiją, skatinantis pasitikėjimą patikimais informacijos šaltiniais, padedantis atpažinti dezinformaciją bei analizuojantis priklausomybių poveikį žmogui ir visuomenei.
Projektą iš dalies finansuoja Medijų rėmimo fondas.
Griežtai draudžiama Delfi paskelbtą informaciją panaudoti kitose interneto svetainėse, žiniasklaidos priemonėse ar kitur arba platinti mūsų medžiagą kuriuo nors pavidalu be sutikimo, o jei sutikimas gautas, būtina nurodyti Delfi kaip šaltinį. Daugiau informacijos Taisyklėse ir info@delfi.lt
„Delfi“ – tarptautinės Žurnalistikos patikimumo iniciatyvos programos sertifikuota žiniasklaidos priemonė.
Autorius: Aistė Meidutė
Kopijuoti, platinti ar skelbti šį turinį be autoriaus raštiško sutikimo draudžiama