vir: https://www.kurir.rs/techvision/funtech/9918992/kako-je-novinar-hakovao-ai-alate-za-20-minuta
-
BBC-jevski tehnološki novinar je na osebni spletni strani objavil popolnoma izmišljen članek o svoji “zmagi” na neobstoječem tekmovanju v hitrem jedenju hot dogov.
-
Manj kot 24 ur zatem so vodilna AI orodja (npr. ChatGPT in Googlove rešitve) začela to trditev povzemati kot dejstvo, nekatera celo z njegovim člankom kot virom brez jasnega opozorila o nezanesljivosti.
-
Ključ manipulacije je dobro optimiziran, samozavesten spletni tekst, ki zadene specifična vprašanja, pri čemer so AI sistemi najbolj ranljivi pri novejših ali manj znanih temah.
-
Strokovnjaki opozarjajo, da se podobne tehnike že uporabljajo pri občutljivih področjih, kot so zdravje, finance in produktna priporočila, kar lahko vodi do realne škode in zlorab (prevare, uničenje ugleda).
-
Čeprav Google in OpenAI poudarjata vlaganja v varnost in zanesljivost, sogovorniki izpostavljajo, da rešitev še ni blizu in da morajo uporabniki ostati kritični, preverjati izvore ter se pri pomembnih odločitvah ne zanašati izključno na AI.
DEJSTVA
-
Novinar je z lažnim SEO-optimiziranim člankom o hot dog “naslovu prvaka” v manj kot dnevu prepričal več AI sistemov, da njegovo izmišljeno zgodbo ponavljajo kot resnico.
-
Nekateri AI odgovori so članek navajali kot vir, ne da bi izrecno poudarili, da gre za edini in potencialno nezanesljiv vir, kar ustvarja lažen vtis preverjenega dejstva.
-
Strokovnjaki, med njimi SEO specialistka Lili Ray, ocenjujejo, da je “AI chatbot danes lažje prevarati, kot je bilo nekoč prevarati Google iskalnik”.
-
V članku so posebej izpostavljeni primeri, kjer manipulirani AI odgovori posegajo na področja zdravja, financ in priporočil izdelkov, s tveganji za zdravje, finančne izgube in krnitev ugleda.
-
BBC novinar opozori na psihološko past: AI odgovori delujejo kot neposreden, samozavesten glas velike tehnološke družbe, zato jih ljudje veliko lažje sprejmejo “zdravo za gotovo” kot rezultate klasične iskalne strani.