Hogyan ismerheted fel a mesterséges intelligenciát használó képeket, videókat?
A mesterséges intelligencia (MI) az elmúlt évek egyik leggyorsabban fejlődő technológiai területe, és egyre több formában alkalmazhatjuk a mindennapokban. A nagy nyelvi modellek (LLM), mint a ChatGPT vagy a Gemini segítenek kérdésekre választ találni, hagyományos beszélgetés formájában információt szerezni, de ugyanígy rendelkezésre állnak zene-, kép- és videógeneráló szolgáltatások is. Ezek képesek meglévő forrásokat módosítani, vagy akár teljesen új tartalmakat létrehozni.
Ahogy azonban fejlődik az MI, ezek a tartalmak már a valósághűség határát súrolják. A felületes szemlélő könnyen valódinak hihet teljesen MI által generált képeket, megváltoztatott videókat vagy olyan zenéket, amelyeket algoritmusok "ollóztak össze" egyetlen valódi zenész közreműködése nélkül. Ez nemcsak technológiai bravúr, hanem komoly kihívás is azok számára, akik nem követik napról napra az újdonságokat és a valószerűség miatt könnyen átsiklanak afölött, hogy amit néznek vagy hallgatnak, nem is igazi.
Miért lehet veszélyes az MI-vel készült tartalom?
Az MI-vel generált tartalmak önmagukban nem rosszak: kreatív eszközként, oktatásban vagy szórakoztatásban rendkívül hasznosak lehetnek. A probléma ott kezdődik, amikor valaki szándékosan megtévesztésre, esetleg valami valóságos tartalom helyett használja őket.
Egyre gyakoribbak többek között az úgynevezett deepfake videók, amelyekben politikusok vagy közszereplők szájába adnak olyan mondatokat, amelyeket sosem mondtak ki. Olyan helyzetben ábrázolhatják őket, amelyek sosem történtek meg. Egy jól időzített hamis videó befolyásolhatja a választói akaratot, pánikot kelthet, vagy épp vásárlási döntéseket torzíthat el. A deepfake már az MI-korszak előtt is jelen volt, de ekkor még körülményesebb volt az ilyen tartalmak előállítása, ezeket általában kép- és videómanipuláló szoftverekkel készítették. Emiatt bizonyos esetekben könnyebb volt felderíteni is a csalásokat.
Fontos, hogy nem csak közszereplők lehetnek az MI-csalások célpontjai. Magánszemélyeket is hozhatnak sértő, megalázó vagy rágalmazó helyzetbe manipulált képek és videók segítségével. A hamis tartalmak gyorsan terjednek a közösségi médiában, és mire kiderül az igazság, a kár sokszor már nehezen visszafordítható. Az MI-eszközök egyre könnyebben elérhetőek bárki számára, ezért akár te is a célkeresztbe kerülhetsz csak azért, mert mondjuk "beszóltál" valakire az iskolában, veszélyt jelentesz egy kollégád előmenetelére vagy egyszerűen csak kellemetlen helyzetbe akarnak hozni az ismerőseid előtt. Éppen ezért fontos, hogy tudd, mire figyelj. Nem kell szakértőnek lenned, de néhány jel segíthet abban, hogy gyanút fogj.
Hogyan ismerheted fel az MI-vel generált vagy módosított képeket?
Vízjelek és metaadatok
Sok MI-alapú képgeneráló szolgáltatás vízjelet helyez el a képeken, vagy a fájl metaadataiban tünteti fel a generálás tényét. Ez persze eltávolítható, de ha látsz furcsa logót, apró jelölést a sarokban, érdemes gyanakodni, ahogy az is figyelmeztető jel lehet, ha egy képrészletet elhomályosítanak vagy kisatíroznak, épp ott, ahol a vízjel szokott megjelenni.
Túlzott élesség és "művi" hatás
Az MI által generált képek gyakran túl tökéletesek. A bőr hibátlan, a fények túl szépek, az arányok szinte irreálisan harmonikusak. Amikor egy állítólagosan gyorsan elkattintott fotó is úgy néz ki, mintha műteremben készült volna, érdemes jobban megvizsgálni: a valóság ritkán ennyire steril. Szintén árulkodó lehet, ha a kép olyan, mint egy stockfotó, tehát reklámcélú kép vagy egyéb beállított jelenet. A valóságban mindig akad valami tökéletlenség, egy meglibbenő hajtincs, belepislogás, és a kép szereplői sem úgy mozognak, mintha hosszas beállítás után lettek volna lefotózva.
Apró, de zavaró részletek
Bár az MI minden egyes újabb frissítéssel egyre jobb eredményre képes, azért még mindig gyakran hibázik az összetett részleteknél. Elsőre talán könnyen bedőlhetsz egy olyan képnek, amely már számításba veszi azt is, hogy ne tűnjön teljesen sterilnek, ilyenkor figyelj a részletekre, például ilyenekre:
- hatodik ujj vagy furcsán hajló kézfej
- összefolyó ujjak, furcsán álló fogak
- elmosódó, torz arcok, furcsa tartású emberek a háttérben
- befejezetlen vagy fizikailag értelmezhetetlen épületek
- értelmetlen, torz feliratok táblákon, újságok címlapjain
- ékszerek, szemüvegek, amelyek "beleolvadnak" a bőrbe
Ha valami első ránézésre nem feltűnő, de hosszabb nézés után azt érzed, hogy valami nem stimmel, érdemes gyanakvással kezelni.
Árnyékok és tükröződések
Az MI sokszor hibázik a fénytan terén. Ellenőrizd például a következőket:
- logikus irányból jönnek-e az árnyékok, a fotó alanya előtt álló lámpa tényleg jó szögben vet-e árnyékot az alak mögött
- egy ablakban bevillanó tükörkép valóban azt mutatja-e, amit kell
- a szemüveg lencséjén vagy ablaküvegen helyes-e a tükröződés
Ezek, és az ilyenekhez hasonló apró fizikai következetlenségek gyakran lebuktatják a generált képeket.
Hogyan szűrheted ki a manipulált vagy MI-vel generált videókat?
A videók esetében még nehezebb a helyzet, mert mozgóképről van szó, ami hitelesebbnek tűnhet, és a mozgás miatt gyorsan el is tűnnek az esetlegesen kidolgozatlan részletek. Mégis vannak árulkodó jelek.
Szájmozgás és hang szinkronja
Figyeld meg, hogy a szájmozgás pontosan illeszkedik-e a kimondott szavakhoz. Ha a hang és a mimika nincs összhangban, az deepfake-re utalhat.
Furcsa arctorzulások
Deepfake videóknál előfordulhat, hogy a fej elfordításakor az arc enyhén "szétesik", hirtelen elmosódik a szem vagy a száj környéke, vagy a bőr textúrája egyik pillanatról a másikra megváltozik. Ezek a pillanatnyi torzulások gyakran csak néhány képkockáig láthatók, de ha valami furcsának tűnik, állítsd meg a lejátszást és nagyítsd ki a pillanatképet.
Természetellenes mozgás
Az MI által generált mozgás lehet kissé darabos, lebegő hatású vagy fizikailag nehezen értelmezhető. A kézmozdulatok, járás vagy testtartás lehet enyhén "robotikus" vagy következetlen.
Kontextusellenőrzés
Ha egy videóban egy ismert közszereplő botrányos kijelentést tesz, érdemes utánanézned megbízható hírforrásoknál is. Ha máshol nem számolnak be róla, az már gyanús lehet. Nézd meg, valóban járt-e az adott helyszínen a jelzett időben, tényleg ilyen ruhát viselt-e és így tovább.
Hogyan ismerheted fel az MI által generált zenét?
Az MI-zenék felismerése talán a legnehezebb, mert a zenei hibák kevésbé látványosak. A legújabb MI-eszközök milliárdnyi létező zenei anyag elemzésével alkotnak újra dalokat úgy, hogy elsőre teljesen eredetinek tűnnek, a hangzásuk is megfelelő és egyre gyakrabban tényleg elérik a valódi felvételek szintjét. Mégis vannak olyan jelek, amelyek elárulhatják, hogy az adott audió nem valódi zenészek által feljátszva és felénekelve készült.
Furcsa énekhang
Az énekhang lehet túlságosan sima, steril, vagy épp enyhén "műanyag" hatású. Néha apró torzulások, furcsa légzéshangok vagy természetellenes vibrato (a hang remegése) jelenik meg. A legtöbb adatforrás még mindig angol nyelven érhető el az MI számára, mind a zenei tartalmak, mind pedig a nyelvtani, kiejtési szabályok tekintetében, épp ezért például a magyarul "éneklő" MI-nél gyakrabban fedezhetünk fel furcsaságokat, mintha egy külföldi birkózna a magyar nyelvvel.
Szöveg és kiejtés
Az MI által generált dalszövegek gyakran nem épp Shakespeare szintjén mélyek és részletesek. Gyanús lehet, ha értelmetlen módon ismétlődnek részletek, logikailag zavarosak a mondatok, rossz helyen központozott fogalmak és egymáshoz nem illő részletek hangzanak el.
Gyanúsan új előadó
Ha egy dal vírusként terjed, de az előadóról semmilyen hiteles információt nem találsz, például nincs hivatalos weboldal, közösségi média jelenlét, koncertdátum, zenekari taglista, az is intő jel lehet. Egy valódi zenekar általában fellép, interjúkat ad, és van története. Ez persze a sokadik DJ-nél valamelyest nehezen követhető, de ha egy olyan zenekart hallgatsz, ahol elvileg van gitáros, dobos és egyéb hangszeres zenészek, mégsem találsz róluk semmilyen információt, az bizony ismét gyanúra adhat okot.
Mit tehetsz, ha gyanús tartalommal találkozol?
A mesterséges intelligenciával készült, megtévesztő tartalmakat sokszor az is valósabbnak tüntetheti fel, ha ismerősök között terjed, tehát nem csak valami ismeretlen helyen, weboldalon, magazinban találsz rájuk, hanem olyanok osztják meg, akikben megbízol. Épp ezért te is tehetsz arról, hogy a kamu MI-tartalmak ne jussanak át a szűrődön és másokat se tudjanak átverni.
- Ne ossz meg azonnal mindent, amit látsz vagy hallasz, főleg, ha túl szenzációs vagy furcsa, hogy igaz legyen.
- Ellenőrizd a képeken, videókon látottakat több forrásból.
- Használj fordított képkeresést: a Google képkeresőjében vagy más keresőkben nézd meg, hol szerepel még ugyanez a fotó.
- Gondolkodj kritikusan: kinek áll érdekében, hogy az adott tartalmat elhidd vagy terjeszd?
Az MI fejlődése nem áll meg. A generált tartalmak egyre élethűbbek lesznek, és idővel még nehezebb lesz különbséget tenni valódi és mesterséges között. Éppen ezért a legfontosabb eszközöd nem egy alkalmazás, hanem a kritikus gondolkodásod. Ha megtanulod felismerni a gyanús jeleket, máris sokkal nehezebb lesz téged megtéveszteni – akár képről, videóról vagy zenéről van szó.
Szerző:
Bátky Zoltán
informatikai és távközlési szakújságíró, szerkesztő
