Egyre növekszik az eszköztár, amellyel digitális csalásokat lehet végrehajtani. Néhány fénykép és a hangunk rövid felvétele alapján már lehet alkotni egy videót, amelyben olyan dolgokat teszünk és mondunk, amelyeket a valóságban nem tennénk és nem mondanánk – jelezte lapunknak Veszelszki Ágnes kommunikációkutató, akivel a deepfake-technológia mélyére ástunk.

Megdöbbentő, már-már a Black Mirror sorozat epizódjait idézi, amire a deepfake-technológia képes. Például a közösségi oldalakon megosztott tartalmak által ellopható az azokon szereplő – digitális – identitása, a hangjával csalásokat lehet elkövetni, figyelmeztet Veszelszki Ágnes, az NKE Digitális Média és Kommunikáció Tanszékének tanszékvezető egyetemi docense. A szakértővel közelebbről megvizsgáltuk, milyen veszélyeket és lehetőséget rejt az új technológia, többek között:

  • hogyan lophatják el a csalók a digitális identitásunkat, melyek voltak a legmeredekebb esetek,
  • mekkora károkat okozhatnak a digitális kalózok a személyiségünk lemásolásával,
  • milyen hatással bír a társadalomra a deepfake elterjedése,
  • miért aggályos, ha a szülők mindent megosztanak a gyermekeikről a közösségi oldalakon,
  • hogyan támadnak csalók cégeket a deepfake-technológiával,
  • melyek a legnagyobb tévhitek a technológiával kapcsolatban,
  • milyen jogi és etikai kérdések merülnek fel a deepfake alkalmazásával kapcsolatban,
  • lehet-e pozitív dolgokra használni,
  • és milyen rég elhunyt közszereplőket „hoztak vissza” az élők közé a deepfake segítségével.

A csalások egy új korszaka köszönt ránk

A digitalizáció térnyerésével egyre több nyomot hagyunk az online térben. Milyen veszélyei lehetnek ennek a jelenségnek? Mivel próbálkoznak a digitális csalók?

Egyre növekszik az eszköztár, amellyel digitális csalásokat lehet végrehajtani. Néhány fénykép és a hangunk rövid felvétele alapján már meg lehet alkotni egy olyan videót, amelyben olyan dolgokat teszünk és mondunk, amelyeket a valóságban nem tennénk és nem mondanánk. Ez a deepfake legegyszerűbb definíciója. Minél több adat elérhető a célszemélyről – és minél nagyobb anyagi és informatikai erőforrást tudnak rászánni a produktumra –, annál jobb minőségű lesz az elkészült, akár csaló célokat szolgáló videó. 

De újabban olyan alkalmazással is lehet találkozni, hogy már nem csupán arcot, hanem kézírást is tud utánozni az AI. Mennyit is fog érni a videós beazonosítás a különböző banki és egyéb ügyintézés során, ha nem csupán az arcunkat, hanem a felmutatott személyi igazolványunkat is meg lehet mesterségesen alkotni – természetesen valós idejű videóban?

Mekkora károkat okozhat egy csaló, ha hitelesen lemásolja a digitális identitásunkat?

A szülők 75 százaléka megosztja a gyerekeik adatait a közösségi médiában. 10-ből 8 szülőnek vannak olyan követői a közösségi médiában, akiket nem ismer személyesen. Ezekkel az adatokkal kezdődik az egyik nagy telekommunikációs szolgáltató sokkoló sharenting-kampánya, amelyet 2023 nyarán tettek közzé. A videóban megismerjük a 9 éves Ella szüleit, akik rendszeresen posztolnak a lányukról képeket, videókat a közösségi felületeiken, anélkül, hogy a digitális viselkedésük lehetséges következményeivel valójában tisztában lennének. A szülők beülnek moziba, ahol a vetítés előtti kisfilmben a lányuk felnőtt változata fogadja őket. A felnőtté változtatott digitális Ellát mindössze egy fotó alapján a mesterséges intelligencia (AI) segítségével keltették életre az alkotók. A deepfake-technológiával megöregített Ella arról beszél a szülőknek, hogy bár számukra a megosztott képek és videók valóban csupán kedves emlékek, mások, ismeretlenek, rosszindulatú személyek számára ezek használható adatok, amelyek rosszindulatú használatával Ellára szörnyű jövő várhat. 

Miben nyilvánul meg ez a szörnyű jövő?

A videó felvillant néhány ijesztő jövőképet: a megosztott tartalmak által ellopható az azokon szereplő – digitális – identitása, a hangjával csalásokat lehet elkövetni, például a videóban az unokázós csalást szemléltetik, szélsőséges esetben a kiszemelt személy börtönbe mehet olyan tettekért, amelyeket nem követett el. A hamis videó zaklatáshoz vezető mémek alapjául szolgálhat, továbbá a megosztott intim képek rossz kézbe kerülésével a kisgyermek pedofilok prédájává válhat. A kisfilm tanulságaként a digitális Ella azt kéri a látottaktól megrémült szülőktől, hogy óvják meg a virtuális magánéletét azáltal, hogy a digitális lábnyomát tudatosan építik fel kiskorától kezdve.

Hogyan másolják le az identitásunkat a digitális kalózok?

Ha kiegészítjük a ChatGPT alkotta szövegeket például a Midjourney képalkotó képességével, és valamelyik hangklónozó alkalmazás, akár a Google AudioLM hangmásolásával, akkor létrehozhatja az AI bárki, az eredetivel megtévesztő módon egyező digitális hasonmását, aki – vagy inkább amely – úgy néz ki, olyan stílusban és olyan hangon beszél, mint a valódi személy. A valóságostól megkülönböztethetetlen, AI generálta küllem és beszéd révén az eszköz hozzájárulhat félrevezető, megtévesztő információk terjesztéséhez, a rossz szándékú megszemélyesítéshez is (spoofing). A test fokozott digitalizációja révén – hangazonosító megadása, publikus közösségimédia-profilok használatával – viszonylag könnyedén utánozható bárki digitális identitása. 

A cégek sincsenek biztonságban a digitális csalóktól

A cégeket hogyan érintheti az ilyesfajta csalás? Erre már manapság is van példa, hogy lopott digitális hasonmással húznak csőbe embereket, vállalatvezetőket? Milyen konkrét esetek történtek már?

Jól ismert, sokszor emlegetett eset a következő: a hang alapú deepfake-kel szenzitív információ – hitelkártya-adatok, jelszó – is kicsalható a kiszemelt személytől. Amint ez meg is történt egy brit energiacég ügyvezetőjével, aki azt hitte, hogy az anyacég német vezetőjével beszél telefonon, ami miatt 220 ezer eurónyi összeget utalt át egy – egyébként magyar – bankszámlára. Később kiderült, hogy a csalók AI alapú hanggenerátort használtak, amely olyan megtévesztő volt, hogy még a cégvezető németes akcentusát, jellegzetes beszéddallamát is képes volt utánozni. A csalók magabiztosságára utal, hogy háromszor is telefonáltak, de csupán az első átutalást hajtotta valóban végre az ügyvezető. Az összeg a magyar számláról mexikói, majd ismeretlen számlákra került, mindezidáig a tetteseket nem azonosították. Egy, ennél még frissebb esetben videóhívással, a cég vezetőinek arcát és hangját élőben utánozva vették rá egy hongkongi vállalat alkalmazottját, hogy utaljon el nagy összegeket különböző bankszámlákra. A hívásban a becsapott munkatárs volt az egyetlen valódi ember, az összes többi szereplőt deepfake felhasználásával alkották meg a csalók.

Hogyan védekezhetünk a személyazonossággal való visszaélés legújabb módszerei ellen?

Az úgynevezett „unokázós csalásban” a csalók idős embereket hívnak fel, hogy az unokájuk bajba került, és segítsenek neki egy, az áldozathoz küldött személyen keresztül a neki átadott pénzzel, értéktárgyakkal. Ez a csalási forma lehet még megtévesztőbb a deepfake-kel, hiszen a segélykérés az unoka valódinak ható, utánzott hangján is elhangozhat – a rokoni viszonyokat márpedig könnyű feltárni a közösségi média segítségével. Ha előadást tartok a témában, van egy tippem az idősebb rokonok becsaphatósága miatt aggódóknak:

beszéljenek meg egymás között egy kódot vagy jelszót, amelyet nem írnak fel sehova, nem mondanak el senkinek.

Ha az elhangzik, csupán abban az esetben higgyék el a telefonban elmondott, ijesztőnek tűnő történetet. Szintén fontos védekezési mód, hogy beszélünk az ilyen csalási lehetőségekről, ha mi is felkészülünk, illetve felkészítjük a védtelenebb személyeket ezekre az eshetőségekre. 

Hogyan ismerhetjük fel a deepfake-et?

Emberábrázolás esetén két dologgal van még mindig bizonyos nehézsége a képalkotó mesterséges intelligenciának. Az emberi szem életteliségét nehezebben tudja visszaadni: esetenként nem jól ábrázolja az íriszt, esetleg a személy nem a megfelelő irányba néz. Ezenkívül néha összefolyatja a szemet és a szemüveget. Emellett nem pontosan ismeri fel a kezeket, problémát jelent számára az ízületek sokszínűsége és a mozgékonysága. Előfordulhat, hogy négy vagy hat ujjal ábrázolja a szereplőket. Bár az ilyen jellegű intő jelek, hibák az újabb kép- és videógeneráló alkalmazások – mint amilyen a Midjourney 6-os verziója – esetén már egyre ritkábban fordulnak elő. 

Miből szúrhatjuk ki, hogy egy hamisított videót nézünk?

Videók esetén érdemes odafigyelni a tárgyak szélére, mert az rosszabb minőségű videó esetén pixeles lehet. A kezdetleges deepfake videókban nemcsak a fej mozdult meg, hanem a mögötte lévő tárgyak is – ilyennel ma már aligha találkozunk. Árulkodó jel lehet, ha a hang és a kép nincs szinkronban, vagy nincs harmóniában a test mozgása: a fej mozdul, de nem követi a nyak és a váll. Az arcmozgás is hiányozhat, illetve a pislogás sem természetes ritmusú. E jelek esetén is meg kell jegyezni, hogy főként az első próbálkozások vagy az ingyenes alkalmazással készített videók esetén jelennek meg, a professzionális alkalmazásokban egyre kevésbé jellemzőek. Ha a fentiek közül több jelet is észreveszünk, akkor gyanakodhatunk, hogy deepfake-ről van szó. De egyre nehezebb a „manuális”, azaz emberi eszközökkel történő felismerés. Ahogyan fejlődik a képgeneráló technika, úgy fejlesztik a hamisítást felismerő szoftvereket is, ám ezek a hétköznapi internetfelhasználók számára egyelőre nem elérhetőek.

Nem csak rosszra lehet használni a deepfake technológiát

Melyek a leggyakoribb tévhitek a deepfake technológiával kapcsolatban?

Az egyik legjellemzőbb félreértés az, hogy csupán ismert embereket érinthet a deepfake-kel történő utánzás. Annyiban igaz lehet ez a feltételezés, hogy ismert személyekről, közszereplőkről sokkal több kép, videó és hangfelvétel elérhető akár nagyobb tömegek számára is az interneten, a közösségi médiában, ezáltal könnyebb összegyűjteni róluk a szükséges adatmennyiséget. Ennek ellenére bárkiről készülhet, akár kevés adat segítségével is deepfake tartalom. 

A másik tévhit, hogy még mindig könnyen felismerhetőek az elkészült videók. A technológia versenyszerű fejlesztésével nap mint nap jelennek meg új, egyre jobb és – tegyük hozzá – egyre megtévesztőbb tartalmakat előállító alkalmazások.

Melyek a deepfake technológia lehetséges pozitív alkalmazásai?

Több példát is láttunk már erre, például egy indiai politikus az AI használatával érte el több választóját: a videós üzenetét a mesterséges intelligencia segítségével jelenítette meg több nyelven. Tavaly karácsonykor pedig egy nemzetközi cég az AI segítségével készítette el a személyre szabott, vezérigazgatói karácsonyi köszöntőit. A legismertebb példa a deepfake technológia pozitív felhasználására a floridai Dalí Múzeum, ahol Salvador Dalí digitális képmása egy embernagyságú kioszkon megjelenik a látogatók előtt, amikor azok megnyomják a csengőt, és az életéről mesél történeteket a látogatóknak. 

Hogyan hat az AI által generált tartalom térnyerése a szellemi tulajdonjogokra az üzleti világban?

A mesterséges szöveggenerálás váltotta ki a hollywoodi forgatókönyvírók és kreatív szakemberek tiltakozását 2023 nyarán, és bénította meg, de legalábbis lassította hónapokon keresztül a filmalkotást. A sztrájk 2023 októberében ért véget, és mondhatjuk, hogy az írók „győzelmével” zárult.

A forgatókönyvírókat a mesterséges intelligenciának a szakmájukat érintő fejleményeitől többek között az alábbi szerződési tételek védik az Egyesült Államok filmstúdióiban:

  • A stúdiók nem használhatják az AI-t forgatókönyvek vagy feldolgozások írására vagy újraírására.
  • A stúdióknak nyilvánosságra kell hozniuk, ha az íróknak átadott anyagok részben vagy teljesen mesterséges intelligenciával készültek.
  • A forgatókönyvírók jogi védelmet kapnak az ellen, hogy a forgatókönyvüket a beleegyezésük nélkül használják fel a mesterséges intelligencia képzésére.
  • A forgatókönyvírók a stúdiók beleegyezésével dönthetnek úgy, hogy az írás során mesterséges intelligenciát használnak, de soha nem kényszeríthetik őket a használatára.

De gondolhatunk a fotósokra, a videókészítőkre, a filmesekre, képzőművészekre is, akiknek befolyásolja – rosszabb esetben megkérdőjelezi – a munkáját az AI. 

Rég elhunyt hírességeket idéznek meg a deepfake segítségével

Milyen jogi és etikai kérdések merülnek fel a deepfake alkalmazásával kapcsolatban?

A szerzői jogok és az eredetiséghez való ragaszkodás mellett azonban további – etikai – aggályok is felmerülhetnek a művészet és mesterséges intelligencia viszonyrendszerében. Fel lehet-e támasztani egy elhunyt előadóművészt az AI használatával? Ennek nyilvánvaló és a gyászmunkát nehezítő esete volt az, amikor felmerült, hogy a Shrek animációs film magyar szinkronhangjaként a hangklónozás technikájával megjelenhetne az évekkel ezelőtt elhunyt, a filmsorozat korábbi részeit szinkronizáló Gesztesi Károly hangja. Ezt a projektet a család érthető kérésére leállították. 

Milyen más emlékezetes esetet tudunk, amikor deepfake-technológiával „hoztak vissza az élők közé” egy ismert személyt?

Erre jó példa az 1955-ben meghalt James Dean filmszínész esete, akinek a digitális klónjával már új film készül (Back to Eden címmel). Nem Dean az első „digitálisan feltámasztott” filmszínész: Carrie Fisher, Paul Walker is posztumusz játszották el eddig utolsó filmszerepeiket. Egyes vélemények szerint ez a halhatatlanság titka, mások szerint mindez nyugtalanító kérdéseket vet fel a halálunk utáni jogainkkal kapcsolatban: kié a képmásunk, a hangunk digitális másolata, személyiségünk, és ez felhasználható-e új tartalmak, digitális klónok gyártásához, ha ehhez életünkben nem járultunk hozzá, vagy éppen nem tiltakoztunk kifejezetten ez ellen. Ki profitál abból, ha az elhunyt színészek, szinkronszínészek – pontosabban a digitális klónjaik – az örökkévalóságig tartó munkára vannak kárhoztatva?

Csak az elhunytakat érinti a jelenség vagy mások személyiségét is lemásolhatják?

Nem csupán a már elhunyt színészeket, közszereplőket – sőt hétköznapi embereket – érinthet a személyiségük lemásolása. Nemrégiben Scarlett Johansson amerikai színésznő kezdeményezett jogi lépéseket egy cég ellen, amely a deepfake-technológia használatával reklámot készített a színésznő „szereplésével”. Tom Hanks pedig figyelmeztette a követőit, rajongóit, hogy az ő arcával hirdetett fogászati biztosítást valójában nem ő ajánlja, visszaéltek az arcával, hangjával és mozdulataival. Természetesen a személyiség lemásolása és meghamisítása nem új jelenség: a videós tartalmak valósághű utánzóképessége révén a megtévesztő jellegük viszont újdonság. 

Hogyan szabályozhatják a kormányok és szervezetek a deepfake használatát?

Minden bizonnyal sokat fogunk még olvasni-hallani az Európai Unió jelenleg is készülő mesterségesintelligencia-rendeletéről, amely a tervek szerint többek között ezeket a kérdésköröket is szabályozni fogja. Addig is ellenőrizhetjük, hogy használták-e az online szövegeinket, képeinket, videóinkat – ha rendelkezünk ilyenekkel – valamely AI tanításához:

a haveibeentrained.com oldalon kulcsszavak megadása alapján kiderül, milyen AI működik már a mi tartalmaink alapján.

Mi motiválta arra, hogy a deepfake-technológiák mélyére ásson, és szerkesztőként, társszerzőként könyvet jelentessen témában?

Az Aczél Petra társszerkesztésével készített Deepfake: A valótlan valóság című kötet ugyan 2023 őszén jelent meg, ám már 2020 óta foglalkoztunk a témával, és 2022-ben egy konferenciát is szerveztem a deepfake-ről és a CGI-influencerekről. A deepfake téma előzményeivel már évek óta lehetett találkozni, de óriási lendületet hozott a generatív AI fejlesztésében és ismertségében a ChatGPT megnyitása a szélesebb közönség előtt 2022 végén. Érdemes emlékeztetni magunkat arra, hogy csupán két hónap alatt az alkalmazás elérte a 100 millió regisztrált felhasználót – ehhez egyébként az ugyancsak népszerű Instagramnak 28 hónapra volt szüksége. Ezzel párhuzamosan megjelentek az olyan, a korábbihoz képest könnyebben elérhető lehetőségek is, amelyekben szöveges utasításokkal képet, hangot, videót lehet előállítani nagy mennyiségű adat felhasználásával a gépi tanulás elve alapján. 

Bár szokatlannak tűnhet, hogy egy ennyire gyorsan változó, digitális témáról papíron kiadott könyvet jelentettünk meg, de a korábbi kutatásaim – többek között a netnyelvészet vagy a karanténszókincs területén – megerősítették azt, hogy érdemes illékony jelenségeket is maradandóbb formában dokumentálni. Tudomásunk szerint ez az első gyűjteményes kötet a deepfake-ről – amely 14 kiváló kollégám tanulmányát tartalmazza a deepfake kommunikációs, médiatudományi, kiberbiztonsági, jogi, pszichológiai és pedagógiai vetületeiről. 

Milyen kutatásokat végez most a mesterséges intelligencia területén és várhatóan milyen irányba halad tovább? Lesz folytatása a könyvnek?

A könyvet kiadó NMHH Médiatudományi Intézetben folyamatosan foglalkozunk a kérdéskörrel. Ennek szellemében hirdettük meg 2024. január 18-ra A vélemény bajnokai – influenszerek a médiában című konferenciánkat, ahol többek között a virtuális influenszerekről is szó volt.

A vizsgálódás tovább folyik a Médiamítoszok eseménysorozatunkon, amelyen klubbeszélgetés formájában veszünk számba aktuális jelenségeket, február 27-én például az AI-nak a művészetre gyakorolt hatásáról beszélgetünk. 

Címkék