A rendelkezésre álló akadémiai szakirodalom egyrészről a veszélyekről és a hagyományos politika teljes megváltozásáról ír, míg más szerzők úgy gondolják csak a módszer új, a hagyományos problémák (pl.: dezinformáció) vetődnek fel, de a közösségi médiaplatformokon uralkodó algoritmusok ki fogják szűrni ezeket a tartalmakat. Vannak olyan elemek, amiben a két irányzat által felvetett problémákkal egyet lehet érteni, de teljes mértékben elfogadni egyik oldal állításait sem lehet. Hiszen bár a 2023-as szlovák előrehozott választások során valóban megjelentek a deepfake tartalmak, érdemben nem tudták befolyásolni a választások kimenetelét, de az algoritmusok uralmát sem lehet teljes mértékben elfogadni, hiszen egyrészt jelentős mennyiségű személy „vándorolt” a hagyományos közösségi médiaplatformokról alternatív platformokra, ahol az algoritmusok egyáltalán nem vagy kevésbé dolgoznak. Az ezekről a felületekről pedig egy egyszerű megosztással azonnal egy „mosás után” kiiktatható az algoritmusok figyelme. 

A deepfakek általános felhasználása továbbra is pornográf célú, amely értelemszerűen az adott személy becsületének megsértésére irányul, ezért számos ország a büntetőjog oldaláról közelítette meg a kérdést. Az kijelenthető, hogy a problémát már mindenhol érzékelték, de egységes gyakorlat még az Európai Unión belül sincs, azt is mondhatnánk ahány állam annyi megközelítés a témában. Tehát az első reakciók főként jogalkotási kérdéseket érintettek, többek között büntetőpolitikai aspektusban a jogszabályok szigorítása, vagy külön a deepfakere szabott büntetőjogi tényállások bevezetésével. Jó példa Florida állam egyértelmű, direkt állásfoglalása, miszerint a deepfakek készítését és terjesztését vonta a büntetendő magatartások közé. A jogirodalom azonban továbbra is vitázik ezen szabályozási irány kapcsán, hiszen annak tiltása az Első Kiegészítésben foglalt szabad véleménynyilvánítás korlátozását is jelenti, így az első olvasatra szigorú kiállás a deepfakekkel szemben alapjogi kérdéseket is felvet. Más országok ezzel szemben a meglévő jogi tényállásoknak próbálja megfeleltetnie a deepfake visszaéléseket is, de azok illeszthetősége több mint kérdéses.

Az imént hivatkozott floridai eset vezet el minket ahhoz a felismeréshez, hogy a fő problémát az okozza, hogy a deepfakek önmagukban nem jók vagy rosszak, alapvetően (az egyértelmű bűncselekményeket leszámítva) nem hordoznak pozitív vagy negatív előjelet, azt kizárólag kontextusban lehet értékelni, főként a készítő motivációi és célja határozza meg, így a meglévő törvényi tényállásokba való bevonásnál kiemelt szerepet kap a cselekmény szubjektív oldala. Az Európai Unió és a tagállamok döntő többsége még a szabályozás előtt úgy vélekedett, hogy a hatályban lévő adatvédelmi és médiaszabályozások (GDPR, DSA) elegendőek, ez természetesen a technológiai fejlődés következtében elégtelennek bizonyult.

A 2024 tavaszán megjelent az Európai Unió versenyképességét vizsgáló Draghi-jelentés egyértelműen kijelentette, hogy a mesterséges intelligencia terén jelentős lemaradásban van az Európai Unió mind az Egyesült Államokhoz, valamint Kínához képest. Ebben a politikailag is túlfűtött, heves környezetben került elfogadásra 2024 nyarán az úgynevezett „AI Pact”, amellyel az érdemi munka 2021-ben kezdődött el az Európai Bizottság részéről. A tervezet első olvasatának tárgyalása során a legnagyobb vitát az Európai Parlamentben a mesterséges intelligencia térfigyelő kameráknál használt személyazonosításra történő felhasználása váltotta ki. Az elfogadott rendelet egyébként nagy mozgásteret biztosít a tagállamok számára, de felhívja a figyelmet arra, hogy nemzeti szinten is foglalkozni kell a kérdéssel.

A rendelet egyik legfontosabb újítása a technológiasemleges AI definíciójának bevezetése, amely lehetővé teszi, hogy a szabályozás ne csak a jelenlegi, hanem a jövőbeni AI-fejlesztésekre – így a fejlődő deepfake technológiákra – is alkalmazható maradjon. A szabályozás egy kockázatalapú megközelítést alkalmaz, amely alapján az egyes AI modelleket kategorizálják. A kategóriák taxatíve a következőek: minimális kockázat/nincs kockázat, átláthatósági kockázat, magas kockázat, valamint az elfogadhatatlan kockázat. Az egyes kategóriákon belül gyakorlatokat is megfogalmaznak, az utóbbi kockázatba tartozik a „káros mesterséges intelligencián alapuló manipuláció és megtévesztés”, amelybe a deepfakeket „készítő” modellek is beletartozhatnak. Tehát magát a rosszhiszemű felhasználást tiltja a rendelet, így a jóhiszemű deepfakek teljes tiltását kerülték el. Ellenben az e modelleket fejlesztő vállalatoknál előírás a tartalom vízjelezése és a „címkézés”, amely ráerősít a Fragale és Grilli (2024) által bemutatott platformszintű megoldásokra – mint például a TikTok és Meta által bevezetett jelölési rendszerek, amelyek önbevallásos alapon kérik a tartalmat megosztótól az AI forrásmegjelölés tényét. A rendelet kockázatalapú megközelítése szerint a politikai célú deepfake-tartalmak potenciálisan „magas kockázatúnak” minősülhetnek, különösen választási időszakokban, mivel torzíthatják a demokratikus diskurzust és a választói akaratot.

További érdekesség, hogy az AI Pact nevesíti a deepfakeket, sőt bevállalta annak definícióját, habár az eredetit számos módosító javaslat után tudták véglegesíteni. Az akadémiai szakirodalom még most is vitázik azon, mely elemeket érdemes beemelni a definícióba, az AI Pact ebből a szempontból irányadónak tekinthető. A rendelet 3. cikk 60. pontja szerint a deepfake „az MI által generált vagy manipulált kép, audio- vagy videotartalom, amely hasonlít létező személyekre, tárgyakra, helyekre, entitásokra vagy eseményekre, és amely egy személy számára megtévesztő módon autentikusnak vagy valóságosnak tűnne”. Mindenképpen újdonság, hogy míg a szakirodalom főként a személyeket tekintette a deepfake áldozatának az EU-s szabályozás kiterjeszti azt a tárgyakra. Azonban továbbra is hiányosnak tekinthető a meghatározás, ahogyan Łabuz (2025) is rámutat, a „létező” szó szűk értelmezése korlátozhatja a szabályozás hatékonyságát, ezért a célhoz kötött (teleologikus) értelmezés szükséges annak érdekében, hogy a szabályozás a társadalmi manipuláció valamennyi formáját átfogja.

Bár az EU-s szabályozás valóban úttörő, hiszen a világ első AI-t szabályozó rendelete, tökéletesnek semmiképp sem mondható, de ezt valamennyi a jogalkotásban résztvevő intézmény is vallja. A problémát az okozza, hogy a deepfake-tartalmak esetében nehéz egyértelműen meghatározni a felelősség helyét: a tartalomkészítő, a megosztó politikus vagy az online platform felelős a terjedésért? Ez a kérdés új típusú politikai és jogalkotási válaszokat igényel, amelyet a jelenlegi szabályozás átterhel a modelleket fejlesztő vállalatokra. A szabályozás megkötéseit több mint 100 európai vállalat vállalta, de továbbra is kérdéses mi lesz azokkal a cégekkel, amelyeket ez a szabályozás nem köt. 

Összességében az EU elsőként vállalta fel, hogy szabályozási választ ad a deepfake technológia jelentette politikai kihívásokra, amely egy próbálkozás egy egyébként még javára ismeretlen területen. Az AI Act annak a felismerésnek az eredményeként született meg, hogy a meglévő szabályozások nem elegendőek a felmerülő problémák kezelésére. Nem csupán technikai normákat állít fel, hanem egyúttal értékalapú politikai állásfoglalásként is értelmezhető. A rendelet technológiasemleges definíciója, kockázatalapú megközelítése, valamint a manipuláció és megtévesztés tilalma egy olyan szabályozási keretet vázol fel, amely képes alkalmazkodni a jövőbeli fejleményekhez, miközben figyelembe veszi az alapvető jogokat és demokratikus normákat. A deepfake tartalmak megítélése nem önmagában a technológiából, hanem annak társadalmi és politikai kontextusából fakad. A szabályozás sikeressége nem csupán a jogi normák szigorúságán, hanem azok értelmezésén, alkalmazhatóságán és betarthatóságán is múlik. Különösen fontos tehát a célhoz kötött, ún. teleologikus értelmezés, amely képes megragadni a manipuláció finomabb formáit is – ahogy azt a szakirodalom is hangsúlyozza.

A rendelet gyakorlati végrehajtása folyamatban van, nehézségek merülhetnek fel – különösen a felelősségi láncok, platformszabályozás és határon átnyúló technológiai együttműködések területén – így mindez további politikai és szakmai megoldásokat igényel. Hogy a szabályozás miként fog alakulni, hogy ne csak mindenki megfeleljen neki továbbra is homályosnak mondható. 

Felhasznált szakirodalom

https://internet-policy-meco.sydney.edu.au/2024/12/deep-fakes-and-the-ai-act-an-important-signal-or-a-missed-opportunity/

https://cjel.law.columbia.edu/preliminary-reference/2024/deepfake-deep-trouble-the-european-ai-act-and-the-fight-against-ai-generated-misinformation/

https://eur-lex.europa.eu/legal-content/HU/TXT/HTML/?uri=OJ:L_202401689

https://www.stibbe.com/publications-and-insights/the-current-status-of-the-ai-act-navigating-the-future-of-ai-regulation

https://technologyquotient.freshfields.com/post/102jb19/eu-ai-act-unpacked-8-new-rules-on-deepfakes

Łabuz, M., 2025. A Teleological Interpretation of the Definition of DeepFakes in the EU Artificial Intelligence Act—A Purpose‐Based Approach to Potential Problems With the Word “Existing.” Policy Internet 17, e435. https://doi.org/10.1002/poi3.435

Łabuz, M., 2023. Regulating Deep Fakes in the Artificial Intelligence Act. Appl. Cybersecurity Internet Gov. 2, 1–42. https://doi.org/10.60097/ACIG/162856