A deepfake‑funkciók ma már tömegek által használt platformokba épülnek, így soha nem volt ilyen egyszerű valós emberekről élethű, de hamis tartalmat készíteni – akár beleegyezés nélkül is.
A hatóságok szerint ez:
- egy rendszerszintű kockázat,
- különösen veszélyes a gyerekekre és sérülékeny csoportokra,
- akár büntetőjogi következményekkel is járhat,
- és komoly elvárásokat támaszt a fejlesztőkkel és üzemeltetőkkel szemben (beépített biztosítékok, transzparencia, gyors eltávolítás, extra gyermekvédelem).
1. Szokatlanul erős nemzetközi összhangHatvanegy adatvédelmi hatóság összehangolt, közös álláspontja önmagában ritka. Ez erős jelzés arra, hogy az MI‑vel generált képek kérdése már nem technológiai mellékszál, hanem globális, rendszerszintű kockázat. A hatóságok ezzel gyakorlatilag azt üzenik: a probléma mértéke olyan, hogy egységes, összehangolt szabályozói fellépést igényel.
2. A deepfake‑képességek „mainstreammé” válásaA nyilatkozat külön kiemeli, hogy a kép‑ és videógeneráló MI‑funkciók egyre inkább beépülnek a mindennapi közösségi‑ és kommunikációs platformokba. Ez drasztikusan csökkenti a visszaélés küszöbét: ma már technikai tudás nélkül is létrehozható, megosztható és terjeszthető olyan tartalom, amely valós embereket ábrázol kompromittáló vagy félrevezető módon.
3. Büntetőjogi dimenzióA hatóságok rámutatnak, hogy a nem kívánt, nem beleegyezésen alapuló intim vagy becsületsértő MI‑generált képek és videók sok jogrendszerben már most is büntetőjogi kategóriába eshetnek. Több országban zajlanak olyan jogalkotási kezdeményezések, amelyek kifejezetten a deepfake‑ek és a digitális erőszak új formáira reagálnak. Így ez nemcsak adatvédelmi, hanem büntetőjogi kockázat is.
4. A gyermekek és sérülékeny csoportok kiemelt védelmeA nyilatkozat világossá teszi, hogy a leginkább kitett csoportok a gyerekek és más sérülékeny személyek. Az ilyen személyekről készített, manipulált vagy szexuális tartalmú MI‑generált képek a hatóságok szemében már nem pusztán a magánszféra megsértését jelentik, hanem közvetlen biztonsági kockázatot. A gyermekvédelem a dokumentumban önálló, kiemelt fókuszt kap.
5. Konkrét elvárások fejlesztők és üzemeltetők feléA nyilatkozat nem áll meg az általános elvek szintjén, hanem több gyakorlati, működési elvárást is megfogalmaz az MI‑rendszerek fejlesztői és alkalmazói irányába, például:
- beépített technikai és szervezési biztosítékok a nem kívánt, nem beleegyezésen alapuló tartalmak generálásának megelőzésére,
- érdemi, érthető tájékoztatás a rendszerek képességeiről, korlátairól és a megengedett felhasználási módokról,
- hatékony eljárások a káros vagy jogsértő tartalmak gyors jelentésére és eltávolítására,
- kifejezetten gyermekekre és sérülékeny csoportokra szabott, magasabb szintű védelem.
Ezek az elvárások gyakorlatilag minimumkövetelményként jelennek meg minden olyan szervezet számára, amely MI‑alapú képgeneráló funkciót fejleszt vagy integrál a szolgáltatásába.
6. Elmozdulás a proaktív, „ex‑ante” szabályozás feléA nyilatkozat arra ösztönzi a szervezeteket, hogy már a tervezés korai szakaszában vegyék fel a kapcsolatot az illetékes felügyeleti hatóságokkal, és ne csak akkor, amikor már probléma van. Ez szépen illeszkedik az EU AI Act logikájához, amely a magas kockázatú MI‑rendszereknél a megelőző, ex‑ante megfelelőségre helyezi a hangsúlyt.
7. Fokozott nemzetközi együttműködés és közös fellépésA részt vevő hatóságok jelezték, hogy a jövőben szorosabban kívánnak együttműködni a jogalkalmazás területén is: tapasztalatokat osztanak meg, összehangolják a megközelítéseiket, és adott esetben közös, határokon átnyúló fellépést valósítanak meg. Az MI‑vel generált káros képek így kifejezetten nemzetközi biztonsági és társadalmi problémaként jelennek meg, nem csupán egy‑egy ország belügyeként.
Mit üzen ez a technológiát használó szervezeteknek?
A közös nyilatkozat egyik legfontosabb üzenete, hogy az MI‑alapú képgenerálás ma már „magas kockázatú” területnek tekinthető, ahol az alábbiak nem plusz opciók, hanem alapvető elvárások:
- robosztus biztosítékok a visszaélés és a nem beleegyezésen alapuló tartalom‑generálás ellen,
- átláthatóság a rendszer képességeiről, korlátairól, tanításáról és a megengedett használatról,
- gyors és hatékony reagálás a káros tartalmak bejelentésére,
- kiemelt védelem a gyermekek és sérülékeny csoportok számára,
- proaktív szabályozói együttműködés már a tervezés fázisától.
Azok a szervezetek, amelyek MI‑vel generált képeket használnak marketingben, termékfunkcióként vagy bármilyen más célra, nem engedhetik meg maguknak, hogy ezekről a kérdésekről csak „utólag” gondolkodjanak. A reputációs, jogi és emberi kockázatok ma már túl nagyok.