A mesterséges intelligencia alkalmazásának jogi és etikai keretrendszere a politikai kommunikációban

A politikai kommunikáció digitális transzformációja a generatív mesterséges intelligencia (AI) megjelenésével új szabályozási és etikai korszakba lépett. A technológia képes a valóságot élethűen szimulálni, ami alapjaiban kérdőjelezi meg a demokratikus nyilvánosság információs integritását. Jelen elemzés célja, hogy a hatályos magyar jogszabályok, az Alkotmánybíróság joggyakorlata, az Európai Unió új AI-rendelete (AI Act), valamint a globális platformszabályozások metszetében feltárja a politikai célú AI-felhasználás jogi korlátait. Az elemzés rávilágít, hogy bár a jogrendszer technológia-semleges alapokon nyugszik, a dogmatikai kategóriák – mint a személyiségi jogok, a közokirat-hamisítás vagy a rémhírterjesztés – kiterjesztő értelmezése elengedhetetlen a jogállami garanciák érvényesítéséhez a szintetikus média korában.

  1. Az AI használatának vannak egyáltalán szabályai? Van-e speciális szabályozása az AI nyilvános kommunikációs célú felhasználásának? Alkalmazhatók-e az AI felhasználására az általános polgári jogi és büntetőjogi szabályok? Van-e jogi jelentősége annak, ha egy jogsértő szöveget, képet, hangot vagy videót AI felhasználásával hoznak létre?

A magyar jogrendszerben jelenleg nem létezik egyetlen, átfogó kódex, amely kizárólagosan a mesterséges intelligencia (AI) használatát szabályozná, így a politikai kommunikációs célú felhasználásra sem vonatkozik sui generis törvényi tényállás. A jogi megközelítés a technológiai semlegesség elvén alapul, amely szerint a jog nem az elkövetés eszközét, hanem a cselekmény joghatását és a normaszegés tényét értékeli. Ebből a dogmatikai alapvetésből következik, hogy az AI nem jogalany, hanem eszköz, így a felelősség minden esetben a technológiát alkalmazó természetes vagy jogi személyre hárul. Az általános polgári jogi és büntetőjogi szabályok – így a Polgári Törvénykönyv (Ptk.) személyiségi jogi védelme és a Büntető Törvénykönyv (Btk.) tényállásai – teljes mértékben alkalmazhatók az algoritmikus úton előállított tartalmakra is. A jogi felelősség megállapításakor az a releváns, hogy a felhasználó magatartása sértett-e jogszabályt, nem pedig az, hogy ehhez milyen szoftvert vett igénybe.

Annak, hogy egy jogsértő tartalmat AI segítségével hoztak létre, kettős jogi jelentősége van. Egyrészt a büntetőjog területén a jogalkotó felismerte a technológiában rejlő speciális kockázatokat, és bevezette a becsület csorbítására alkalmas hamis hang- vagy képfelvétel készítése (Btk. 226/A. §) tényállását. Ez a rendelkezés kifejezetten a „deepfake” technológiával elkövetett visszaélésekre reagál, ahol a bűncselekmény lényegi eleme a felvétel hamisított vagy valótlan volta, amelyet a technológia tesz lehetővé. Másrészt a polgári jogi felelősségre vonás során a technológia használata a felróhatóság és a szándékosság fokát súlyosbíthatja. A Ptk. 2:42. §-a alapján az emberi méltóság és a személyiségi jogok védelme technológiától független, de a jogsérelem súlyának megítélésénél a bíróság értékelheti, hogy az elkövető egy kifejezetten a valóság megtévesztő imitálására alkalmas eszközt használt, ami növelheti a sérelemdíj mértékét.

Források:

  • 2013. évi V. törvény a Polgári Törvénykönyvről 2:42. §
  • 2012. évi C. törvény a Büntető Törvénykönyvről 226/A. §
  1. Van-e jogi kötelezettsége az AI által generált tartalom készítőjének és/vagy közzétevőjének arra, hogy feltüntesse a tartalom AI generált jellegét? Mint mondanak erről a Facebook, a Google és a TikTok felhasználási feltételei?

A magyar jogszabályi környezetben jelenleg nem található olyan általános érvényű törvényi rendelkezés, amely a magánszemélyek vagy nem médiaszolgáltatónak minősülő szereplők számára kötelezővé tenné az AI-generált tartalmak megjelölését (vízjelezését vagy címkézését). A sajtószabadságról és a médiatartalmak alapvető szabályairól szóló törvény (Smtv.) a hiteles tájékoztatás kötelezettségét írja elő a médiaszolgáltatóknak, de ez nem jelent explicit technológiai jelölési kötelezettséget. Ezzel szemben az Európai Unió AI-rendelete (AI Act) 50. cikke a jövőben kötelezővé teszi a „deepfake” és egyéb manipulatív tartalmak átláthatóságát. A rendelet e szabályai 2026. augusztusában lépnek hatályba. Jelenleg tehát a jogi kényszerítő erő hiányos, a szabályozási űrt a platformok önszabályozása tölti ki.

A közösségi platformok felhasználási feltételei, amelyek szerződéses kötelezettséget keletkeztetnek a felhasználók számára, már most szigorú előírásokat tartalmaznak. A Meta (Facebook, Instagram) szabályzata szerint a hirdetőknek kötelező nyilatkozniuk, ha társadalmi vagy politikai célú hirdetésükben fotorealisztikus, digitálisan létrehozott vagy módosított tartalmat használnak. A platform „Manipulált média” szabályzata alapján az „AI Info” címke alkalmazása kötelező, amennyiben a tartalom a valóságot megtévesztő módon imitálja. A TikTok „Integritás és hitelesség” irányelvei még szigorúbbak: előírják a „szintetikus média” kötelező megjelölését egy erre szolgáló kapcsolóval (toggle). A szabályzat értelmében minden realisztikus AI-tartalmat, amely nem tartalmazza ezt a jelölést, a platform eltávolíthat, sőt, a közszereplők képmását tartalmazó szintetikus tartalmak promotálását még jelölés mellett is tiltja. A YouTube szintén megköveteli a feltöltőktől a „szintetikus vagy módosított” tartalom jelzését a feltöltési folyamat során, különösen, ha az érzékeny témákat érint.

Források:

  • Európai Parlament és a Tanács (EU) 2024/1689 rendelete (AI Act) 50. cikk
  • Meta Transparency Center: Advertising Standards – AI disclosure
  • TikTok Community Guidelines: Integrity and Authenticity
  • YouTube Help: Altered or synthetic content policy
  1. Milyen jogi következményei vannak az olyan, AI által generált tartalmaknak, amelyek konkrét személyekről vagy szervezetekről állítanak vagy sugallnak valótlanságot? Pusztán vizuális eszközökkel is lehet valótlanságot állítani? Mit mondanak a közösségi platformok felhasználási feltételei az AI ilyen jellegű felhasználásáról?

Az AI által generált, konkrét személyekről vagy szervezetekről valótlanságot állító tartalmak (például deepfake videók, generált képek) polgári jogi és büntetőjogi felelősséget egyaránt megalapoznak. A Polgári Törvénykönyv (Ptk.) 2:45. §-a alapján a jóhírnév megsértését jelenti a valótlan tény állítása vagy híresztelése, illetve a valós tény hamis színben való feltüntetése. A magyar bírói gyakorlat és jogirodalom egységes abban az álláspontban, hogy pusztán vizuális eszközökkel is megvalósítható a tényállítás. Egy manipulált fotó vagy videó, amely egy politikust korrupciós helyzetben vagy más kompromittáló szituációban ábrázol, vizuális tényállításnak minősül. Ha a rögzített esemény a valóságban nem történt meg, a tartalom önmagában – kísérő szöveg nélkül is – jogsértő, és sérelemdíj, valamint elégtétel követelésére ad alapot.

Büntetőjogi szempontból a Büntető Törvénykönyv (Btk.) több tényállása is releváns. A rágalmazás (Btk. 226. §) mellett, amely a becsület csorbítására alkalmas tényállításokat szankcionálja, a jogalkotó bevezette a becsület csorbítására alkalmas hamis hang- vagy képfelvétel készítése (Btk. 226/A. §) bűncselekményt. Ez a tényállás kifejezetten a deepfake technológiára reagál: aki másról ilyen hamis felvételt készít vagy nyilvánosságra hoz, bűntett miatt három évig terjedő szabadságvesztéssel büntetendő. Ez a rendelkezés kiemeli a technológiai manipuláció súlyát a jogi értékelésben.

A közösségi platformok szabályzatai szigorúan tiltják az ilyen típusú tartalmakat. A Meta „Manipulált média” szabályzata alapján eltávolítják azokat a videókat, amelyeket AI-val úgy módosítottak, hogy az átlagembert megtéveszthetik, például olyan szavakat adva a célszemély szájába, amelyeket nem mondott. A YouTube „Félrevezető tartalom” irányelvei tiltják a választásokba való beavatkozásra alkalmas manipulált tartalmakat, és szankcionálják a csatornát, ha valós személyeket fiktív, kompromittáló helyzetben ábrázol. A TikTok kifejezetten tiltja a közszereplőkről készült megtévesztő szintetikus médiát, különösen, ha az politikai vagy pénzügyi támogatás megszerzésére irányul, még akkor is, ha a tartalom jelölve van.

Források:

  • 2013. évi V. törvény a Polgári Törvénykönyvről 2:45. §
  • 2012. évi C. törvény a Büntető Törvénykönyvről 226. §, 226/A. §
  • Meta Community Standards: Manipulated Media
  • YouTube Community Guidelines: Misinformation policy
  • TikTok Community Guidelines: Integrity and Authenticity
  1. Felhasználható más személyek képmása vagy hangja AI képek és videók készítéséhez? Milyen jogi feltételei vannak ennek?

A magyar jogrendszerben más személyek képmásának vagy hangjának felhasználása AI-alapú tartalomgeneráláshoz (klónozás, arccsere, generált avatár) szigorúan a rendelkezési jog és a hozzájárulás elvéhez kötött. A Polgári Törvénykönyv (Ptk.) 2:48. § (1) bekezdése rögzíti, hogy képmás vagy hangfelvétel elkészítéséhez és felhasználásához az érintett személy hozzájárulása szükséges. Ez a szabály technológia-semleges, tehát kiterjed a mesterséges intelligencia általi feldolgozásra is. A joggyakorlat szerint a hozzájárulásnak „kettősnek” kell lennie: nemcsak az eredeti felvétel elkészítésére kell vonatkoznia, hanem a konkrét felhasználási módra is. Tehát egy korábban jogszerűen készült fotó nem használható fel automatikusan egy AI algoritmus betanítására vagy egy deepfake videó alapanyagaként az alany külön, kifejezett engedélye nélkül.

A Ptk. 2:48. § (2) bekezdése kivételeket határoz meg, amelyek közül a politikai kommunikációban a „nyilvános közéleti szereplés” a legrelevánsabb. A közszereplők képmása a közéleti tevékenységükkel összefüggésben hozzájárulás nélkül is felhasználható. Azonban ez a kivétel nem biztosít korlátlan felhatalmazást az AI-alapú manipulációra. A bírói gyakorlat és az alkotmánybírósági határozatok (pl. 13/2014. (IV. 18.) AB határozat) értelmében a közszereplői minőség sem ad alapot a valóságot meghamisító, megtévesztő ábrázolásra. Ha egy AI-videó a politikust olyan cselekmény elkövetése közben ábrázolja, amely a valóságban nem történt meg (tehát nem a valós közéleti szereplését mutatja be, hanem egy fiktív realitást konstruál), az már nem esik a nyilvános közéleti szereplés vagy a szabad véleménynyilvánítás védelme alá. Az ilyen felhasználás jogsértő képmással való visszaélésnek és jóhírnévsértésnek minősül.

Továbbá, az arc és a hang a GDPR értelmében személyes adatnak (biometrikus azonosítás esetén különleges adatnak) minősül. Az AI-modellek tréningezése vagy a generálás során történő adatkezelés jogalap hiányában – amely leggyakrabban az érintett hozzájárulása – adatvédelmi jogsértést is megvalósít.

Források:

  • 2013. évi V. törvény a Polgári Törvénykönyvről 2:48. §
  • Európai Parlament és a Tanács (EU) 2016/679 rendelete (GDPR)
  1. Milyen jogi következményei lehetnek egy AI által generált hamis pártprogram közzétételének? Van-e különbség, ha a hamis dokumentumot egy magánszemély vagy ha egy szerkesztőség hozza nyilvánosságra?

Egy AI által generált hamis pártprogram közzététele, amely azt a látszatot kelti, mintha egy létező politikai szervezet hivatalos állásfoglalása lenne, súlyos jogi következményekkel jár, amelyek differenciálódnak a közzétevő személye és a felhasználás célja szerint.

Büntetőjogi szempontból a cselekmény megvalósíthatja a hamis magánokirat felhasználása (Btk. 345. §) vétségét. A bírói gyakorlat szerint magánokiratnak minősül minden olyan irat, amely jog vagy kötelezettség létezésének, megváltozásának vagy megszűnésének bizonyítására alkalmas. Ha a hamis programot valaki bizonyítási céllal használja fel (pl. hatósági eljárásban, vagy a választók megtévesztésére a párt kötelezettségvállalásait illetően), a bűncselekmény megállapítható. Továbbá, ha a cselekmény a választási eljárás során történik és a választók megtévesztésére alkalmas, felmerülhet a választás, népszavazás és európai polgári kezdeményezés rendje elleni bűncselekmény (Btk. 350. §) tényállása is.

Jelentős különbség van a felelősségre vonásban, ha a közzétevő magánszemély vagy szerkesztőség. A magánszemély felelőssége elsősorban a Btk. szerinti szándékosságon és a Ptk. szerinti felróhatóságon alapul (pl. jóhírnévsértés, névviselési jog sérelme). Ezzel szemben a szerkesztőséget (médiaszolgáltatót) az Smtv. 12. §-a és a polgári perrendtartás szabályai alapján objektív felelősség terheli a közölt tények valóságáért. Ha egy sajtószerv közzétesz egy AI-generált hamis pártprogramot, nem mentesülhet a felelősség alól arra hivatkozva, hogy ő is jóhiszeműen tévedett vagy „kiszivárgott” információt közölt. Köteles sajtó-helyreigazítást közzétenni, és a polgári perben sérelemdíj fizetésére kötelezhető. A szerkesztőségektől elvárt szakmai gondosság (fact-checking) elmulasztása – különösen egy ellenőrizhetően AI-generált dokumentum esetén – súlyosbító körülmény a kártérítés mértékének megállapításakor. A Nemzeti Média- és Hírközlési Hatóság (NMHH) továbbá a hiteles tájékoztatás követelményének megsértése miatt bírságot is kiszabhat.

Források:

  • 2012. évi C. törvény a Büntető Törvénykönyvről 345. §, 350. §
  • 2013. évi V. törvény a Polgári Törvénykönyvről 2:45. §, 2:49. §
  • 2010. évi CIV. törvény (Smtv.) 12. §
  1. Milyen jogi következményei vannak a szubjektíve sértő, valótlan állítást nem tartalmazó AI generálta szövegek vagy képek közzétételének? Önmagában a méltóságot és becsületet sértő, megalázó ábrázolás is lehet jogsértő?

Igen, a magyar joggyakorlat és az Alkotmánybíróság (AB) döntései alapján önmagában a megalázó, emberi méltóságot sértő ábrázolás is jogsértő lehet, függetlenül attól, hogy tartalmaz-e konkrét valótlan tényállítást. A védelem alapja a Polgári Törvénykönyv (Ptk.) 2:42. §-a, amely az emberi méltóságot abszolút jogként védi.

Az AB következetes gyakorlata (pl. 7/2014. (III. 7.) AB határozat, 13/2014. (IV. 18.) AB határozat) szerint a véleménynyilvánítás szabadsága nem terjed ki az emberi méltóság „érinthetetlen magjának” megsértésére. Ez azt jelenti, hogy az olyan AI által generált ábrázolások, amelyek a közszereplőt dehumanizálják – például állatként, tárgyként, vagy méltatlan, kiszolgáltatott helyzetben (pl. láncra verve, meztelenül) tüntetik fel –, jogellenesek. Az ilyen tartalmak nem a közügyek vitatásához járulnak hozzá, hanem a személy emberi mivoltának tagadását, az érintett dehumanizálását  valósítják meg, ami a legszélesebb körű közszereplői tűrési kötelezettség határait is átlépi. A Ptk. 2:44. § szerinti fokozott tűrési kötelezettség ugyanis csak a bírálatra és kritikára vonatkozik, nem az öncélú gyalázkodásra.

Büntetőjogi szempontból az ilyen cselekmény becsületsértésnek (Btk. 227. §) minősülhet, mivel a becsület csorbítására alkalmas kifejezés használata vagy cselekmény elkövetése tényállásszerű, még ha az nem is tényállítás. Különösen súlyos megítélés alá esnek az AI által generált, pornográf jellegű deepfake tartalmak (non-consensual intimate imagery), amelyek a Btk. 226/A. § szerinti becsület csorbítására alkalmas hamis felvétel készítése bűncselekményt valósítják meg, hiszen a hamisítás célja és eredménye a súlyos érdeksérelem és a megalázás.2 A jog tehát nem a szubjektív sértődést, hanem az objektív társadalmi normák szerinti emberi méltóság sérelmét szankcionálja.

Források:

  • 2013. évi V. törvény a Polgári Törvénykönyvről 2:42. §, 2:44. §
  • 2012. évi C. törvény a Büntető Törvénykönyvről 227. §, 226/A. §
  • 7/2014. (III. 7.) AB határozat
  1. Az olyan AI generálta tartalmak, amelyek nem konkrét személyre vagy szervezetre vonatkoznak, de valótlan tényt állítanak, megvalósíthatnak-e más jogsértést? Megvalósulhat-e rémhírterjesztés ilyen AI tartalmakkal?

Igen, a nem személyre szabott, de valótlan tényeket tartalmazó AI-tartalmak (például katasztrófákról, járványokról, közveszélyről szóló generált képek vagy hírek) súlyos közrend elleni bűncselekményeket valósíthatnak meg. A legrelevánsabb tényállások a rémhírterjesztés és a közveszéllyel fenyegetés.

A rémhírterjesztés (Btk. 337. §) megállapításához a magyar büntetőjog speciális szituációs elemeket követel meg: a cselekménynek közveszély színhelyén vagy különleges jogrend idején kell történnie. Ha valaki például egy árvíz vagy járvány idején AI-val generál egy élethű videót arról, hogy „átszakadt a gát” vagy „lezárták a várost”, és ezt nagy nyilvánosság előtt (az interneten) közzéteszi, azzal megvalósítja a bűncselekményt, amennyiben a tartalom alkalmas az emberek nagyobb csoportjában zavar vagy nyugtalanság keltésére. Az Alkotmánybíróság 15/2020. (VII. 8.) határozata megerősítette, hogy különleges jogrend idején a védekezés akadályozására alkalmas tudatosan valótlan tények közlése büntetendő, és az AI általi generálás a szándékosságot és a megtévesztő képességet erősítheti.

Ha nincs közveszély vagy különleges jogrend, a cselekmény közveszéllyel fenyegetésnek (Btk. 338. §) minősülhet. Aki a köznyugalom megzavarására alkalmas módon azt a valótlan tényt állítja (akár AI-generált hangfelvétellel vagy videóval), hogy közveszéllyel járó esemény (pl. robbantás) fog bekövetkezni, bűntettet követ el.

Továbbá, ha az AI-tartalom nem konkrét személyt, hanem egy védett csoportot (nemzet, etnikum, vallás) támad gyűlöletkeltő módon (pl. AI-videó fiktív bűncselekményekről, amelyeket egy kisebbség követett el), az közösség elleni uszítás (Btk. 332. §) tényállását is kimerítheti.

Források:

  • 2012. évi C. törvény a Büntető Törvénykönyvről 337. §, 338. §, 332. §
  • 15/2020. (VII. 8.) AB határozat
  1. Mi a jelentősége annak, ha a sértett fél közszereplő? Más megítélés alá esnek a jogsértések, ha azokat a választási kampány időszakában követik el?

A sértett közszereplői státusza és a cselekmény kampányidőszakban történő elkövetése alapvetően befolyásolja a jogi megítélést, tágítva a véleménynyilvánítás határait, de nem mentesít a szándékos hazugság tilalma alól.

A Ptk. 2:44. §-a rögzíti a közszereplők fokozott tűrési kötelezettségét. Az Alkotmánybíróság gyakorlata (36/1994. (VI. 24.) AB, 13/2014. (IV. 18.) AB) szerint a közszereplőkkel szemben a kritika és az értékítélet széles körben megengedett, azonban a valótlan tényállítás alkotmányos védelmet nem élvez. Mivel az AI által generált deepfake (pl. egy videó, ahol a politikus kenőpénzt fogad el) nem véleménynek, hanem vizuális tényállításnak minősül, és természete szerint hamis, a közszereplői minőség nem ad felmentést a jogsértés alól. A politikusnak nem kell tűrnie, hogy a technológia segítségével olyan tetteket tulajdonítsanak neki, amelyeket nem követett el.

A választási kampány időszakában a közügyek szabad vitatása kiemelt védelmet élvez. A bírói gyakorlat (pl. 5/2015. (II. 25.) AB határozat) szerint a kampányban a jelölteknek a szokásosnál is többet kell tűrniük, beleértve a túlzó, karikírozó ábrázolásokat is. Ugyanakkor a választási eljárásról szóló törvény (Ve.) 2. §-a szerinti alapelvek – különösen a választás tisztaságának megóvása és a jóhiszemű joggyakorlás – sérülnek, ha a választókat manipulált tartalmakkal tévesztik meg. A Nemzeti Választási Bizottság (NVB) joggyakorlata alapján a kampányban elkövetett, AI-val támogatott dezinformáció választási kifogás alapja lehet, amely gyorsabb jogorvoslatot (bírság, eltiltás) tesz lehetővé, mint a polgári perek. A kampányidőszak tehát nem legalizálja a deepfake-et, sőt, a demokratikus folyamat védelme miatt a hatóságok szigorúbban léphetnek fel a manipuláció ellen.

Források:

  • 2013. évi V. törvény a Polgári Törvénykönyvről 2:44. §
  • 2013. évi XXXVI. törvény a választási eljárásról (Ve.) 2. §
  • 5/2015. (II. 25.) AB határozat
  1. Az Európai Unió AI Act-je milyen előírásokat tartalmaz az AI felhasználásával kapcsolatban?

Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete (AI Act) kockázatalapú megközelítést alkalmazva szabályozza a mesterséges intelligenciát. A rendelet közvetlenül alkalmazandó lesz Magyarországon is, fokozatos hatálybalépéssel (a tiltások 2025 februárjától, a nagy kockázatú rendszerek szabályai 2026-tól élesednek).

  1. Tiltott AI-gyakorlatok (5. cikk): A rendelet tiltja az „elfogadhatatlan kockázatot” jelentő rendszereket. Ide tartozik a tudatalatti befolyásolásra alkalmas technikák (manipulatív AI) alkalmazása, amely torzítja a személy viselkedését, és a biometrikus kategorizálás politikai vélemény alapján. A szavazói magatartás tudatalatti manipulálása ebbe a kategóriába esik.
  2. Nagy kockázatú AI-rendszerek (6. cikk és III. melléklet): A rendelet III. mellékletének 8. pontja kifejezetten nagy kockázatúnak minősíti azokat az AI-rendszereket, amelyeket „természetes személyek választásokon vagy népszavazásokon leadott szavazatának vagy szavazói magatartásának befolyásolására” szánnak. Ezen rendszerek fejlesztőire és alkalmazóira szigorú megfelelési követelmények (kockázatkezelés, adatminőség, emberi felügyelet) vonatkoznak.
  3. Átláthatósági kötelezettségek (50. cikk): Ez a szakasz a legközvetlenebbül érinti a politikai kommunikációt. Az 50. cikk (4) bekezdése előírja, hogy az ún. „deepfake” tartalmakat (mesterségesen létrehozott vagy manipulált kép/hang/videó, amely valósnak tűnik) jól láthatóan és megkülönböztethetően meg kell jelölni. A tájékoztatásnak egyértelműnek kell lennie arról, hogy a tartalom mesterségesen generált.

Források:

  • Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete (AI Act): 5. cikk, 50. cikk, III. melléklet 8. pont.
  1. A közösségi platformok szabályzatai, felhasználási feltételei milyen további előírásokat tartalmaznak az AI által generált tartalmak terjesztésével kapcsolatban?

A globális közösségi platformok szabályzatai gyakran a jogszabályoknál részletesebb és gyorsabban érvényesíthető (soft law jellegű) előírásokat tartalmaznak, melyek megszegése a tartalom törlésével vagy a fiók tiltásával jár.

  • Meta (Facebook, Instagram, Threads): A hirdetési szabályzat előírja, hogy a társadalmi vagy politikai célú hirdetésekben kötelező feltüntetni, ha a hirdetésben fotorealisztikus, digitálisan létrehozott vagy módosított tartalmat használnak. A „Manipulált média” szabályzat alapján eltávolítják azokat a tartalmakat, amelyek megtévesztő módon lettek módosítva (pl. olyan szavakat adnak a beszélő szájába, amiket nem mondott), kivéve, ha az paródia vagy szatíra – de a politikai dezinformáció nem élvez ilyen védelmet. Az „AI Info” címke használata kötelező a realisztikus generált tartalmaknál.
  • YouTube: A feltöltőknek nyilatkozniuk kell az AI használatáról („Alterált vagy szintetikus tartalom”). A platform különösen szigorúan védi a választások integritását: ha egy videó manipulált módon ábrázol politikai eseményt vagy jelöltet, és ez a választók megtévesztésére alkalmas, azt eltávolítják, még akkor is, ha jelölve van. Emellett lehetővé teszik a „privacy complaint” eljárást, amellyel bárki kérheti az arcát vagy hangját utánzó AI-tartalom eltávolítását.
  • TikTok: A „Szintetikus és manipulált média” szabályzat előírja a címkézést. A platform tiltja a közszereplőkről (public figures) készült szintetikus médiát, ha azt támogató (endorsement) céllal vagy politikai hirdetésként használják. 

Források:

  • Meta Transparency Center: Advertising Standards
  • YouTube Help: Election misinformation policy
  • TikTok Community Guidelines: Synthetic and manipulated media