AI, deepfakes en fundamentele rechten

AI, deepfakes en fundamentele rechten

Deepfakes maken het mogelijk om beelden, audio en video zó realistisch te manipuleren dat ze lijken op echte opnames. Dat roept meteen een juridisch spanningsveld op tussen vrijheid van meningsuiting en bescherming van de persoonlijke levenssfeer en reputatie. In Europees verband draait dat vooral om artikel 10 EVRM en artikel 8 EVRM.

Artikel 10 EVRM beschermt het recht om informatie en ideeën te ontvangen en te verspreiden, ook als die uitingen kritisch of controversieel zijn. Artikel 8 EVRM beschermt het privéleven, de persoonsgegevens en in de praktijk ook iemands eer en goede naam. Bij deepfakes botsen die twee rechten vaak: de maker kan zich beroepen op expressievrijheid, terwijl de betrokkene bescherming zoekt tegen misleiding, reputatieschade of aantasting van de persoonlijke levenssfeer.

Juridisch kader

Het juridisch kader bestaat niet uit één enkele regel, maar uit een combinatie van mensenrechten, privacyrecht, civiel recht en sinds kort ook Europese AI-regels. In de praktijk wordt een deepfake meestal beoordeeld via een belangenafweging: is de uiting voldoende in het publieke belang, of weegt de bescherming van de betrokkene zwaarder? Daarbij spelen onder meer de context, de nauwkeurigheid, de bedoeling van de maker en de impact op degene die herkenbaar in beeld of geluid komt een rol.

Naast het EVRM kan ook het nationale recht bescherming bieden, bijvoorbeeld via onrechtmatige daad, privacyregels en in sommige gevallen portretrecht. Deze routes zijn belangrijke aanknopingspunten, juist omdat deepfakes niet altijd netjes in één bestaand wetsartikel passen.

Wat doet de AI Act?

De EU AI Act heeft deepfakes niet volledig verboden, maar kiest vooral voor transparantie. Artikel 50 verplicht aanbieders en gebruikers van bepaalde AI-systemen om AI-gegenereerde of gemanipuleerde inhoud herkenbaar te maken, en deepfakes moeten als artificieel gemeld worden. De AI Act definieert een deepfake als AI-gegenereerde of gemanipuleerde beeld-, audio- of videocontent die op echte personen, objecten, plaatsen of gebeurtenissen lijkt en daardoor als authentiek kan overkomen.

Gevolgen in de praktijk

De daadwerkelijke gevolgen zijn vooral dat makers, platforms en gebruikers zorgvuldiger moeten omgaan met AI-content. Wie een deepfake verspreidt, kan niet zomaar doen alsof het “maar een grap” is; er geldt in beginsel een verplichting om duidelijk te maken dat het om AI-gegenereerde of gemanipuleerde inhoud gaat.

Voor burgers betekent dit dat ze zich sterker kunnen verweren tegen deepfakes die hun reputatie, privacy of veiligheid schaden. Voor media, makers en organisaties betekent het dat ze sneller moeten nadenken over disclosure, verificatie en context, zeker wanneer content op sociale media wordt gedeeld. Tegelijk is de AI Act niet de ultieme oplossing: handhaving, watermarking en misbruik buiten beeld blijven vaak de echte knelpunten.

Conclusie

De juridische kern is dus dat artikel 10 EVRM de ruimte voor uiting beschermt, maar niet onbeperkt, en dat artikel 8 EVRM een sterke tegenkracht biedt wanneer deepfakes iemands privacy of reputatie schaden. De AI Act voegt daar een nieuw laagje aan toe door transparantie en labeling verplicht te stellen, maar laat de uiteindelijke afweging tussen vrijheid en bescherming in veel gevallen nog steeds over aan het bestaande recht en de rechter.