T-80 voor AI-transparantie: de 5 valkuilen om te vermijden

Article 50 AI Act transparence IA - lignes directrices Commission europeenne mai 2026

De Europese Commissie heeft zopas haar ontwerprichtsnoeren over artikel 50 van de AI-verordening gepubliceerd. Analyse — voor advocaten, DPO’s, communicatieteams en productverantwoordelijken.

Waarom dit artikel u aanbelangt, ook als u “niets met AI doet”

Op 2 augustus 2026, over ongeveer 80 dagen, wordt artikel 50 van Verordening (EU) 2024/1689 (de “AI-verordening”) van toepassing. Vier afzonderlijke transparantieverplichtingen treden gelijktijdig in werking voor zowat alles wat — ook van veraf — lijkt op een AI-systeem in contact met een mens.

Op 8 mei 2026 heeft de Europese Commissie (AI Office, DG CONNECT) een ontwerprichtsnoer van 40 pagina’s ter consultatie gelegd dat eindelijk antwoord geeft op de vraag die juristen en productteams echt bezighoudt: wat is concreet voldoende en wat niet?

Let op: het betreft op dit moment een ontwerprichtsnoer, niet-bindend, in publieke consultatie. De definitieve tekst kan evolueren. Deze analyse weerspiegelt de huidige stand en zal worden bijgewerkt na aanneming van de definitieve versie.

Hieronder leest u wat het ontwerp zegt, vertaald in operationeel Nederlands, met de vijf valkuilen die zich reeds aftekenen.

1. Vier verplichtingen, geen één — en ze kunnen cumuleren

Artikel 50 gaat niet enkel over deep fakes. Het bevat vier onderscheiden verplichtingen, die cumulatief op eenzelfde systeem van toepassing kunnen zijn.

ArtikelWie?Wat?Wanneer?
50(1)Aanbieder (provider)De persoon informeren dat hij met een AI interageertInteractief systeem (chatbot, spraakassistent, AI-agent, conversationele robot)
50(2)AanbiederDe inhoud markeren in een machineleesbaar formaat + een detectie-instrument aanbiedenGeneratie/manipulatie van beeld, geluid, video of tekst
50(3)Gebruiksverantwoordelijke (deployer)De aan het systeem blootgestelde persoon informerenEmotieherkenning of biometrische categorisering
50(4)GebruiksverantwoordelijkeDe inhoud duidelijk en waarneembaar labelenDeep fakes + teksten gepubliceerd over aangelegenheden van algemeen belang

Belangrijk: één en dezelfde dienst kan onder verschillende regimes vallen. De aanbieder van het systeem draagt, naargelang het geval, de verplichtingen van 50(1) en 50(2). De onderneming die de outputs gebruikt of publiceert, kan op haar beurt gebruiksverantwoordelijke zijn op grond van 50(3) of 50(4), of zelfs aanbieder als zij het systeem op de markt brengt of in gebruik stelt onder haar eigen naam of merk.

Artikel 50(5) voegt een horizontale laag toe: de informatie moet duidelijk, onderscheidbaar en uiterlijk op het tijdstip van de eerste interactie of blootstelling worden verstrekt, en moet voldoen aan de toepasselijke toegankelijkheidsvereisten (met name Richtlijn 2019/882).

2. De 5 valkuilen om nu al te vermijden

Valkuil nr. 1 — Denken dat de vermelding in de algemene voorwaarden volstaat

Het is de natuurlijke reflex van juristen: drie regels onderaan het contract en het probleem is opgelost.

Wat de Commissie zegt (§35 van het ontwerp): een vermelding die enkel in de algemene voorwaarden, in een URL of in de documentatie staat, volstaat niet om de verplichting van artikel 50(1) te vervullen. Zij kan een zichtbare kennisgeving aanvullen, maar nooit vervangen.

De toets: indien de gebruiker de vermelding niet waarneemt op het ogenblik van de interactie, vervult zij de doelstelling van de AI-verordening niet.

Valkuil nr. 2 — “Dit systeem maakt gebruik van een LLM” schrijven

Het is de klassieke fout van softwareleveranciers die menen transparant te zijn door hun technische stack te benoemen.

Wat de Commissie zegt (§35 van het ontwerp): technische of capaciteitgerichte beschrijvingen (“this system uses LLMs”) vervullen de verplichting niet. Ze leggen noch de functie van het systeem uit, noch de gevolgen voor de gebruiker, noch — vooral — de artificiële, niet-menselijke oorsprong ervan.

De regel: de gebruiker moet begrijpen dat hij met een AI interageert, niet welk model u heeft gekozen.

Valkuil nr. 3 — Het label op het einde plaatsen

Vele AI-ondersteunde audiovisuele producties voegen een disclaimer toe in de aftiteling of in een colofon onderaan de pagina.

Wat de Commissie zegt (§132 en de voorbeelden van het ontwerp): de openbaarmaking moet plaatsvinden uiterlijk op het tijdstip van de eerste interactie of blootstelling. Een vermelding in de aftiteling of aan het einde van een gesprek voldoet niet aan artikel 50(5). Bij continue uitzendingen (live, podcast) moet de initiële openbaarmaking worden aangevuld met periodieke herinneringen voor kijkers die later instappen.

Valkuil nr. 4 — Denken dat machineleesbare markering volstaat

Een C2PA-cryptografisch watermerk, een schone metadata-embedding — technisch elegant. Voor artikel 50(2) is dit vereist. Maar voor artikel 50(1)?

Wat de Commissie zegt (§35 van het ontwerp): een machineleesbare markering is niet waarneembaar voor de gebruiker op het ogenblik van de interactie. Zij kan dus de informatieverplichting van artikel 50(1) niet vervullen. Een rechtstreeks waarneembare tekstuele, auditieve of visuele vermelding is vereist.

En ten aanzien van artikel 50(2) zelf laat de Commissie een bom vallen (§78 van het ontwerp):

“Bij de huidige stand van de techniek voldoet geen enkele afzonderlijke markerings- en detectietechniek gelijktijdig aan alle vier de vereisten [doeltreffendheid, betrouwbaarheid, robuustheid, interoperabiliteit] op het wettelijk vereiste niveau.”

Rechtstreeks gevolg: u dient meerdere technieken te combineren (watermerk, cryptografische handtekening, metadata, fingerprinting). Een onzichtbare tatoeage alleen zal een controle niet doorstaan.

Valkuil nr. 5 — De “banner blindness” onderschatten

Het ontwerp (§36) erkent het fenomeen uitdrukkelijk: te opdringerige of te frequente kennisgevingen tasten de doeltreffendheid van de transparantie aan en wekken een gewenning op die het regelgevende doel ondermijnt.

De impliciete boodschap: conformiteit is geen copy-paste van een cookiebanner v2. Het is een oefening in ervaringsdesign, afgestemd op de gebruikscontext en het doelpubliek. De Commissie beveelt uitdrukkelijk (§34) een multimodale aanpak aan: combineer tekst, geluid en visuele aanduidingen voor gevoelige situaties.

3. De uitzonderingen die alles veranderen (en die niemand redden)

Voor professionele chatbots: de uitzondering “evident”

Een code-assistent die uitsluitend toegankelijk is voor professionele ontwikkelaars hoeft zich niet als AI bekend te maken (§42). Hetzelfde geldt voor een diagnose-ondersteuningstool voorbehouden aan opgeleide zorgverleners, of voor een NPC in een videogame.

Daarentegen genieten een robotgezelschapsdier dat sterk op een echt dier lijkt, een realistisch menselijk avatar in een immersieve omgeving of een helpdesk-chatbot niet van de uitzondering: zij moeten zich bekendmaken.

Voor de pers: de uitzondering “redactionele controle”

Dit is het cruciale punt voor mediabedrijven. Artikel 50(4), tweede alinea, stelt door AI gegenereerde of gemanipuleerde tekst vrij wanneer twee cumulatieve voorwaarden zijn vervuld (§125-128):

  1. De tekst is onderworpen aan een menselijke beoordeling of redactionele controle door een persoon die over de relevante deskundigheid en het professionele oordeel beschikt — geen loutere spellingcontrole.
  2. Een natuurlijke persoon of rechtspersoon neemt de redactionele verantwoordelijkheid op zich; haar identiteit en contactgegevens moeten publiek toegankelijk zijn.

Een “oppervlakkige redactionele goedkeuring” of het loutere bestaan van een redactiestatuut volstaan niet. De redactionele verantwoordelijkheid moet worden geïnterpreteerd in lijn met de Europese verordening inzake mediavrijheid (Verordening (EU) 2024/1083, art. 2(8)).

Voor particulieren: de uitzondering “zuiver persoonlijk gebruik”

Het voorbeeld van de Commissie is sprekend (§17):

  • Kerstkaart met een deep fake van familieleden → uitgesloten van de AI-verordening, geen labeling vereist.
  • Deep fake van de burgemeester op sociale media om een lokale beslissing te bekritiseren → niet gedekt door de uitzondering; de invloed op het publieke debat ontneemt het “zuiver persoonlijke” karakter.

De uitsluiting dekt enkel de verplichtingen van de gebruiksverantwoordelijke. De aanbieder van het systeem blijft verplicht om in een machineleesbaar formaat te markeren.

4. De kruisverbanden die u niet mag missen

AI-verordening × AVG

Artikel 50 vervangt de informatieverplichtingen van de AVG (artikelen 13-14) niet, evenmin als artikel 22 over geautomatiseerde individuele besluitvorming. De Commissie heeft trouwens aangekondigd (voetnoten 24 en 29 van het ontwerp) dat zij samen met het EDPB gezamenlijke richtsnoeren voorbereidt over de wisselwerking tussen de AI-verordening en het EU-gegevensbeschermingsrecht.

Concreet voorbeeld: een emotieherkenningssysteem ingezet in een winkel vereist:

  • De informatie van artikel 50(3) AI-verordening (u wordt blootgesteld aan een emotieherkenningssysteem);
  • De informatie van artikelen 13-14 AVG (verwerkingsverantwoordelijke, doel, rechtsgrond, bewaartermijn, rechten);
  • Indien biometrische gegevens worden verwerkt om een persoon te identificeren: artikel 9 AVG;
  • Op de werkvloer of in onderwijssituaties: verbod krachtens artikel 5(1)(f) AI-verordening.

Het ontwerp staat toe deze informatie te bundelen in één enkele privacyverklaring waar dit relevant is (§104).

AI-verordening × DSA

Voor zeer grote onlineplatformen (VLOP’s/VLOSE’s) voorziet artikel 35(1)(k) DSA in een aanvullend etiketteringsmechanisme voor gemanipuleerde inhoud. Belangrijker nog: niet-gemarkeerde inhoud in strijd met artikel 50 AI-verordening kan worden gekwalificeerd als illegale inhoud in de zin van artikel 3(h) DSA, hetgeen de notice-and-takedown-mechanismen activeert (§91 van het ontwerp).

AI-verordening × naburige rechten, merken, portretrecht

Het verzachte regime voor artistieke, satirische, creatieve of fictionele werken (§116) ontslaat niet van de toepassing van andere wetgeving: auteursrecht, merkenrecht, portret- en stemrecht. Een deep fake die “geoorloofd” is op grond van de AI-verordening, kan onrechtmatig zijn op grond van het nationale persoonlijkheidsrecht.

5. Wat te doen in de komende dagen

Een redelijke routekaart voor een advocatenkantoor, een softwarebedrijf of een productteam:

  1. In kaart brengen. Identificeer alle AI-systemen in rechtstreeks of onrechtstreeks contact met een mens, intern en extern. Maak onderscheid tussen de rol van aanbieder en gebruiksverantwoordelijke (artikel 50 verdeelt de verplichtingen verschillend naargelang de rol).
  2. Kwalificatie. Voor elk: 50(1), 50(2), 50(3), 50(4)? Meerdere gestapeld?
  3. Toets van de uitzonderingen. “Evidentie” toepasselijk? Strafrechtelijke wetshandhaving? Zuiver persoonlijk gebruik? Standaardredactie?
  4. Ontwerp van de kennisgeving. Duidelijke tekst, eerste interactie, toegankelijk, multimodaal in gevoelige contexten. Geen vermelding enkel in de algemene voorwaarden. Geen technische beschrijving. Geen label in de aftiteling.
  5. Voor 50(2): kies een combinatie van technieken op basis van erkende of opkomende standaarden en praktijken, met name C2PA / Content Credentials, ondertekende metadata, watermarking, fingerprinting, en de standaarden die zullen worden weerhouden of weerspiegeld in de Code of Practice over marking & labelling die door de Commissie wordt aangekondigd — dit is de voorkeursweg om naleving aan te tonen.
  6. Gap analysis en documentatie. Niet-ondertekenaars van de Code of Practice zullen zelf hun technische keuzes moeten documenteren en verantwoorden ten aanzien van de markttoezichtautoriteiten.
  7. AVG-afstemming. Stem de kennisgevingen van artikel 50 af op de informatieverplichtingen van de AVG. Anticipeer op de gezamenlijke richtsnoeren Commissie/EDPB.

Slotbedenking

Artikel 50 van de AI-verordening is geen verafgelegen, abstracte of louter technische verplichting. Op 80 dagen van zijn toepassing raakt het zowat elke organisatie die een conversationele assistent inzet, visuele of auditieve inhoud met AI-ondersteuning genereert, of analyses publiceert over aangelegenheden van algemeen belang met algoritmische bijstand.

De publieke consultatie over het ontwerp loopt. Het is het moment om bij te dragen — of, bij gebrek daaraan, om zich ernstig voor te bereiden op 2 augustus.


Bronnen

  • Europese Commissie (AI Office), Draft Guidelines on the implementation of the transparency obligations for certain AI systems under Article 50 of Regulation (EU) 2024/1689, mei 2026 (in consultatie).
  • Verordening (EU) 2024/1689 van 13 juni 2024 (AI-verordening), CELEX 32024R1689 — artikelen 3, 5, 6, 50, 85, 96, 113; overwegingen 132 tot 136. Volledige tekst.
  • Verordening (EU) 2016/679 van 27 april 2016 (AVG), artikelen 13, 14, 22, 35.
  • Verordening (EU) 2022/2065 van 19 oktober 2022 (DSA), artikelen 3(h), 16, 34, 35.
  • Verordening (EU) 2024/1083 van 11 april 2024 (European Media Freedom Act), artikel 2(8).
  • Richtlijn (EU) 2005/29/EG (oneerlijke handelspraktijken).
  • Richtlijn (EU) 2019/882 (toegankelijkheid).
  • Europese Commissie, Guidelines on prohibited artificial intelligence practices, C(2025) 5052.

Mr. Jeoffrey Vigneron is advocaat aan de balie van Brussel en oprichter van Lawgitech, het eerste Belgische kantoor gespecialiseerd in het recht van de artificiële intelligentie. Hij begeleidt ondernemingen en instellingen op het vlak van de AI-verordening, de AVG en de cybersecurityregelgeving.

Dit artikel weerspiegelt de stand van het recht op 12 mei 2026 en is gebaseerd op een nog niet aangenomen ontwerprichtsnoer. Het vormt geen juridisch advies.

En savoir plus sur Lawgitech

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture