Vereiste AI-labeling vanaf 2 augustus 2026: Nieuwe transparantieverplichtingen voor bedrijven

Vanaf 2 augustus 2026 gelden er in heel Europa nieuwe etiketteringsvereisten voor door AI gegenereerde content. Bedrijven, bureaus en andere aanbieders die kunstmatige intelligentie gebruiken om tekst, afbeeldingen, video's of audiocontent te creëren of te bewerken en deze openbaar te verspreiden, zijn verplicht dit duidelijk en ondubbelzinnig aan te geven. 

Het doel van de regelgeving is om consumenten te beschermen tegen verwarring tussen AI-content en echte, door mensen gegenereerde informatie. 

In het volgende artikel leggen we uit wanneer u onder de AI-regelgeving valt en hoe u zich tegen sancties kunt beschermen.

Welke bedrijven worden getroffen door de AI-regelgeving?

De EU-verordening inzake kunstmatige intelligentie (AI-VO) is in principe van toepassing op alle bedrijven die kunstmatige intelligentie ontwikkelen, leveren of gebruiken, mits de AI-systemen in de EU worden gebruikt of de resultaten ervan gevolgen hebben voor personen binnen de EU. Dit omvat niet alleen IT-bedrijven, maar ook bedrijven die AI gebruiken voor doeleinden zoals marketing, personeelsplanning, klantcommunicatie of contentcreatie.

De AI-regelgeving maakt onderscheid tussen verschillende juridische rollen, elk met eigen specifieke verplichtingen. Deze rollen kunnen variëren afhankelijk van het type gebruik. Als bijvoorbeeld een geïmporteerde AI-component wordt geïntegreerd in de eigen software van het bedrijf en onder eigen naam wordt gedistribueerd, wordt het bedrijf juridisch gezien als leverancier beschouwd.

Aanbieders ontwikkelen zelf AI-systemen of laten deze ontwikkelen en brengen ze onder hun eigen naam op de markt. Ze moeten onder andere voldoen aan de AI-regelgeving, risicoanalyses uitvoeren en technische documentatie aanleveren.

Exploitanten gebruiken AI-systemen als onderdeel van hun bedrijfsactiviteiten. Ze zijn gebonden aan etiketterings- en transparantieverplichtingen, met name met betrekking tot door AI gegenereerde content of deepfakes.

Importeurs en handelaren hebben ook de verplichting om inspecties uit te voeren, informatie te verstrekken en de nodige zorgvuldigheid te betrachten.

Belangrijk: Er bestaat geen algemene vrijstelling voor het mkb. De enige uitzonderingen zijn puur privégebruik, niet-professioneel gebruik en specifieke gebieden zoals gedefinieerd in artikel 2 van de AI-verordening.

Risicogroepen onder de AI-regelgeving: welke AI-toepassingen worden specifiek gereguleerd?

De EU-verordening inzake kunstmatige intelligentie (AI-verordening) deelt AI-systemen in in zogenaamde risicogroepen. De doorslaggevende factor is het potentiële risico voor de gezondheid, veiligheid en grondrechten dat een AI-toepassing met zich meebrengt. Hoe hoger het risico, hoe strenger de wettelijke eisen voor aanbieders en exploitanten.

AI-systemen met een onaanvaardbaar risico

Tot de ontoelaatbare AI-systemen behoren met name toepassingen die onverenigbaar zijn met de grondrechten van de Europese Unie. Voorbeelden hiervan zijn sociale scoremodellen, systemen voor gerichte cognitieve of gedragsmatige manipulatie van individuen en methoden voor emotieherkenning op de werkplek. Het gebruik van dergelijke AI-toepassingen is verboden volgens de EU-wetgeving en dat is al zo sinds [datum ontbreekt]. Volledig verboden vanaf 2 februari 2025..

AI-systemen met een hoog risico

Hoogrisico AI-systemen zijn systemen die een aanzienlijke impact hebben op de gezondheid, veiligheid of fundamentele rechten van individuen. Dit geldt met name voor AI-toepassingen in gevoelige sectoren zoals de geneeskunde, transport, personeelsmanagement, onderwijs en de financiële sector. Voorbeelden hiervan zijn AI-systemen voor het evalueren van MRI-beelden of voor het analyseren en beoordelen van leningaanvragen. Het gebruik van dergelijke hoogrisico AI is onderworpen aan strenge wettelijke eisen, waaronder uitgebreide risicobeoordelingen, het waarborgen van transparantie, een hoge technische robuustheid en effectief menselijk toezicht.

AI-systemen met beperkt risico

Deze AI-systemen communiceren direct met mensen en vormen daarom een beheersbaar risico. Typische toepassingen zijn chatbots in de klantenservice. Voor dergelijke systemen gelden transparantieverplichtingen: gebruikers moeten duidelijk en ondubbelzinnig worden geïnformeerd dat ze met een AI communiceren en niet met een mens.

AI-systemen met minimaal risico

Deze categorie omvat alledaagse AI-toepassingen zonder significant risico. Voorbeelden zijn spelling- en grammaticacontroleprogramma's, spamfilters en AI-gestuurde spellen. Voor dergelijke systemen gelden geen aanvullende wettelijke verplichtingen; alleen vrijwillige naleving van gedragscodes wordt aanbevolen.

Gebruik en integratie van basismodellen (GPAI-systemen) conform de AI-regelgeving.

De EU-verordening inzake kunstmatige intelligentie (AI-VO) bevat specifieke regels voor zogenaamde GPAI-systemen (General Purpose Artificial Intelligence), ook wel basismodellen genoemd. Dit zijn AI-systemen met een algemeen doel, getraind op grote datasets en flexibel inzetbaar voor diverse taken. GPAI-systemen kunnen ook worden geïntegreerd in andere AI-toepassingen en kunnen, afhankelijk van hun toepassingsgebied, in verschillende risicocategorieën vallen. Een bekend voorbeeld van een GPAI-systeem is ChatGPT.

De AI-regelgeving maakt onderscheid tussen GPAI zonder systeemrisico en GPAI met systeemrisico. Het laatste is van toepassing wanneer een AI-systeem bijzonder krachtig is, op grote schaal wordt ingezet en aanzienlijke gevolgen kan hebben voor de economie, de samenleving of de veiligheid. In deze gevallen gelden strengere regelgeving.

Dit onderscheid betreft met name aanbieders van GPAI-systemen, die mogelijk onderworpen zijn aan aanvullende verplichtingen op het gebied van documentatie, transparantie en risicobeperking. Voor exploitanten of gebruikers van GPAI-systemen – dat wil zeggen bedrijven die dergelijke AI-modellen gebruiken of integreren – legt de AI-verordening geen afzonderlijke, specifieke verplichtingen op. De algemene rol- en gebruiksverplichtingen onder de AI-verordening blijven van toepassing.

Toezicht en sancties in het kader van de AI-regelgeving.

De EU-verordening inzake kunstmatige intelligentie (AI-verordening) voorziet in nationaal toezicht op het gebruik van AI-systemen. Elke EU-lidstaat is verplicht bevoegde toezichthoudende autoriteiten aan te wijzen waaraan mogelijke schendingen van de AI-verordening kunnen worden gemeld en vervolgd. 

Bedrijven moeten er daarom rekening mee houden dat hun AI-toepassingen in de toekomst onderworpen zullen zijn aan regelgevend toezicht. Overtredingen zullen leiden tot zware sancties: boetes kunnen oplopen tot € 35 miljoen of tot 7 miljoen van de wereldwijde jaaromzet van een bedrijf, afhankelijk van welk bedrag hoger is. 

Daarom wordt een vroegtijdige juridische toetsing van het gebruik van AI ten zeerste aanbevolen.

Inwerkingtreding van de AI-verordening en de bijbehorende overgangsperioden

De EU-verordening inzake kunstmatige intelligentie (AI-verordening) is formeel van kracht sinds 1 augustus 2024. De praktische toepassing ervan zal echter geleidelijk over meerdere jaren worden ingevoerd om bedrijven de nodige tijd te geven om interne processen, systemen en nalevingsstructuren aan te passen. De volgende belangrijke data zijn in dit verband van belang:

Van de 2 februari 2025 Het gebruik van AI-systemen die een onaanvaardbaar risico vormen, is verboden. Dit geldt met name voor toepassingen die onverenigbaar zijn met de grondrechten van de Europese Unie. Tegelijkertijd zijn bedrijven verplicht ervoor te zorgen dat de personen die betrokken zijn bij het gebruik van AI-systemen over voldoende expertise en toepassingsvaardigheden beschikken.

Voor de 2 augustus 2026 Voor het eerst treden de specifieke regels voor algemene AI-systemen (GPAI) in werking. Deze omvatten met name zogenaamde basismodellen, zoals die gebruikt worden in grote taalmodellen. Tegelijkertijd markeert deze datum het moment waarop de AI-regelgeving in principe volledig van toepassing is.

Voor bepaalde AI-systemen met een hoog risico voorziet de wetgever echter in een verlengde overgangsperiode. In deze gevallen gelden de bijbehorende verplichtingen pas vanaf [datum]. 2 augustus 2027.

Een vroege juridische beoordeling wordt aanbevolen om implementatie- en aansprakelijkheidsrisico's te minimaliseren.

Welke aanvullende zaken moet er in overweging worden genomen bij het gebruik van AI?

Naast de EU-verordening inzake kunstmatige intelligentie (AI-VO) moeten bedrijven bij het gebruik van kunstmatige intelligentie voldoen aan andere wettelijke vereisten. Met name het arbeidsrecht, de gegevensbescherming en het intellectueel eigendomsrecht (auteursrecht en merkenrecht) zijn relevant.

In het arbeidsrecht biedt AI talrijke toepassingen, met name in werving en selectie en personeelsmanagement, zoals het opstellen van vacatures, het vooraf selecteren van kandidaten en interne communicatie. Tegelijkertijd bestaan er risico's in het kader van de Algemene Wet Gelijke Behandeling (AGG), aangezien AI-systemen discriminerende patronen kunnen overnemen uit hun trainingsdata. Menselijk toezicht op de resultaten is daarom essentieel. 

Bovendien beperkt artikel 22 van de AVG het gebruik van volledig geautomatiseerde besluitvorming: personeelsbeslissingen mogen niet uitsluitend door AI worden genomen.

Ook de medezeggenschapsrechten van de ondernemingsraad kunnen worden aangetast, bijvoorbeeld op grond van artikel 87 lid 1 nr. 6 van de Ondernemingswet, met name als AI wordt gebruikt voor het monitoren van prestaties of gedrag.

Volgens de auteursrechtwetgeving is puur door AI gegenereerde content over het algemeen niet beschermd. Bescherming kan echter wel ontstaan als AI alleen wordt gebruikt ter ondersteuning van andere functies. Daarnaast moeten de gebruiksvoorwaarden van de AI-tools en mogelijke inbreuken op handelsmerken worden onderzocht.

Ten slotte zijn er etiketteringsvereisten, met name voor deepfakes of door AI gegenereerde content die mogelijk misleidend is. Een juridische beoordeling wordt daarom aanbevolen.

Aanbevelingen voor bedrijven over het gebruik van AI

Bedrijven moeten tijdig organisatorische en juridische maatregelen nemen om te voldoen aan de eisen van de EU-verordening inzake kunstmatige intelligentie (AI-verordening). Een belangrijke eis is dat werknemers die AI-systemen gebruiken of monitoren, voldoende kennis van AI hebben. Daarnaast wordt de invoering van een intern AI-beleid aanbevolen, waarin gebruiksbeperkingen, verantwoordelijkheden en wettelijke vereisten duidelijk worden vastgelegd. Hierbij moet rekening worden gehouden met de bestaande medezeggenschapsrechten van de ondernemingsraad. Hieronder volgen de belangrijkste aanbevelingen:

Bedrijven moeten eerst een uitgebreide inventarisatie maken van alle ingezette AI-systemen en deze indelen in de juiste risicoklassen en hun specifieke rol volgens de AI-regelgeving. Op basis hiervan moet de naleving van de wettelijke vereisten worden gewaarborgd. Er gelden uitgebreide verplichtingen, met name bij het gebruik van AI-systemen met een hoog risico, bijvoorbeeld met betrekking tot risicobeoordelingen, effectieve controlemechanismen en gedetailleerde documentatievereisten.

Bovendien zijn een hoge mate van transparantie en een gedegen documentatie essentieel. Duidelijke documentatie is vereist om tijdens officiële audits aan te tonen dat aan de AI-regelgeving wordt voldaan. Daarnaast dienen bedrijven regelmatig trainingen en bewustwordingscampagnes te organiseren om ervoor te zorgen dat werknemers bekend zijn met de wettelijke en praktische vereisten en deze correct kunnen toepassen in hun dagelijkse werkzaamheden.

De AI-regelgeving heeft tot doel het verantwoord en veilig gebruik van AI te waarborgen. Bedrijven die zich tijdig voorbereiden, verminderen niet alleen de aansprakelijkheid en het risico op boetes, maar versterken ook het vertrouwen van klanten en zakenpartners.

Laat uw AI-implementatie juridisch beoordelen. Wij helpen u graag bij de classificatie van uw AI-systemen, het opstellen van een AI-beleid en de praktische implementatie van de AI-regelgeving. Plan nu een gratis consult in.