Vanaf vandaag zijn in Europa strengere regels van kracht voor hoogwaardige AI-systemen zoals ChatGPT en Gemini. Maar wat houdt deze regelgeving precies in – en welke impact kan worden verwacht?
Kritiek komt onder meer van auteurs, artiesten en producers uit de muziek- en video-industrie. Ze klagen dat AI-systemen zijn getraind op hun auteursrechtelijk beschermde werken – en nu met hen concurreren met automatisch gegenereerde teksten, afbeeldingen, muziek of video's.
De nieuwe EU-wetgeving wil deze zorgen aanpakken: aanbieders van grote AI-modellen moeten in de toekomst bekendmaken welke internetbronnen zij gebruiken om hun systemen te trainen – vooral als deze auteursrechtelijk beschermde content bevatten.
Rechtsgeleerde Philipp Hacker van de Europese Universiteit Viadrina legt uit: "Deze regelgeving zou vooral relevant zijn als aanbieders daadwerkelijk zouden toegeven dat ze gebruik hebben gemaakt van zogenaamde schaduwdatabases – platformen die illegaal auteursrechtelijk beschermd materiaal aanbieden." Vrijwillige openheid is echter nauwelijks te verwachten.
EU-regelgeving is gericht op het voorkomen van juridische geschillen
Een recente zaak uit de VS illustreert de risico's waarmee AI-bedrijven te maken hebben: drie auteurs hebben het bedrijf Anthropic aangeklaagd omdat ze naar verluidt hun boekinhoud hebben gebruikt om het AI-model Claude zonder toestemming te trainen. De rechtbank heeft de claim toegewezen. De exacte hoogte van de schadevergoeding is nog niet bekend, maar volgens advocaat Philipp Hacker zou deze kunnen oplopen tot honderden miljarden.
Dergelijke rechtszaken zouden in de toekomst ook in Europa kunnen toenemen, meent Hacker. De nieuwe EU-regelgeving is echter bedoeld om dergelijke geschillen te voorkomen: aanbieders van krachtige AI-systemen moeten in de toekomst gestandaardiseerd bewijs leveren dat hun trainingsmethoden compatibel zijn met de Europese auteursrechtwetgeving.
EU-commissaris voor Digitale Zaken Henna Virkkunen benadrukt dat dit niet alleen rechthebbenden beschermt, maar ook bedrijven zelf ten goede komt: "Daarmee creëren we rechtszekerheid voor innovatie en investeringen." Hoewel veel landen nog geen vergelijkbare regels hebben, geeft de EU hiermee bewust een signaal af: "We laten ontwikkelaars duidelijk zien wat er van hen verwacht wordt – en vereenvoudigen zo het proces."
Uitgebreide veiligheidseisen voor AI-systemen
Sinds februari verbiedt de EU-AI-wet het gebruik van gezichtsherkenning in de openbare ruimte principieel. Ook het gebruik van AI-systemen voor zogenaamde "social scoring", oftewel de beoordeling van mensen op basis van hun sociale gedrag, is verboden.
De huidige uitbreidingen van de regelgeving voegen nu extra beveiligingsvereisten toe voor zogenaamde General Purpose AI (GPAI) – dat wil zeggen grote, veelzijdige AI-modellen zoals GPT-4 (OpenAI), Llama (Meta) of Claude 4 (Anthropic), die vaak de technologische basis vormen voor veel AI-toepassingen.
"In de toekomst zullen deze modellen een beveiligingscontrole moeten ondergaan die vergelijkbaar is met een stresstest", legt rechtsgeleerde Philipp Hacker uit. Deskundigen zullen de potentiële schade van de systemen analyseren. Bedrijven zijn verplicht concrete maatregelen te nemen om misbruik te voorkomen, bijvoorbeeld door middel van technische beschermingsmechanismen en transparante beveiligingsconcepten.
VS volgt tegenovergestelde koers – focus op deregulering
Het implementeren van de nieuwe EU-regelgeving op het gebied van kunstmatige intelligentie is een uitdaging: met behulp van wetenschappelijke expertise heeft de Europese Commissie een 'Gedragscode' ontwikkeld: een praktische gids die bedrijven moet helpen de wettelijke vereisten op een zinvolle manier in hun dagelijks leven te implementeren.
Bedrijven die zich aan deze vrijwillige gedragscode houden, profiteren van minder rapportageverplichtingen. De brede vrijwillige deelname van grote Amerikaanse technologiebedrijven is echter twijfelachtig: Meta AI heeft al aangegeven niet mee te willen doen.
De reden: de politieke benaderingen aan beide zijden van de Atlantische Oceaan lopen steeds verder uiteen. Terwijl de EU zich inzet voor regulering en transparantie, volgen de VS – vooral onder Donald Trump – een tegenovergestelde strategie. Direct na zijn aantreden heeft Trump de AI-regelgeving van zijn voorganger Joe Biden ingetrokken.
Met zijn nieuwe AI-plan zet Trump nu expliciet in op deregulering: staten die hun eigen strenge AI-wetten invoeren, zullen in de toekomst geen federale financiering meer ontvangen. Het doel, zegt Trump, is om "het grootste en snelste AI-ecosysteem ter wereld" te creëren.
Wat gebeurt er als de nieuwe AI-regels worden overtreden?
Eén ding is zeker: iedereen die actief wil zijn op de Europese markt, met zijn circa 450 miljoen consumenten, moet zich nu houden aan de nieuwe EU AI-wetgeving. Bedrijven die zich niet aan de richtlijnen willen houden, moeten op andere manieren aan de wettelijke eisen voldoen.
Een overgangsperiode van een jaar moet bedrijven de kans geven hun processen hierop aan te passen. Vanaf augustus 2026 krijgt de Europese Commissie dan officiële handhavingsbevoegdheden en kan ze sancties, zoals boetes, opleggen bij overtredingen, legt rechtsgeleerde Philipp Hacker uit.
Maar zelfs daarvoor dreigen al juridische gevolgen: al volgend jaar kunnen getroffen burgers rechtszaken aanspannen wegens overtreding van de regels. Hetzelfde geldt voor concurrenten die zich benadeeld voelen door oneerlijke voordelen omdat andere aanbieders de EU-regelgeving omzeilen.
Al met al vormen de nieuwe regels een belangrijke volgende stap in het streven van de Europese Unie om het gebruik van kunstmatige intelligentie duidelijk te reguleren, waarbij rechtszekerheid en consumentenbescherming voorop staan.



