Schadevergoeding bij gebruik van AI – het afdwingen van vorderingen tegen aanbieders en exploitanten
huur nu een advocaat in

Wanneer kunstmatige intelligentie schade veroorzaakt: wie is aansprakelijk en hoe kunt u uw claims indienen?

Een AI-systeem neemt een verkeerde beslissing, een AI-agent handelt autonoom en veroorzaakt schade, of een bedrijf gebruikt AI zonder de nodige veiligheidsmaatregelen te treffen. Dergelijke situaties zijn geen toekomstscenario's meer – ze gebeuren dagelijks. De vraag wie verantwoordelijk is en hoe de gedupeerden recht kunnen verkrijgen, is een van de meest urgente juridische vraagstukken van onze tijd. Rogert & Ulbrich vertegenwoordigt cliënten aan beide zijden: bij het instellen van schadeclaims tegen AI-aanbieders en bedrijven die AI gebruiken.

1
2
3

Wanneer AI-systemen schade veroorzaken – een probleem met twee kanten

Stel je de volgende scenario's voor: Een AI-systeem van een bank beoordeelt je kredietwaardigheid ten onrechte als negatief en weigert je een lening, terwijl je financiële situatie prima in orde is. Een AI-agent die namens een bedrijf contracten onderhandelt, gaat akkoord met voorwaarden die de andere partij ernstig benadelen. Een geautomatiseerd AI-diagnosesysteem in een ziekenhuis geeft een verkeerde diagnose, wat leidt tot vertraagde of onjuiste behandeling. Of een AI-chatbot geeft een klant onjuiste juridische of financiële informatie, die de klant vervolgens vertrouwt, met financiële verliezen tot gevolg.

In al deze gevallen rijst onmiddellijk de vraag: wie is aansprakelijk? De fabrikant van het AI-systeem die de technologie heeft ontwikkeld en verkocht? Het bedrijf dat de AI heeft geïmplementeerd en geconfigureerd? Of is het te wijten aan een systeemfout waarvoor uiteindelijk niemand zich verantwoordelijk voelt? Juist deze vraag is momenteel een van de lastigste in het Duitse en Europese aansprakelijkheidsrecht – en is nog niet definitief door de rechter beantwoord.

Dit betekent niet dat slachtoffers onbeschermd zijn. Het betekent wel dat u de juiste juridische stappen moet kennen – en de juiste advocaat aan uw zijde moet hebben. Als u schade hebt ondervonden door het gebruik van AI, moet u nu actie ondernemen.

Wij behandelen uw zaak – snel en met toewijding.

Schadeclaims tegen de AI-aanbieder – wanneer de fabrikant aansprakelijk is

De AI-aanbieder – dat wil zeggen, het bedrijf dat het AI-systeem heeft ontwikkeld en op de markt gebracht – is aansprakelijk als het systeem zelf defect is. Dit klinkt eenvoudig, maar dat is het niet. AI-systemen zijn complexe, lerende technologieën waarvan het gedrag in de loop van de tijd kan veranderen. Een defect is niet altijd direct duidelijk en het causale verband tussen het gedrag van het systeem en de daaruit voortvloeiende schade moet worden bewezen.

De belangrijkste juridische grondslag voor verhaal op de fabrikant is productaansprakelijkheid. De wetgeving inzake productaansprakelijkheid bepaalt dat fabrikanten aansprakelijk zijn voor schade veroorzaakt door gebrekkige producten – en AI-systemen kunnen in de zin van deze wet als producten worden beschouwd. Er is sprake van een productgebrek wanneer het systeem niet het veiligheidsniveau biedt dat men redelijkerwijs mag verwachten. Dit kan een ontwerpfout zijn, een probleem met de trainingsdata of een fout in de documentatie en de gebruikershandleiding.

De EU-richtlijn inzake aansprakelijkheid voor AI, die parallel aan de AI-verordening wordt ontwikkeld, heeft tot doel de handhaving van dergelijke claims te vergemakkelijken. De richtlijn is bedoeld om gedupeerden onder bepaalde voorwaarden het recht te geven op inzage in bewijsmateriaal – dat wil zeggen, de informatie die normaal gesproken bij de aanbieder in het bezit is en die nodig is om de fout aan te tonen. Dit is een cruciale stap voorwaarts, aangezien veel claims momenteel stranden vanwege de bewijslast: wie moet bewijzen dat een ondoorzichtig AI-systeem onjuist heeft gefunctioneerd?

Bent u benadeeld door een AI-systeem en vermoedt u dat het systeem zelf gebrekkig was? Neem contact met ons op – wij onderzoeken of u een vordering tegen de aanbieder kunt instellen.

Schadeclaims tegen het bedrijf dat AI gebruikt – wanneer de exploitant aansprakelijk is.

Vaak is de AI-aanbieder niet de juiste contactpersoon – of in ieder geval niet de enige. In de meeste gevallen bevindt zich tussen de fabrikant van een AI-systeem en de benadeelde partij een bedrijf dat de AI in zijn eigen bedrijfsvoering gebruikt: een bank, een verzekeringsmaatschappij, een online winkel, een arts of een overheidsinstantie. Dit bedrijf is de zogenaamde exploitant – en ook dit bedrijf kan aansprakelijk worden gesteld.

De aansprakelijkheid van de exploitant kan voortvloeien uit verschillende juridische gronden. Ten eerste uit de algemene aansprakelijkheid als het bedrijf nalatig heeft gehandeld – bijvoorbeeld door een AI-systeem te gebruiken dat ongeschikt was voor het specifieke doel, omdat er onvoldoende controlemechanismen waren of omdat werknemers niet de juiste training hadden gekregen. Ten tweede kan er sprake zijn van contractuele aansprakelijkheid als er een contract bestond tussen de benadeelde partij en de exploitant en de door AI ondersteunde dienst gebrekkig was. Ten derde verscherpt de AI-regelgeving de verplichtingen van de exploitant aanzienlijk: Iedereen die een risicovol AI-systeem gebruikt zonder de vereiste documentatie, training en toezichtmechanismen schendt zijn zorgplicht.

De kwestie van aansprakelijkheid is bijzonder complex als het gaat om AI-systemen – systemen die zelfstandig kunnen handelen, beslissingen kunnen nemen en zelfs contracten kunnen afsluiten. Als een AI-systeem namens een bedrijf schade veroorzaakt, rijst de vraag: is het bedrijf aansprakelijk, zoals dat bij een werknemer het geval zou zijn? Er bestaat nog geen gevestigde jurisprudentie hierover, maar de heersende juridische opvatting is dat bedrijven over het algemeen verantwoordelijk zijn voor de acties van hun AI-systemen.

Heeft u schade geleden door een geautomatiseerde beslissing van een bedrijf? Of wordt uw bedrijf geconfronteerd met schadeclaims? Wij verduidelijken wie aansprakelijk is en in welke mate.

AI-agenten – wanneer autonome systemen zelfstandig handelen en fouten maken.

AI-agenten vormen een nieuwe categorie AI-systemen die veel verder gaan dan alleen het beantwoorden van vragen. Ze plannen, beslissen en handelen autonoom: ze maken afspraken, sluiten contracten af, voeren transacties uit, communiceren met klanten en beheren bedrijfsprocessen. Dit maakt ze tot een krachtig instrument, maar ook tot een nieuwe bron van juridische risico's.

Het fundamentele probleem is dit: hoe autonomer een AI-agent handelt, hoe moeilijker het wordt om duidelijke verantwoordelijkheden toe te wijzen. Als een menselijke medewerker een fout maakt, is de aansprakelijkheidsketen duidelijk. Als een AI-agent een fout maakt, zijn de eerste vragen die rijzen of er een mens betrokken was bij het besluitvormingsproces, wie de agent heeft geconfigureerd, welke instructies deze heeft ontvangen en of het systeem binnen het beoogde doel heeft gehandeld. De antwoorden op deze vragen bepalen wie aansprakelijk is.

Concrete risicoscenario's doen zich bijvoorbeeld voor wanneer een AI-agent in de verkoop valse beloftes doet of akkoord gaat met ongeautoriseerde prijzen. Of wanneer een boekingsagent een reis boekt onder onjuiste voorwaarden. Of wanneer een AI-agent in de toeleveringsketen orders plaatst die de contractuele hoeveelheidsbeperkingen schenden. In elk van deze gevallen is het bedrijf dat de agent beheert primair verantwoordelijk – met de mogelijkheid om verhaal te halen bij de AI-aanbieder als het systeem zelf gebrekkig was.

Gebruikt uw bedrijf AI-agenten – of bent u van plan dit te gaan doen? Stel nu vast welke aansprakelijkheidsrisico's hieraan verbonden zijn en hoe u zich daartegen kunt beschermen.

Het grootste obstakel: Hoe kun je schadeclaims afdwingen ondanks bewijsproblemen?

Het grootste probleem bij schadeclaims op het gebied van AI is de bewijslast. Volgens de Duitse wetgeving moet de partij die schadevergoeding eist, de fout, de schade en het verband tussen beide bewijzen. Dit is al lastig genoeg bij traditionele schadevergoedingen – bij AI-systemen is het nog veel complexer, omdat de besluitvormingsprocessen vaak ondoorzichtig zijn. Wie moet uitleggen waarom een algoritme tot een bepaald resultaat is gekomen, als zelfs de leverancier geen volledig antwoord kan geven?

Verschillende juridische benaderingen kunnen hierbij helpen. Ten eerste vereist de AI-verordening dat beheerders van systemen met een hoog risico uitgebreide documentatie en logboekregistratie bijhouden. Deze documenten kunnen worden opgevraagd in geval van een geschil. Ten tweede voorziet de toekomstige EU-richtlijn inzake aansprakelijkheid voor AI in een omkering van de bewijslast onder bepaalde voorwaarden: als een bedrijf zijn nalevingsverplichtingen heeft geschonden, wordt aangenomen dat dit de oorzaak van de schade was. Ten derde kan iedereen die slachtoffer is geworden van een datalek als gevolg van AI, op grond van de AVG toegang vragen tot de over hem of haar opgeslagen gegevens en de genomen beslissingen – wat vaak waardevol bewijsmateriaal oplevert.

In de praktijk betekent dit snel handelen, de juiste informatie opvragen en de beschikbare rechtsgrondslagen intelligent combineren. Dit is geen taak voor juridische leken. Wij zijn bekend met deze werkwijzen en passen ze toe voor onze cliënten.

Wacht niet tot bewijsmateriaal verdwijnt of deadlines verstrijken. Neem nu contact met ons op.

Als uw bedrijf te maken krijgt met schadeclaims, hoe wij u dan verdedigen.

Niet elke schadeclaim op het gebied van AI is gerechtvaardigd. Bedrijven die AI gebruiken, worden steeds vaker geconfronteerd met claims die gebaseerd zijn op onvolledige kennis of onjuiste aannames over de werking van AI-systemen. Tegelijkertijd bestaan er reële risico's die gebruikers serieus moeten nemen. Het verschil tussen deze twee situaties schuilt in een grondige juridische analyse.

Als uw bedrijf een schadeclaim ontvangt vanwege het gebruik van een AI-systeem, moeten er direct een aantal vragen worden beantwoord: Heeft het systeem daadwerkelijk een fout gemaakt, of is het gebruikt zoals bedoeld en is het resultaat simpelweg nadelig voor de eiser? Heeft u aan alle verplichtingen onder de AI-regelgeving voldaan – zoals training, documentatie en menselijk toezicht? Heeft de AI-aanbieder verplichtingen geschonden waardoor u verhaal kunt halen? En: Zijn uw contracten met de aanbieder zodanig opgesteld dat de aansprakelijkheidsverdeling duidelijk is vastgelegd?

De situatie is met name kritiek als het bedrijf de AI-regelgeving niet heeft nageleefd. Ontbrekende documentatie, onvoldoende training of het ontbreken van menselijke toezichtsmechanismen vormen ernstige nadelen in een aansprakelijkheidsgeschil. Ze geven de rechter het signaal dat het bedrijf zijn zorgplicht heeft verwaarloosd. Compliance is daarom niet slechts een bureaucratische verplichting, maar een daadwerkelijke risicopreventie.

Wordt uw bedrijf geconfronteerd met een schadeclaim vanwege AI? Wij beoordelen de claim, ontwikkelen uw verdedigingsstrategie en vertegenwoordigen u.

Veelgestelde vragen over schadevergoeding bij gebruik van AI

Rogert & Ulbrich – Uw advocaten voor aansprakelijkheid en schadevergoedingen in verband met AI.

Rogert & Ulbrich vertegenwoordigt cliënten in alle zaken betreffende AI-aansprakelijkheid – zowel aan de ene als aan de andere kant: bij het afdwingen van schadeclaims tegen AI-aanbieders en -exploitanten, en bij de verdediging van bedrijven die met dergelijke claims worden geconfronteerd. Dr. Marco Rogert en Tobias Ulbrich combineren expertise in aansprakelijkheidsrecht, technologierecht en gegevensbeschermingsrecht met een diepgaand begrip van de AI-verordening en de zich ontwikkelende Europese regels inzake AI-aansprakelijkheid.

Wij bieden buitengerechtelijke ondersteuning bij het afdwingen van en verdedigen tegen schadeclaims, het opvragen van documentatie en logbestanden in het kader van de AI-regelgeving en de AVG, en het opstellen en beoordelen van aansprakelijkheidsclausules in AI-contracten. Mocht een rechtszaak noodzakelijk worden, dan staan wij u bij. Neem contact met ons op en bescherm uw rechten.

EXO - Nieuw verzoek

jouw zorg

Heeft u een rechtsbijstandsverzekering?

Heeft u een rechtsbijstandsverzekering?

informatie over jou

Begroeting
titel
privacybeleid
Algemene voorwaarden
online mandaat
Het online verstrekken van het mandaat zorgt voor een vlotte samenwerking en een snellere afhandeling, omdat de advocaten direct buitengerechtelijk actie kunnen ondernemen.

Documenten voor het verlenen van mandaten

U ontvangt een ingevuld exemplaar van alle documenten per e-mail.
Volmacht
waarde vergoeding kennisgeving
Annuleringsbeleid
Houd de linkermuisknop ingedrukt en sleep de muis om uw handtekening in het veld te tekenen. U kunt er ook voor kiezen om uw vinger of een compatibele stylus te gebruiken om uw handtekening op het scherm te tekenen.

Indien u een rechtsbijstandverzekering heeft en uw rechtsbijstandverzekering dekking biedt, betaalt u uiteraard alleen het eventueel overeengekomen eigen risico.

archiveringssysteem

verwerkingsstatus

tijdstip van eerste consult
EHV
succesvergoeding overeenkomst

Maximale bestandsgrootte: 20MB

contact

UTM-parameter

Professioneel advies en ondersteuning

Wij bieden u een professioneel en uitgebreid eerste adviesgesprek over AI-regelgeving. Maak gebruik van deze mogelijkheid en voorkom fouten.