EU-KI-Gesetz: Neue Vorschriften für ChatGPT, Gemini und ähnliche Systeme treten in Kraft

Seit heute gelten in Europa verschärfte Regelungen für leistungsstarke KI-Systeme wie ChatGPT und Gemini. Doch worum geht es konkret – und welche Auswirkungen sind zu erwarten?

Kritik kommt unter anderem von Autoren, Künstlern sowie Produzenten aus der Musik- und Videobranche. Sie bemängeln, dass KI-Systeme mit ihren urheberrechtlich geschützten Werken trainiert wurden – und ihnen nun durch automatisiert erstellte Texte, Bilder, Musikstücke oder Videos Konkurrenz machen.

Mit dem neuen EU-Gesetz sollen diese Bedenken adressiert werden: Anbieter großer KI-Modelle sind künftig verpflichtet offenzulegen, welche Internetquellen sie für das Training ihrer Systeme verwenden – insbesondere, wenn diese urheberrechtlich geschützte Inhalte enthalten.

Rechtswissenschaftler Philipp Hacker von der Europa-Universität Viadrina erklärt: „Relevanz hätte diese Regelung vor allem dann, wenn Anbieter tatsächlich einräumen würden, dass sie etwa auf sogenannte Schattendatenbanken zurückgegriffen haben – also Plattformen, die illegal urheberrechtlich geschütztes Material bereitstellen.“ Freiwillige Offenheit sei allerdings kaum zu erwarten.

EU-Vorgaben sollen Rechtsstreitigkeiten vorbeugen

Ein aktueller Fall aus den USA zeigt, welches Risiko für KI-Unternehmen besteht: Drei Autorinnen und Autoren hatten das Unternehmen Anthropic verklagt, weil es angeblich unerlaubt ihre Buchinhalte zum Training des KI-Modells Claude verwendet habe. Das zuständige Gericht gab der Klage statt. Die genaue Höhe des Schadenersatzes steht noch aus – laut Jurist Philipp Hacker könnte dieser jedoch in den dreistelligen Milliardenbereich reichen.

Solche Klagen könnten künftig auch in Europa zunehmen, meint Hacker. Mit den neuen EU-Vorgaben soll solchen Auseinandersetzungen jedoch vorgebeugt werden: Anbieter leistungsfähiger KI-Systeme müssen künftig standardisiert nachweisen, dass ihre Trainingsmethoden mit dem europäischen Urheberrecht vereinbar sind.

EU-Digitalkommissarin Henna Virkkunen betont, dass dies nicht nur Rechteinhaber schützt, sondern auch für Unternehmen selbst Vorteile bringt: „Wir schaffen dadurch Rechtssicherheit für Innovation und Investitionen.“ Während viele Länder bislang über keine vergleichbaren Regeln verfügen, setze die EU bewusst ein Signal: „Wir zeigen den Entwicklern klar, was von ihnen erwartet wird – und erleichtern dadurch die Verfahren.“

Erweiterte Sicherheitsauflagen für KI-Systeme

Schon seit Februar ist laut EU-KI-Gesetz der Einsatz von Gesichtserkennung im öffentlichen Raum grundsätzlich untersagt. Ebenso verboten ist die Nutzung von KI-Systemen für sogenanntes „Social Scoring“, also die Bewertung von Menschen anhand ihres sozialen Verhaltens.

Mit den aktuellen Erweiterungen der Regelung kommen nun zusätzliche Sicherheitsanforderungen für sogenannte General Purpose AI (GPAI) hinzu – also große, vielseitig einsetzbare KI-Modelle wie GPT-4 (OpenAI), Llama (Meta) oder Claude 4 (Anthropic), die häufig die technologische Grundlage für viele KI-Anwendungen bilden.

„Diese Modelle müssen künftig einem Sicherheitscheck unterzogen werden, der einem Stresstest ähnelt“, erklärt Rechtswissenschaftler Philipp Hacker. Fachleute sollen dabei analysieren, welches Schadenspotenzial von den Systemen ausgehen könnte. Unternehmen sind verpflichtet, konkrete Maßnahmen zu ergreifen, um Missbrauch vorzubeugen – etwa durch technische Schutzmechanismen und transparente Sicherheitskonzepte.

USA verfolgen gegenteiligen Kurs – Fokus auf Deregulierung

Die Umsetzung der neuen EU-Vorgaben zur Künstlichen Intelligenz ist anspruchsvoll: Mithilfe wissenschaftlicher Expertise hat die EU-Kommission einen „Code of Practice“ entwickelt – einen Praxisleitfaden, der Unternehmen dabei unterstützen soll, die gesetzlichen Anforderungen sinnvoll in den Alltag zu übertragen.

Unternehmen, die sich an diesen freiwilligen Verhaltenskodex halten, profitieren von reduzierten Berichtspflichten. Doch eine breite freiwillige Beteiligung großer US-Technologieunternehmen ist fraglich: So hat Meta AI bereits signalisiert, dass es sich nicht beteiligen will.

Der Grund: Die politischen Ansätze auf beiden Seiten des Atlantiks entwickeln sich zunehmend auseinander. Während die EU auf Regulierung und Transparenz setzt, verfolgen die USA – insbesondere unter Donald Trump – eine entgegengesetzte Strategie. Unmittelbar nach seinem Amtsantritt kassierte Trump die KI-Regelungen seines Vorgängers Joe Biden.

Mit seinem neuen KI-Plan bekennt sich Trump nun explizit zur Deregulierung: Bundesstaaten, die eigene strenge KI-Gesetze erlassen, sollen künftig von der Vergabe föderaler Fördermittel ausgeschlossen werden. Ziel sei es, so Trump, „das größte und schnellste KI-Ökosystem der Welt“ zu schaffen.

Was passiert bei Verstößen gegen die neuen KI-Regeln?

Fest steht: Wer auf dem europäischen Markt mit seinen rund 450 Millionen Verbraucherinnen und Verbrauchern aktiv sein will, muss sich ab sofort an das neue EU-KI-Gesetz halten. Unternehmen, die sich den Leitlinien nicht anschließen möchten, sind dennoch verpflichtet, die gesetzlichen Anforderungen auf anderem Wege zu erfüllen.

Ein Übergangszeitraum von einem Jahr soll Unternehmen die Möglichkeit geben, ihre Prozesse entsprechend anzupassen. Ab August 2026 erhält die EU-Kommission dann offizielle Durchsetzungsbefugnisse und kann bei Verstößen Sanktionen wie Bußgelder verhängen, erklärt Rechtswissenschaftler Philipp Hacker.

Doch auch schon vorher drohen rechtliche Konsequenzen: Bereits im kommenden Jahr könnten betroffene Bürgerinnen und Bürger bei Regelverletzungen Klage einreichen – ebenso wie Wettbewerber, die sich durch unfaire Vorteile benachteiligt fühlen, wenn andere Anbieter die EU-Vorgaben umgehen.

Insgesamt markieren die neuen Vorschriften einen weiteren wichtigen Schritt auf dem Weg der Europäischen Union, den Umgang mit Künstlicher Intelligenz klar zu regulieren und dabei Rechtssicherheit und Verbraucherschutz in den Vordergrund zu stellen.