Dr. Raphael Nagel (LL.M.), Founding Partner Tactical Management, zu Produkthaftung Software KI neue Richtlinie
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · MASCHINENRECHT

Produkthaftung für Software und KI: Die revidierte europäische Richtlinie im Detail

Die revidierte europäische Produkthaftungsrichtlinie von 2024 erfasst Software und KI-Systeme ausdrücklich als Produkte. Geschädigte erhalten Beweiserleichterungen bei technisch komplexen Systemen. Wesentliche Updates gelten als neues Inverkehrbringen. Dr. Raphael Nagel (LL.M.) ordnet die Reform in MASCHINENRECHT als tragende Säule der neuen europäischen KI-Haftungsordnung ein.

Die neue Produkthaftungsrichtlinie für Software und KI bezeichnet die 2024 in Kraft getretene revidierte europäische Product Liability Directive, die Software einschließlich KI-Systemen ausdrücklich in den Produktbegriff einbezieht. Sie löst die aus dem Jahr 1985 stammende Vorgängerrichtlinie ab, führt Beweisvermutungen für technisch komplexe Produkte ein und erkennt an, dass substanzielle Modifikationen nach dem Inverkehrbringen haftungsrechtlich wie ein neues Produkt behandelt werden können. Sie verschuldensunabhängige Haftung des Herstellers gilt damit auch für Trainingsdaten, Modellarchitektur, Cybersicherheitsmängel und fehlerhafte Sicherheitsupdates eines KI-Systems.

Was die revidierte Produkthaftungsrichtlinie für KI-Software konkret ändert

Die revidierte Product Liability Directive, 2024 verabschiedet, beseitigt die Grauzone um Software und erfasst KI-Systeme ausdrücklich als Produkte im Sinne der verschuldensunabhängigen Herstellerhaftung. Damit fällt der Streit, ob Code, Modell oder API überhaupt ein Produkt sind, definitiv weg. Hersteller haften unabhängig von Verschulden.

Die alte Richtlinie von 1985 war auf physische Güter zugeschnitten. Gerichte in Frankreich, Deutschland und Italien mussten über Jahrzehnte hinweg ad hoc entscheiden, ob standalone Software als Produkt qualifiziert. Die Reform beendet diese Kasuistik durch eine Legaldefinition, die Software, digitale Dateien, KI-Systeme und sogar integrierte digitale Dienste einschließt. Der europäische Gesetzgeber folgt damit dem analytischen Befund, den Dr. Raphael Nagel (LL.M.) in MASCHINENRECHT ausführt: KI ist keine gewöhnliche Software, sondern eine Infrastruktur für gesellschaftlich relevante Entscheidungen.

Praktisch relevant ist der erweiterte Kreis der Haftungsadressaten. Neben dem klassischen Hersteller trifft die Richtlinie auch Quasi-Hersteller, die ein Produkt unter eigenem Namen anbieten, sowie Fulfilment-Dienstleister und in definierten Konstellationen Einführer aus Drittstaaten. Ein US-amerikanischer Foundation-Model-Anbieter, der über eine europäische Tochter auf den Binnenmarkt zielt, kann sich der europäischen Produkthaftung nicht mehr durch geschickte Vertragsarchitektur entziehen. Diese Ausweitung ist die haftungsrechtliche Antwort auf die API-Ökonomie, in der Modelle, Daten und Integrationsschichten von unterschiedlichen Akteuren stammen.

Beweiserleichterungen: Die stille Revolution für Geschädigte

Die Richtlinie schafft eine Defektvermutung bei technisch besonders komplexen Produkten. Legt der Kläger Grundtatsachen dar und liefert der Beklagte keine plausible Gegenerklärung, kann das Gericht sowohl Fehlerhaftigkeit als auch Kausalität vermuten. Diese Umkehr der Beweislastlogik ist für KI-Haftung eine stille Revolution.

Der Hintergrund ist empirisch. KI-Systeme sind Blackboxes im doppelten Sinn: technisch schwer durchschaubar und organisatorisch hinter proprietären Strukturen verborgen. Ein Patient, den ein Radiologie-KI-System falsch klassifiziert, hat weder Zugang zu den Trainingsdaten noch zu den Modellgewichten noch zu den Validierungsprotokollen. Das klassische Prinzip, jede Partei müsse die ihr günstigen Tatsachen beweisen, wäre hier ein faktischer Haftungsausschluss. Die Richtlinie adressiert diese Wissensasymmetrie durch ein Offenlegungsrecht: Gerichte können den Beklagten zur Vorlage relevanter Beweismittel verpflichten. Verweigert er, tritt eine negative Beweislastfolge ein.

Für Hersteller folgt daraus ein strategischer Paradigmenwechsel. Dokumentation ist nicht länger bürokratische Last, sondern Haftungsschutz. Wer Trainingsdaten, Modellversionen, Testprotokolle und Post-Market-Monitoring lückenlos dokumentiert, kann die Vermutung widerlegen. Wer das versäumt, verliert den Prozess, bevor er begonnen hat. Dr. Raphael Nagel (LL.M.) formuliert in MASCHINENRECHT präzise: Die Blackbox schützt nicht mehr, sie belastet. Tactical Management beobachtet in der Begleitung von KI-Transaktionen, dass gerade Unternehmen mit aggressivem Markteintritt ohne Dokumentationsreife sich heute bereits haftungsrechtlich hoch exponieren.

Updates und Lebenszyklus: Jede wesentliche Änderung ist ein neues Produkt

Die Richtlinie erkennt an, dass KI-Systeme nach dem Inverkehrbringen weiterlernen, weiterentwickelt werden und durch Updates ihr Verhalten ändern. Substanzielle Modifikationen können haftungsrechtlich wie ein neues Inverkehrbringen behandelt werden. Jedes wesentliche Update löst damit eine eigene Haftungsphase aus.

Das verändert die Architektur der Herstellerverantwortung grundlegend. In der klassischen Produkthaftung endete die Herstellerpflicht im Moment der Auslieferung. Spätere Einflüsse wurden dem Nutzer zugerechnet. Bei KI-Systemen ist das sachwidrig: Der Anbieter eines Sprachmodells rollt kontinuierlich Updates aus, ändert Sicherheitsparameter, justiert Safety-Filter nach, integriert neue Trainingsdaten. Jedes dieser Ereignisse kann das Risikoprofil des Systems fundamental verschieben. Die Richtlinie zieht die Konsequenz: Wer ein System aktiv weiterentwickelt, bleibt über den gesamten Lebenszyklus hinweg Hersteller im Sinne der Haftung. Auch unterlassene Sicherheitsupdates sind erfasst. Ein bekannter Cybersecurity-Mangel, der nicht gepatcht wird, begründet Defektivität genauso wie ein fehlerhafter Patch.

Die praktische Konsequenz ist weitreichend. Ein Anbieter eines Medizinprodukts mit KI-Komponente muss nach der Medical Device Regulation ohnehin Post-Market Surveillance betreiben. Die revidierte Produkthaftungsrichtlinie verstärkt diese Pflicht zivilrechtlich: Wer ein bekanntes Problem nicht behebt, haftet auch dann, wenn das System ursprünglich fehlerfrei in Verkehr kam. Der Fall eines Kreditscoring-Modells, das durch Model Drift zunehmend diskriminierend wird, ist unter der alten Richtlinie kaum greifbar gewesen. Unter der neuen Lebenszyklusbetrachtung ist der fehlende Eingriff selbst Haftungsgrund.

Das Zusammenspiel mit AI Act, DSGVO und § 823 Abs. 2 BGB

Die Richtlinie steht nicht allein. Sie bildet mit dem AI Act und den deliktsrechtlichen Normen der Mitgliedstaaten ein dreistufiges Haftungsregime. Der AI Act definiert Pflichten ex ante, die Produkthaftungsrichtlinie reguliert Schäden ex post, § 823 Abs. 2 BGB verknüpft beide Ebenen.

Konkret: Der AI Act ist seit August 2024 in Kraft, die Verbote gelten seit Februar 2025, die vollständigen Hochrisiko-Pflichten ab August 2026. Verstöße gegen verbotene Praktiken werden mit bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes sanktioniert. Hochrisikoverstöße mit bis zu 15 Millionen Euro oder 3 Prozent. Diese öffentlich-rechtlichen Sanktionen sind eigenständige Konsequenzen, sie verdrängen aber nicht die zivilrechtliche Haftung. Im Gegenteil: Der AI Act wirkt als Schutzgesetz im Sinne von § 823 Abs. 2 BGB. Wer gegen AI-Act-Pflichten verstößt und dadurch Schaden verursacht, haftet unmittelbar deliktsrechtlich, ohne dass der Kläger alle Elemente des allgemeinen Deliktsrechts beweisen muss.

Die DSGVO ergänzt die Architektur um das Recht auf Erklärung automatisierter Entscheidungen nach Art. 22. Ein Kreditbewerber, der durch ein algorithmisches Modell abgelehnt wird, kann die Entscheidungslogik fordern. Gibt das Unternehmen keine substanzielle Erklärung, liegt ein eigenständiger Rechtsverstoß vor, der im Haftungsprozess als Indiz mangelnder Sorgfalt wirkt. Dr. Raphael Nagel (LL.M.) beschreibt dieses System in MASCHINENRECHT als Internalisierungsmaschine: Regulierung, Haftung und Informationsrechte greifen ineinander und zwingen Akteure, die sozialen Kosten ihrer Entscheidungen einzupreisen.

Strategische Konsequenzen für Hersteller, Integratoren und Betreiber

Haftungsresilienz wird zum Wettbewerbsvorteil. Unternehmen, die Trainingsdaten-Governance, Modellversionierung, Bias-Monitoring und Incident-Management industriell aufbauen, gewinnen nicht trotz der Richtlinie, sondern wegen ihrer Haftungsfähigkeit. Unternehmen ohne Governance werden an den Kosten ihrer eigenen Unschärfe zerbrechen.

Das betrifft drei Adressatenkreise unterschiedlich. Hersteller müssen Datenqualität, Architekturentscheidungen und Post-Market-Monitoring dokumentieren. Die Lebenszyklusbetrachtung zwingt zu einer dauerhaften Beobachtungspflicht. Integratoren, deren Rolle Dr. Raphael Nagel (LL.M.) in MASCHINENRECHT als systematisch unterschätztes Risiko bezeichnet, haften für Schwellenwert-Kalibrierung, Kaskadeneffekte und Kontextverschiebungen. Betreiber, die Deployer im Sinne des AI Act, müssen bestimmungsgemäße Nutzung, menschliche Aufsicht und organisatorische Einbettung sicherstellen. Verträge und Indemnification-Klauseln können die Primärhaftung gegenüber Geschädigten nicht beseitigen.

Tactical Management begleitet strategische Investoren und Aufsichtsräte bei der Due Diligence dieser neuen Risikoebene. Historische Referenzpunkte wie die Toeslagenaffäre in den Niederlanden, der Flash Crash vom 6. Mai 2010 oder die Diskriminierungsklagen gegen algorithmische Kreditvergabesysteme zeigen, dass fehlerhafte Delegation an Systeme keine theoretische Gefahr ist. Die revidierte Produkthaftungsrichtlinie, kombiniert mit AI Act und nationalen Umsetzungsgesetzen, transformiert diese historischen Lehren in durchsetzbare zivilrechtliche Ansprüche. Wer heute Governance aufbaut, gewinnt die nächste Marktphase. Wer abwartet, zahlt den Preis einer Haftungsordnung, die andere definiert haben.

Die revidierte Produkthaftungsrichtlinie ist kein Detail europäischer Regulierung. Sie ist, zusammen mit dem AI Act und den deliktsrechtlichen Instrumenten der Mitgliedstaaten, die tragende Säule der neuen europäischen KI-Haftungsordnung. Wer heute Software und KI in Verkehr bringt, operiert unter einem Regime, in dem Software eindeutig Produkt ist, Beweislastregeln zugunsten Geschädigter verschoben wurden und jedes wesentliche Update ein neues Haftungsereignis auslösen kann. Dr. Raphael Nagel (LL.M.) analysiert in MASCHINENRECHT, warum diese Architektur kein Bremsklotz, sondern Infrastruktur der nächsten Wirtschaftsepoche ist. Haftung wird zum Selektionsmechanismus. Unternehmen, die Trainingsdaten-Governance, Modellversionierung, Post-Market-Monitoring und Incident-Response industriell organisieren, werden regulatorisch und kapitalmarkttechnisch bevorzugt. Andere werden an den Kosten ihrer Unschärfe scheitern. Tactical Management begleitet Investoren, Aufsichtsräte und Geschäftsleitungen bei genau dieser Transformation: der Übersetzung regulatorischer Komplexität in belastbare Haftungsarchitektur. Die Frage ist nicht mehr, ob die Richtlinie greift. Die Frage ist, wer ihre Logik früh genug begriffen hat, um daraus einen strategischen Vorteil zu machen.

Häufige Fragen

Gilt Software jetzt eindeutig als Produkt im Sinne der Produkthaftung?

Ja. Die 2024 verabschiedete revidierte Product Liability Directive beendet die jahrzehntelange Unsicherheit und bezieht Software, digitale Dienste und KI-Systeme ausdrücklich in den Produktbegriff ein. Damit greift die verschuldensunabhängige Herstellerhaftung auch für reine Softwareprodukte. Die alte Debatte, ob standalone Software unter die Richtlinie von 1985 fällt, ist gegenstandslos. Hersteller von KI-Systemen, einschließlich Anbieter von Foundation Models und General Purpose AI, sind damit primäre Haftungsadressaten, wenn fehlerhafte Systeme Schäden verursachen.

Welche Beweiserleichterungen bestehen für Geschädigte?

Die Richtlinie sieht eine Defektvermutung bei technisch besonders komplexen Produkten vor. Legt der Kläger Grundtatsachen dar, die auf einen Fehler hindeuten, und liefert der Beklagte keine plausible Gegenerklärung, kann das Gericht Defektivität und Kausalität vermuten. Zusätzlich besteht ein Offenlegungsrecht: Gerichte können den Beklagten zur Vorlage relevanter Dokumentation, Logs und Testprotokolle verpflichten. Verweigert er, tritt eine negative Beweislastfolge ein. Diese Instrumente verschieben die Beweislast in KI-Prozessen faktisch zulasten des Herstellers.

Haftet der Hersteller auch für Updates und fehlende Sicherheitspatches?

Ja. Die Lebenszyklusbetrachtung erfasst Updates, Weiterentwicklungen und unterlassene Sicherheitspatches. Jedes wesentliche Update, das Funktionsweise oder Risikoprofil verändert, gilt haftungsrechtlich wie ein neues Inverkehrbringen. Wer ein System aktiv weiterentwickelt, bleibt über den gesamten Lebenszyklus Hersteller im Sinne der Haftung. Auch bekannte Cybersecurity-Schwachstellen, die nicht behoben werden, begründen Defektivität. Dr. Raphael Nagel (LL.M.) beschreibt dies in MASCHINENRECHT als fundamentale Verschiebung: Der Defekt ist nicht länger ein Zustand, sondern ein Verlauf.

Wie verhält sich die Richtlinie zum AI Act?

Beide Regelwerke bilden zusammen ein gestuftes Haftungsregime. Der AI Act definiert Pflichten ex ante, insbesondere für Hochrisiko-KI, Foundation Models und Transparenz. Die Produkthaftungsrichtlinie reguliert Schäden ex post. Verstöße gegen AI-Act-Pflichten wirken als Schutzgesetzverletzung im Sinne von § 823 Abs. 2 BGB und stützen damit zivilrechtliche Ansprüche. Eine bestandene Konformitätsbewertung nach AI Act ist umgekehrt ein Indiz für Sorgfalt. Wer AI-Act-Compliance substanziell lebt, verbessert seine Position in jedem Haftungsprozess unter der Produkthaftungsrichtlinie.

Können Hersteller ihre Haftung vertraglich ausschließen?

Nur sehr begrenzt. Die verschuldensunabhängige Produkthaftung gegenüber Geschädigten kann durch Vertrag grundsätzlich nicht ausgeschlossen werden. Zwischen Herstellern, Integratoren und Betreibern sind Regressregelungen möglich, doch das AGB-Recht, in Deutschland insbesondere § 307 BGB, setzt Grenzen. Klauseln, die jegliche Haftung für Körperschäden oder grobe Fahrlässigkeit ausschließen, sind unwirksam. Auch Holdingstrukturen, die Haftungsmasse von operativem Risiko trennen, werden zunehmend durch Durchgriffsdoktrinen aufgebrochen. Vertragsgestaltung bleibt wichtig, ersetzt aber keine substanzielle Governance.

Claritáte in iudicio · Firmitáte in executione

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Author: Dr. Raphael Nagel (LL.M.). Biografie