Dr. Raphael Nagel (LL.M.), Founding Partner Tactical Management, zu Beweislast Umkehr KI Haftungsprozess
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · MASCHINENRECHT

Beweislastumkehr im KI-Haftungsprozess: Wie die neue Produkthaftungsrichtlinie die Blackbox-Verteidigung zerstoert

Die Beweislastumkehr im KI-Haftungsprozess beschreibt den Paradigmenwechsel, den die revidierte europaeische Produkthaftungsrichtlinie einfuehrt. Gerichte koennen Defekt und Kausalitaet eines KI-Systems vermuten, wenn der Klaeger Grundtatsachen darlegt. Die Blackbox schuetzt den Hersteller nicht mehr, sondern belastet ihn. Dokumentation wird zum entscheidenden Verteidigungsasset jedes Unternehmens.

Beweislast Umkehr KI Haftungsprozess ist das prozessuale Instrument, mit dem europaeische Gerichte die Beweislast fuer Defekt und Kausalitaet von der geschaedigten Partei auf Hersteller und Betreiber von KI-Systemen verlagern, sobald bestimmte Grundtatsachen dargelegt sind. Die 2024 in Kraft getretene revidierte Produkthaftungsrichtlinie kodifiziert diese Umkehr fuer technisch besonders komplexe Produkte, einschliesslich Software und KI-Systeme. Die klassische Regel, nach der der Anspruchsteller den vollstaendigen Kausalitaetsnachweis fuehrt, wird damit zur Ausnahme. Ergaenzt wird der Mechanismus durch Informationsrechte der DSGVO, Urkundenvorlagepflichten nach Paragraf 142 ZPO und die Logik des Anscheinsbeweises. Dr. Raphael Nagel (LL.M.) beschreibt in MASCHINENRECHT diesen Wandel als fundamentale Verschiebung der prozessualen Machtarchitektur zwischen Unternehmen und Geschaedigten.

Warum kippt die Beweislast im KI-Haftungsprozess?

Die Beweislast kippt, weil das klassische Prinzip des Anspruchsnachweises bei undurchsichtigen KI-Systemen systematisch versagt. Geschaedigte haben keinen Zugang zu Logs, Trainingsdaten und Modellarchitekturen. Die revidierte Produkthaftungsrichtlinie der EU hat diese Informationsasymmetrie 2024 als strukturelles Problem anerkannt und prozessual adressiert.

Die Grundannahme des europaeischen Zivilrechts lautet, dass jede Partei die ihr guenstigen Tatsachen beweist. Bei physischen Produkten war das handhabbar, weil Gueter analysiert und Dokumentationen einsehbar waren. Bei probabilistischen, lernenden Systemen kollabiert diese Logik. Der Geschaedigte steht einer doppelten Blackbox gegenueber: technisch schwer durchschaubar und hinter proprietaeren Strukturen, Geschaeftsgeheimnissen und Dokumentationsmaengeln verborgen. Dr. Raphael Nagel (LL.M.) formuliert in MASCHINENRECHT praegnant, dass die Blackbox im neuen Regime nicht mehr schuetzt, sondern belastet.

Die praktischen Konsequenzen zeigen sich bereits in der niederlaendischen Toeslagenaffaere, wo zwischen 2013 und 2021 Zehntausende Familien durch ein algorithmisches System der Steuerbehoerde faelschlicherweise als betruegerisch klassifiziert wurden. Die parlamentarische Aufarbeitung offenbarte, dass weder Betroffene noch Gerichte realistischen Zugang zur Entscheidungslogik hatten, und das niederlaendische Kabinett trat zurueck. Genau diese Asymmetrie will der europaeische Gesetzgeber nicht mehr hinnehmen. Die Vermutungsregelung der revidierten Produkthaftungsrichtlinie und die begleitende Debatte um die AI Liability Directive sind die prozessuale Antwort auf einen strukturellen Machtueberschuss der Systembetreiber.

Die Vermutungsregelung der neuen Produkthaftungsrichtlinie

Die revidierte Produkthaftungsrichtlinie, seit 2024 in Kraft, erlaubt europaeischen Gerichten, die Defektivitaet und Kausalitaet eines KI-Systems zu vermuten, wenn technisch besonders komplexe Produkte involviert sind und der Beklagte keine hinreichende Erklaerung fuer den Schaden liefert. Das verschiebt die prozessuale Last grundlegend in Richtung Hersteller und Betreiber.

Konkret muss der Klaeger nur noch Grundtatsachen darlegen, die einen Defekt plausibel erscheinen lassen. Ab diesem Punkt tritt die Erklaerungslast auf den Hersteller ueber. Kann er nicht substanziell erlaeutern, warum sein System korrekt funktioniert hat, wird der Defekt vermutet. Software und KI-Systeme sind durch die Revision ausdruecklich in den Produktbegriff einbezogen, womit die seit Jahrzehnten gefuehrte Debatte um die Produktqualitaet von Software endgueltig entschieden ist. Die alte Unsicherheit, ob Software ueberhaupt unter die Produkthaftung faellt, ist damit beseitigt.

Die Richtlinie behandelt substanzielle Updates wie ein neues Inverkehrbringen. Jede wesentliche Veraenderung eines lernenden Systems kann damit eine neue Haftungsphase ausloesen. Fuer Hersteller, die kontinuierliche Deployments fahren, entsteht die Notwendigkeit, jede Versionsaenderung haftungsrechtlich zu bewerten und lueckenlos zu dokumentieren. Die Lebenszyklusbetrachtung der Richtlinie bedeutet ausserdem, dass Betreiber nicht mehr mit dem Argument arbeiten koennen, das System habe beim urspruenglichen Inverkehrbringen einem anderen Stand entsprochen. Relevant ist der jeweilige Zustand bei Schadenseintritt. Versionskontrolle ist keine technische Hygiene mehr, sondern prozessuales Ueberleben im Haftungsverfahren.

Informationsrechte, Paragraf 142 ZPO und Anscheinsbeweis

Drei prozessuale Instrumente konvergieren im KI-Haftungsprozess zur Beweislastumkehr: die Informationsrechte der DSGVO, die Urkundenvorlagepflicht nach Paragraf 142 ZPO und der Anscheinsbeweis. Zusammen schaffen sie eine gerichtliche Infrastruktur, die den Zugang des Klaegers zu Systemdokumentation faktisch erzwingt, auch ohne eigenstaendige AI Liability Directive.

Artikel 22 DSGVO begruendet ein Recht auf Erklaerung automatisierter Entscheidungen. Die Praxis zeigt, dass generische Antworten der Form, die Ablehnung beruhe auf dem Risikoprofil, diese Anforderung nicht erfuellen. Gerichte werden zunehmend bereit sein, substanzielle, individualisierte Erklaerungen zu verlangen. Fehlt diese, kann das Gericht nach Paragraf 142 ZPO die Vorlage relevanter Urkunden anordnen, darunter Modellversionen, Trainingsdaten-Dokumentationen, Testprotokolle, interne Risikobewertungen und Logs. Wer die Herausgabe verweigert oder nur unvollstaendig leistet, riskiert, dass das Gericht Beweislastkonsequenzen zieht.

Der Anscheinsbeweis ergaenzt dieses Instrumentarium. Wenn die Umstaende eines Schadens typisch fuer einen bestimmten Systemfehler sind, kann das Gericht nach allgemeiner Lebenserfahrung von einem Defekt ausgehen. Fuer algorithmische Diskriminierungsfaelle nach dem Muster des Amazon-Recruiting-Tools, das 2018 wegen struktureller Benachteiligung weiblicher Bewerber eingestellt wurde, ist dieser Mechanismus zentral. Der Klaeger muss nicht die Trainingsdaten im Einzelnen analysieren. Er muss das Muster der Benachteiligung plausibel machen. Die Last der Gegenerklaerung liegt danach beim Betreiber. In Kombination mit der Vermutungsregelung der Produkthaftungsrichtlinie entsteht eine prozessuale Wirkungskette, die unternehmerische Intransparenz systematisch bestraft.

Dokumentation als strategisches Asset der Verteidigung

Dokumentation ist in der neuen Beweislastlogik keine buerokratische Last, sondern das entscheidende strategische Asset jeder Verteidigungslinie. Unternehmen, die lueckenlose Logs, Versionskontrolle, Risikobewertungen und Post-Market-Monitoring vorweisen koennen, entkraeften die gesetzliche Vermutung. Alle anderen verlieren den Prozess, bevor die erste Zeugenvernehmung beginnt.

Der AI Act verlangt fuer Hochrisiko-KI Logging, technische Dokumentation, Risikomanagementsysteme und kontinuierliches Post-Market-Monitoring. Die vollstaendigen Hochrisiko-Pflichten gelten ab August 2026, die Verbote galten bereits ab Februar 2025, die GPAI-Regeln ab August 2025. Dr. Raphael Nagel (LL.M.), Founding Partner von Tactical Management, beschreibt dieses Zusammenspiel in MASCHINENRECHT als das Ende der prozessualen Informationsasymmetrie zugunsten des Herstellers. Wer eine Konformitaetsbewertung nicht durchgefuehrt hat, liefert ein starkes Indiz fuer Pflichtverletzung und kann die Vermutung der Defektivitaet kaum widerlegen. Wer Logs vernichtet oder Retention-Fristen unterbietet, begruendet den Anscheinsbeweis gegen sich selbst.

Die Sanktionsarchitektur verstaerkt diese Logik. Verstoesse gegen AI-Act-Verbote werden mit Bussgeldern bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes geahndet. Hinzu treten zivilrechtliche Haftungsansprueche, die sich unmittelbar aus Paragraf 823 Abs. 2 BGB in Verbindung mit dem AI Act als Schutzgesetz ableiten lassen. Die Versicherungsbranche beginnt bereits, Governance-Reife in Praemien zu uebersetzen. Rueckversicherer wie Munich Re und Swiss Re entwickeln Bewertungsmodelle, die den Reifegrad der Dokumentation explizit einpreisen. Haftungsresilienz wird damit zum Investitionskriterium, zur Vorbedingung fuer Kapitalzugang in regulierten Maerkten und zum faktischen Wettbewerbsvorteil jener Unternehmen, die frueh in Governance investiert haben.

Forum Shopping und nationale Beweislast-Asymmetrien

Die EuGVO erlaubt Klaegern in KI-Haftungsfaellen typischerweise die Wahl des Gerichtsstands zwischen Handlungsort und Schadensort. Diese Wahlfreiheit wird strategisch relevant, weil die Beweisrechtssysteme der Mitgliedstaaten differieren und die nationale Umsetzung des AI Act erst graduell konvergiert.

In Deutschland ist der Anscheinsbeweis ein anerkanntes Instrument, seine Anwendung auf KI-Konstellationen ist aber noch nicht gefestigt. Frankreich kennt eine strengere Produkthaftungstradition mit breiterem Anscheinsbeweis. Die Niederlande haben im Kontext der gerichtlichen Aufarbeitung der Toeslagenaffaere innovative Beweislastverteilungen entwickelt, die den Zugang zu algorithmischer Entscheidungslogik priorisieren. England und Wales bieten die res-ipsa-loquitur-Doktrin des Common Law, nach der bestimmte Schadensmuster den Beweis in sich tragen. Diese Asymmetrien sind kein Zufall, sondern Ergebnis unterschiedlicher Rechtskulturen.

Fuer Unternehmen bedeutet das, dass Haftungsstrategien nicht auf einer einzigen Jurisdiktion beruhen duerfen. Wer in mehreren Mitgliedstaaten taetig ist, muss in jedem Markt die spezifische Beweisrechtslage bewerten. Fuer Klaeger, zunehmend unterstuetzt durch spezialisierte Litigation Funder, entsteht ein strategischer Werkzeugkasten: Die Wahl zwischen Rotterdam, Paris, Muenchen und London ist eine Wahl zwischen unterschiedlichen Beweislastregimen. Die Konsolidierung durch eine einheitliche AI Liability Directive haette diese Asymmetrien geglaettet. Ihr schleppender Gesetzgebungsprozess laesst den Mitgliedstaaten vorerst Raum fuer divergierende Praxis. Unternehmen, die ihre Governance nach dem strengsten europaeischen Standard ausrichten, minimieren dieses Forum-Risiko und gewinnen parallel den Brussels-Effect-Vorteil im globalen Markt.

Die Beweislastumkehr im KI-Haftungsprozess ist kein Detailproblem des Zivilverfahrens. Sie ist der prozessuale Hebel, mit dem der europaeische Gesetzgeber die Haftungsarchitektur der KI-Oekonomie neu justiert. Wer weiterhin auf Intransparenz und Informationshortung setzt, wird in den ersten Praezedenzfaellen ab 2026 feststellen, dass sich Gerichte, Regulatoren und Versicherer darauf eingestellt haben. Die Vermutungsregelung der revidierten Produkthaftungsrichtlinie, Paragraf 142 ZPO, Artikel 22 DSGVO und das Zusammenspiel mit dem AI Act schaffen einen neuen prozessualen Standard, in dem nicht mehr der Klaeger das Blackbox-Problem loesen muss, sondern der Beklagte seine Sorgfalt lueckenlos dokumentieren. Dr. Raphael Nagel (LL.M.), Founding Partner von Tactical Management, entwickelt in MASCHINENRECHT die These, dass Haftung in der KI-Oekonomie nicht Bremse, sondern Infrastruktur ist. Die Beweislastumkehr ist der prozessuale Kern dieser Infrastruktur. Entscheider, Aufsichtsraete und General Counsels, die ihre Organisation darauf vorbereiten wollen, finden in der Analyse des Buches die Kategorien, die in den kommenden Haftungsverfahren den Unterschied zwischen Verteidigungsfaehigkeit und Beweisnot markieren werden. Die naechste Generation europaeischer KI-Maerkte wird dort entschieden, wo Dokumentation zum zentralen Beweismittel wird und wo Unternehmen begreifen, dass Governance-Reife eine Vorleistung auf den Haftungsprozess ist.

Häufige Fragen

Wann greift die Beweislastumkehr im KI-Haftungsprozess?

Die Vermutungsregelung der revidierten Produkthaftungsrichtlinie greift, sobald der Klaeger Grundtatsachen darlegt, die einen Defekt plausibel erscheinen lassen, und das Produkt technisch besonders komplex ist. Kann der Beklagte keine hinreichende Erklaerung liefern, kann das Gericht Defektivitaet und Kausalitaet vermuten. Ergaenzend greifen Paragraf 142 ZPO zur Urkundenvorlage und der Anscheinsbeweis bei typischen Schadensmustern. Praktisch relevant wird die Umkehr besonders bei algorithmischer Diskriminierung, medizinischen Fehldiagnosen und Fehlern in kritischen Infrastrukturen.

Welche Dokumente kann ein Geschaedigter nach Paragraf 142 ZPO anfordern?

Gerichte koennen auf Antrag Modellversionen, Trainingsdaten-Dokumentationen, Testprotokolle, interne Risikobewertungen, Logs, Konformitaetsbewertungsberichte und Post-Market-Monitoring-Auswertungen anordnen. Der Umfang orientiert sich am Streitgegenstand und an der Zumutbarkeit. Geschaeftsgeheimnisse koennen durch In-camera-Verfahren und Vertraulichkeitsanordnungen geschuetzt werden, sie begruenden aber kein absolutes Vorlageverweigerungsrecht. Verweigert der Beklagte die Herausgabe oder legt unvollstaendige Unterlagen vor, kann das Gericht beweisrechtliche Konsequenzen ziehen und die Vermutungsregelung der Produkthaftungsrichtlinie aktivieren.

Schuetzt eine bestandene Konformitaetsbewertung nach AI Act vor Haftung?

Nein. Eine bestandene Konformitaetsbewertung bedeutet keine Haftungsfreiheit, aber sie ist ein starkes Indiz fuer die Einhaltung des relevanten Sorgfaltsmassstabs und entkraeftet die Vermutung der Pflichtverletzung. Umgekehrt liefert eine fehlende Konformitaetsbewertung, wo sie erforderlich waere, ein starkes Indiz fuer Pflichtverletzung. Im Haftungsprozess wird ein Betreiber, der ein Hochrisiko-System ohne vorherige Konformitaetsbewertung eingesetzt hat, erhebliche Schwierigkeiten haben, sich zu entlasten, selbst wenn das System technisch funktionierte.

Ist die AI Liability Directive bereits in Kraft?

Die urspruenglich vorgeschlagene AI Liability Directive hat einen schleppenden Gesetzgebungsprozess durchlaufen und ist in ihrer ursprueng-lichen Form nicht garantiert in Kraft. Ihre Kernprinzipien, insbesondere Informationsrechte fuer Geschaedigte und Kausalitaetsvermutungen, sind aber bereits in das europaeische Rechtsdenken eingebettet. Gerichte wenden die revidierte Produkthaftungsrichtlinie, Paragraf 142 ZPO und den Anscheinsbeweis bereits heute so an, dass Informationsasymmetrien reduziert werden. Die Richtung ist unabhaengig vom formellen Status der Richtlinie eindeutig.

Welche nationale Jurisdiktion ist fuer KI-Haftungsklaeger am guenstigsten?

Das haengt vom Einzelfall ab. Deutschland bietet den anerkannten Anscheinsbeweis und Paragraf 142 ZPO. Frankreich hat eine strengere Produkthaftungstradition. Die Niederlande haben nach der Toeslagenaffaere innovative Beweislastverteilungen entwickelt. England und Wales bieten die res-ipsa-loquitur-Doktrin. Die EuGVO erlaubt Klaegern typischerweise die Wahl zwischen Handlungsort und Schadensort, was strategisches Forum Shopping ermoeglicht. Unternehmen muessen ihre Governance am strengsten relevanten Standard ausrichten, weil die Auswahl faktisch beim Geschaedigten liegt.

Claritáte in iudicio · Firmitáte in executione

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Author: Dr. Raphael Nagel (LL.M.). Biografie