
KI in kritischer Infrastruktur (KRITIS): Haftungsarchitektur für Energie, Telekommunikation und Verkehr
KI in kritischer Infrastruktur (KRITIS) verschärft die Haftungsfrage radikal: Ein Fehler in Netzsteuerung, Verkehrsleitsystem oder Telekommunikation erzeugt Kaskadenschäden. Dr. Raphael Nagel (LL.M.) argumentiert in MASCHINENRECHT, dass hier klassische Verschuldenshaftung systematisch versagt und nur Gefährdungshaftung in Verbindung mit Pflichtversicherung die systemische Verwundbarkeit adäquat abbildet.
KI kritische Infrastruktur KRITIS bezeichnet den Einsatz künstlich intelligenter Systeme zur Steuerung, Überwachung oder Prognose in Anlagen, deren Ausfall erhebliche Störungen der öffentlichen Sicherheit oder Versorgung verursachen würde. Erfasst sind Energieversorgung, Telekommunikation, Verkehr, Finanzmarktinfrastruktur, Gesundheitsversorgung und staatliche Kernverwaltung. KI verändert KRITIS auf zwei Ebenen: Sie wird selbst zur kritischen Komponente, wenn sie Lastprognosen, Netzsteuerung oder Triage bestimmt, und sie schafft zugleich neue Angriffsvektoren für Manipulation und Fehlfunktion. Dr. Raphael Nagel (LL.M.) ordnet KRITIS-KI in MASCHINENRECHT als jenen Bereich ein, in dem Haftungsrecht nicht länger als nachgelagerter Schadensausgleich funktionieren kann, sondern als ex ante strukturierte Architektur aus Gefährdungshaftung, Pflichtversicherung und regulatorischer Aufsicht organisiert werden muss.
Warum KI in kritischer Infrastruktur eine eigene Haftungslogik verlangt
KI in kritischer Infrastruktur folgt einer eigenen Haftungslogik, weil Fehler hier keine Betriebsunfälle, sondern systemische Ereignisse erzeugen. Ein Modellfehler in der Netzsteuerung löst Blackouts aus, ein Fehler im Verkehrsleitsystem produziert Kettenunfälle, eine fehlerhafte Triage-KI gefährdet kollektive Patientensicherheit. Dr. Raphael Nagel (LL.M.) bezeichnet diese Konstellation in MASCHINENRECHT als Verstärkerfunktion: KI vergrößert bestehende Verwundbarkeiten exponentiell.
Der Begriff Kritische Infrastruktur, kurz KRITIS, umfasst Anlagen, Systeme und Einrichtungen, die für das Funktionieren des Gemeinwesens so grundlegend sind, dass ihre Beeinträchtigung die öffentliche Versorgung oder Sicherheit erheblich stört. Wenn ein KI-System solche Anlagen steuert, verschmelzen zwei Gefährdungsebenen: die technische Kritikalität der Infrastruktur und die probabilistische Unsicherheit des Modells. Der AI Act reagiert darauf, indem er KI-Systeme in kritischen Infrastrukturen als Hochrisiko klassifiziert und ab August 2026 unter strenge Pflichten zu Risikomanagement, Datenqualität, Logging, Dokumentation, menschlicher Aufsicht, Genauigkeit und Cybersicherheit stellt.
Die Logik der klassischen Produkthaftung stößt hier an ihre Grenze. Die revidierte Product Liability Directive von 2024 erfasst Software und KI ausdrücklich als Produkte, aber der Defekt wird flüssig: Er liegt nicht im Bauteil, sondern im Verlauf, in Trainingsdaten, Updates und Integrationsentscheidungen. Für Betreiber von Umspannwerken, Rechenzentren oder Schienennetzen bedeutet das: Die juristische Rekonstruktion eines Schadens ist aufwendig, teuer und oft ergebnislos, sofern nicht vorab eine belastbare Haftungsarchitektur etabliert wurde.
Energie, Telekommunikation, Verkehr: Die Sektoren der Kaskade
Die Sektoren Energie, Telekommunikation und Verkehr zeigen, wie KI-Fehler in KRITIS kaskadieren. Ein fehlerhaftes Lastprognosemodell destabilisiert das Stromnetz. Ein fehlgeleitetes Routing-KI-System legt Notrufe lahm. Ein versagender Verkehrsrechner produziert Kollisionsmuster. In jedem dieser Fälle entstehen Schäden, die die individuelle Haftungslogik des Bürgerlichen Gesetzbuchs überfordern, weil Ursache und Wirkung über Netzwerkeffekte diffundieren.
In der Energieinfrastruktur ermöglichen KI-gestützte Lastprognosen und Netzsteuerung die Integration erneuerbarer Quellen, schaffen aber zugleich neue Angriffsvektoren. Ein Manipulationsangriff auf ein Netzsteuerungssystem könnte Blackouts in der Größenordnung des europäischen Stromausfalls vom 4. November 2006 verursachen, als sich eine einzelne Schaltfehlentscheidung im UCTE-Verbund bis nach Portugal fortpflanzte und über zehn Millionen Haushalte traf. Wer haftet, wenn künftig ein KI-Modell diese Fehlentscheidung trifft: der Hersteller des Modells, der Übertragungsnetzbetreiber, oder der Integrator, der die Schwellenwerte kalibriert hat?
Im Telekommunikationsbereich illustriert das Netzwerkmanagement-Szenario aus MASCHINENRECHT die Problematik: Ein unerwarteter Lastpeak, nicht im Trainingsdatensatz abgebildet, führt zu falscher Kapazitätsumsteuerung und einem mehrstündigen Ausfall, der Notrufsysteme trifft. Nach deutschem Telekommunikationsrecht bestehen branchenspezifische Haftungsbeschränkungen, die die zivilrechtliche Position der Geschädigten erheblich einengen. Im Verkehrssektor wiederum verschiebt das novellierte Straßenverkehrsgesetz von 2021 die Haftung bei hochautomatisiertem Fahren in Richtung Hersteller, ohne die Halterhaftung nach Paragraf 7 StVG vollständig abzulösen, wodurch hybride Zurechnungsmuster entstehen.
Warum Gefährdungshaftung die einzige ehrliche Antwort ist
Gefährdungshaftung ist bei KI in kritischer Infrastruktur keine rechtspolitische Überreaktion, sondern Ausdruck intellektueller Redlichkeit. Verschuldensnachweis scheitert in probabilistischen Systemen strukturell. Dr. Raphael Nagel (LL.M.) argumentiert in MASCHINENRECHT: Wo die Struktur der Gefahr den Einzelnachweis systematisch verhindert, obwohl reale Schäden entstehen, muss Haftung an die Beherrschung der Gefahrenquelle selbst anknüpfen, nicht an individuelles Fehlverhalten.
Das Modell ist historisch bewährt. Die Kfz-Halterhaftung nach Paragraf 7 StVG entstand genau aus dieser Logik: Das Automobil war eine gesellschaftlich erlaubte, aber besonders gefährliche Tätigkeit, deren Risiken nicht auf Geschädigte abgewälzt werden durften. Für KRITIS-KI gilt das gleiche strukturelle Muster in verschärfter Form. Ein Betreiber, der ein lernendes System in der Netzsteuerung einsetzt, beherrscht die Gefahrenquelle; der Geschädigte, dessen Notruf im Blackout nicht durchkommt oder dessen medizinisches Gerät ausfällt, hat keinerlei Einfluss. Diese Asymmetrie rechtfertigt die verschuldensunabhängige Einstandspflicht.
Die europäische Debatte um die AI Liability Directive zeigt, dass dieser Schritt politisch noch nicht vollzogen wurde. Einzelne Mitgliedstaaten und akademische Stimmen fordern Gefährdungshaftung für Hochrisiko-KI in kritischer Infrastruktur; große Industrieverbände widersprechen. Die Folge ist ein regulatorisches Vakuum, in dem Betreiber heute Risiken externalisieren dürfen, die morgen voll internalisiert werden. Wer als Vorstand oder Aufsichtsrat dieses Vakuum ausnutzt, ohne Rückstellungen zu bilden, handelt nach Auffassung von Tactical Management nicht unternehmerisch klug, sondern unternehmerisch fahrlässig.
Pflichtversicherung als stille Verfassung der KI-Ökonomie
Pflichtversicherung ist das natürliche Gegenstück zur Gefährdungshaftung. Wo Betreiber kritischer Infrastruktur unabhängig von Verschulden haften, muss die Solvenz des Schuldners gesichert sein, damit Geschädigte nicht ins Leere klagen. Analog zur Kfz-Haftpflichtversicherung plädiert MASCHINENRECHT für einen Pflichtversicherungsrahmen für KRITIS-KI, ergänzt um einen Haftungsfonds für systemische Ereignisse, deren Schadensdimension einzelne Policen sprengt.
Rückversicherer wie Munich Re und Swiss Re entwickeln bereits KI-Risikomodelle. Klassische Technology Errors and Omissions Policies decken Softwarefehler ab, sind aber für adversariale Angriffe, Modell-Drift und Bias-Schäden nicht optimal zugeschnitten. Der entstehende Markt für KI Liability Insurance wird von Branchenanalysten auf mehrere Milliarden Dollar in den nächsten Jahren geschätzt. Wer nicht versicherbar ist, wird nicht skaliert; wer nur teuer versicherbar ist, verliert Wettbewerbsfähigkeit. Versicherung wirkt damit als privates Regulierungssystem, das de facto Governance-Standards setzt.
Die DORA-Verordnung, seit Januar 2025 in Kraft, zwingt Finanzinstitute zu robustem Management von ICT-Risiken einschließlich adversarialer Tests. Dieses Modell strahlt zwingend auf andere KRITIS-Sektoren aus. Energieversorger, Telekommunikationsbetreiber und Krankenhäuser werden mittelfristig vergleichbaren Anforderungen unterliegen. Unternehmen, die bereits heute adversariale Testroutinen, Incident-Response-Strukturen und Versicherungsdeckung aufbauen, positionieren sich als haftungsresilient, bevor die Regulierung sie dazu zwingt. Bußgelder unter dem AI Act reichen bei Verstößen gegen die Verbote bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.
Was Vorstand und Aufsichtsrat jetzt operativ verlangen müssen
Vorstände und Aufsichtsräte von KRITIS-Betreibern müssen KI-Governance jetzt als eigenständige Überwachungsaufgabe behandeln. Die allgemeine Sorgfaltspflicht nach Paragraf 93 AktG umfasst die Pflicht, systemische Technologierisiken zu erfassen, zu bewerten und zu begrenzen. Wer KI in Netzsteuerung, Leitstellen oder Triage einsetzt, ohne einen dokumentierten Governance-Rahmen, verletzt diese Pflicht und riskiert persönliche Organhaftung.
Das operative Programm umfasst sieben Dimensionen: vollständiges KI-Inventar mit Risikoklassifikation nach AI Act; dokumentierte Bias- und Drift-Monitoring-Routinen; klare Human-Oversight-Strukturen mit realen Interventionsmöglichkeiten; adversariale Tests nach DORA-Muster; Incident-Response-Protokolle mit Meldewegen an die zuständige Marktaufsichtsbehörde, nach aktuellem Stand in Deutschland die Bundesnetzagentur für bestimmte Sektoren; Versicherungsdeckung für KI-spezifische Risiken; vertragliche Regressmechanismen gegen Hersteller und Integratoren. Diese Dimensionen sind keine Compliance-Folklore; sie sind Prüfgegenstand jeder seriösen Legal Due Diligence.
Tactical Management beobachtet in der Investitionspraxis, dass Unternehmen mit belastbarer KI-Governance systematisch höhere Bewertungen erzielen, schneller regulatorische Zulassungen erhalten und bei Schadensereignissen deutlich geringere Kapitalmarktreaktionen auslösen. Der Toeslagenaffaere-Skandal in den Niederlanden zwischen 2013 und 2021, in dem ein algorithmisches System der Steuerbehörde Zehntausende Familien fälschlich als Betrüger klassifizierte und schließlich zum Rücktritt des gesamten Kabinetts führte, zeigt umgekehrt, was organisierte Unverantwortlichkeit in staatlicher KRITIS kostet.
Die Haftungsarchitektur für KI in kritischer Infrastruktur entscheidet nicht nur über Schadensverteilung, sondern über die Verfassung der digitalen Wirtschaft. Energie, Telekommunikation, Verkehr und Gesundheitsversorgung bilden das Rückgrat moderner Gesellschaften. Wer in diesem Rückgrat KI einsetzt, ohne Verantwortung vorab zu strukturieren, externalisiert Risiken auf Bürger, Versicherer und Staat. Wer Verantwortung dagegen präzise organisiert, gewinnt doppelt: regulatorische Stabilität und Kapitalmarktvertrauen. Dr. Raphael Nagel (LL.M.) zeigt in MASCHINENRECHT, dass die entscheidende Frage nicht lautet, ob KI in KRITIS eingesetzt wird; sie lautet, wer am Ende den Preis trägt, wenn sie versagt. Die nächste Phase wird von drei Kräften bestimmt: der vollständigen Anwendbarkeit des AI Act ab August 2026, der Durchsetzungspraxis der modernisierten Produkthaftungsrichtlinie und der Frage, ob der europäische Gesetzgeber den Schritt zur Gefährdungshaftung für KRITIS-KI vollzieht. Tactical Management berät Vorstände, Aufsichtsräte und institutionelle Investoren an genau dieser Schnittstelle aus Recht, Technologie und Kapital. Wer heute die Grundlagen legt, gewinnt morgen; wer abwartet, akzeptiert die Regeln anderer. Das Zeitalter der Zurechnung hat begonnen, und in kritischer Infrastruktur duldet es keine Zuschauerrolle.
Häufige Fragen
Welche KI-Systeme fallen unter KRITIS?
Unter KRITIS-KI fallen alle Systeme, die Anlagen in Energieversorgung, Telekommunikation, Verkehr, Finanzmarktinfrastruktur, Gesundheitsversorgung oder staatlicher Kernverwaltung steuern, überwachen oder entscheidungsrelevant unterstützen. Der AI Act erfasst sie in Anhang III als Hochrisiko-KI. Konkret zählen dazu KI-gestützte Netzsteuerungssysteme, Lastprognosemodelle, Flugverkehrsmanagement, Eisenbahnsicherungstechnik, Notruf-Routing, klinische Triage-Systeme und algorithmische Entscheidungsmechanismen der Leistungsverwaltung. Auch KI in Rechenzentren und Unterseekabelbetrieb, die digitale Versorgung sicherstellen, fällt unter KRITIS. Entscheidend ist nicht die Technologie, sondern die systemische Bedeutung: Wenn ein Ausfall das Gemeinwesen erheblich stört, ist KRITIS-Qualität gegeben.
Wer haftet bei einem KI-verursachten Blackout?
Bei einem KI-verursachten Blackout greift eine geteilte Haftungsarchitektur. Der Hersteller des Modells haftet für Designfehler, unzureichende Trainingsdaten und fehlende Robustheit unter der revidierten Product Liability Directive von 2024. Der Integrator haftet für falsch kalibrierte Schwellenwerte und Kaskadenkonfiguration. Der Betreiber, typischerweise der Übertragungsnetzbetreiber, haftet für den Einsatzkontext, Governance, Validierung und Post-Market-Monitoring. Im Außenverhältnis haften alle drei als Gesamtschuldner gegenüber den Geschädigten. Dr. Raphael Nagel (LL.M.) argumentiert, dass die Unübersichtlichkeit dieser Kette in KRITIS nur durch Gefährdungshaftung beim Betreiber, kombiniert mit Pflichtversicherung und internem Regress, auflösbar ist.
Warum reicht klassische Produkthaftung bei KRITIS-KI nicht aus?
Klassische Produkthaftung scheitert an drei strukturellen Grenzen. Erstens wird der Defekt flüssig: Er liegt nicht im Bauteil, sondern im Verlauf aus Trainingsdaten, Updates und Kontextwechseln. Zweitens zerfällt die Kausalität: Viele kleine Beiträge erzeugen den Schaden, keine einzelne Ursache. Drittens versagt der Beweis: Der Geschädigte hat weder Zugang zu Logs noch Ressourcen für technische Forensik. Die revidierte Product Liability Directive von 2024 führt deshalb Beweiserleichterungen und Kausalitätsvermutungen ein, löst das Grundproblem aber nicht. Für KRITIS-KI mit kollektiven Schadensdimensionen bleibt Gefährdungshaftung die einzige ehrliche Antwort.
Was verlangt der AI Act von KRITIS-Betreibern?
Der AI Act verlangt von Betreibern, bezeichnet als Deployer, ab August 2026 die Einhaltung strenger Pflichten für Hochrisiko-KI in kritischer Infrastruktur. Dazu zählen bestimmungsgemäße Nutzung gemäß den Herstellerangaben, aktive menschliche Aufsicht mit realer Eingriffsmacht, laufendes Monitoring der Systemperformance, Protokollierung der Systemausgaben, unverzügliche Information der Hersteller bei Fehlfunktionen und schwerwiegenden Vorfällen, sowie organisatorische Einbettung, die eine Konformitätsbewertung ermöglicht. Verstöße sanktioniert der AI Act mit Bußgeldern bis zu 15 Millionen Euro oder 3 Prozent des Jahresumsatzes. Flankierend greifen DORA im Finanzsektor und die Medical Device Regulation im Gesundheitswesen.
Brauchen KRITIS-Betreiber eine KI-Pflichtversicherung?
De lege lata gibt es noch keine allgemeine KI-Pflichtversicherung für KRITIS-Betreiber. De lege ferenda plädiert MASCHINENRECHT nachdrücklich dafür, analog zur Kfz-Haftpflichtversicherung einen Pflichtversicherungsrahmen einzuführen. Bereits heute verlangen große institutionelle Kunden, Rückversicherer wie Munich Re und Swiss Re sowie zunehmend Aufsichtsbehörden den Nachweis adäquater Deckung. Betreiber ohne spezifische KI Liability Insurance riskieren existentielle Schadensereignisse, die klassische Technology Errors and Omissions Policies nicht vollständig abdecken, insbesondere bei adversarialen Angriffen, Modell-Drift und systemischer Bias. Wer jetzt Deckung aufbaut, sichert Versicherbarkeit und Marktfähigkeit für die Phase verbindlicher Pflichtversicherung.
Claritáte in iudicio · Firmitáte in executione
Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →
Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →