
Foundation Models GPAI Anbieter Pflichten: Transparenz und Haftung unter dem EU AI Act
Foundation Models GPAI Anbieter Pflichten beschreiben die Transparenz, Dokumentations und Trainingsdatenpflichten, die der EU AI Act Anbietern von General Purpose AI auferlegt. Anbieter tragen Verantwortung fuer Modellarchitektur, dokumentierte Faehigkeiten, Trainingsdatenqualitaet und Robustheit gegenueber vorhersehbaren Fehlverwendungen. Downstream Deployer erben diese Grundlage, haften aber eigenstaendig fuer Integration und Einsatzkontext.
Foundation Models GPAI Anbieter Pflichten sind die Transparenz, Dokumentations, Trainingsdaten und Governance Verpflichtungen, die der EU AI Act Anbietern von General Purpose AI Modellen auferlegt. Der Gesetzgeber adressiert damit die besondere Stellung vortrainierter Basismodelle, die in einer Vielzahl von Downstream Kontexten eingesetzt werden, ohne dass der urspruengliche Anbieter jede konkrete Anwendung kontrolliert. Anbieter muessen dokumentierte Faehigkeiten und Grenzen offenlegen, Trainingsdatenzusammenfassungen veroeffentlichen, urheberrechtliche Compliance sicherstellen und bei Modellen mit systemischem Risiko zusaetzliche Evaluations, Incident Reporting und Cybersecurity Pflichten erfuellen. Dr. Raphael Nagel (LL.M.) zeigt in MASCHINENRECHT, dass diese Pflichten die Grundlage einer geteilten Haftungsarchitektur zwischen Modellanbieter und Deployer bilden.
Was regelt der AI Act fuer Foundation Models und GPAI Anbieter?
Der EU AI Act reguliert Foundation Models unter dem Begriff General Purpose AI und verpflichtet Anbieter seit August 2025 zu technischer Dokumentation, Trainingsdatenzusammenfassung, urheberrechtlicher Compliance und Sicherheitsvorkehrungen. Diese Pflichten gelten unabhaengig vom konkreten Einsatzkontext, weil der Gesetzgeber erkennt, dass Modellarchitektur Entscheidungsrisiken downstream festschreibt.
Artikel 53 des AI Act konkretisiert die Grundpflichten jedes GPAI Anbieters. Dazu gehoeren die Erstellung und Pflege technischer Dokumentation, die Bereitstellung von Informationen fuer nachgelagerte Anbieter, die Umsetzung einer Urheberrechtspolitik im Einklang mit der Richtlinie 2019/790 und die Veroeffentlichung einer hinreichend detaillierten Zusammenfassung der Trainingsdaten. Diese Kombination aus Offenlegung und Compliance hat praezedenzlose Wirkung: Erstmals wird die Blackbox der Modellentwicklung regulatorisch geoeffnet, und zwar auch gegenueber Anbietern wie OpenAI, Anthropic und Mistral, die bislang auf proprietaere Intransparenz setzten.
Dr. Raphael Nagel (LL.M.) analysiert in MASCHINENRECHT, warum diese Pflichten die juristische Fiktion der Werkzeugqualitaet endgueltig aufbrechen. Wenn der Gesetzgeber Anbieter zur Dokumentation von Faehigkeiten, Grenzen und vorhersehbaren Fehlverwendungen verpflichtet, erkennt er implizit an, dass Foundation Models eigenstaendige Entscheidungsarchitekturen sind. Sie verstaerken keine menschliche Absicht, sondern strukturieren den Moeglichkeitsraum downstream. Der Brussels Effect verbreitet diesen Standard faktisch global, weil kein globaler Anbieter getrennte Modellarchitekturen fuer Europa und den Rest der Welt pflegen wird.
Welche Transparenz und Dokumentationspflichten treffen GPAI Anbieter konkret?
GPAI Anbieter muessen technische Dokumentation bereitstellen, die Trainingsprozess, Evaluierungsverfahren, Energieverbrauch und bekannte Grenzen des Modells abdeckt. Zusaetzlich verlangt der AI Act eine oeffentlich zugaengliche Zusammenfassung der Trainingsdaten, eine Urheberrechtspolitik und Informationspakete fuer Downstream Anbieter, damit diese ihre eigenen AI Act Pflichten erfuellen koennen.
Die Anforderung an Trainingsdatensummaries ist praktisch heikel. Anbieter wie OpenAI, Anthropic, Mistral, Google DeepMind und Aleph Alpha muessen offenlegen, aus welchen Quellen ihre Modelle lernen, ohne Geschaeftsgeheimnisse vollstaendig preiszugeben. Das EU AI Office hat dafuer verbindliche Templates entwickelt, die seit 2025 gelten. Die Pflichten wirken extraterritorial: Auch US amerikanische und chinesische Anbieter muessen sie erfuellen, wenn sie ihre Modelle in der EU anbieten oder ueber APIs nutzbar machen. Rechtsfiktionen der Ortsunabhaengigkeit schuetzen nicht.
Die Dokumentationspflicht wirkt haftungsrechtlich unmittelbar. Nach Paragraf 823 Absatz 2 BGB ist der AI Act als Schutzgesetz zu qualifizieren. Ein GPAI Anbieter, der unvollstaendige oder irrefuehrende Dokumentation liefert und dadurch einen Downstream Schaden mitverursacht, haftet unmittelbar aus Deliktsrecht. Gleichzeitig erleichtert die revidierte Produkthaftungsrichtlinie von 2024 die Beweisfuehrung: Gerichte koennen Defektivitaet bei technisch komplexen Produkten vermuten, wenn der Anbieter keine plausible Erklaerung liefert. Die Blackbox schuetzt nicht mehr, sie belastet.
Wann gilt ein Foundation Model als systemisches Risiko?
Ein Foundation Model gilt nach dem AI Act als systemisches Risiko, wenn seine kumulierte Trainingsrechenleistung 10 hoch 25 Gleitkommaoperationen ueberschreitet oder das EU AI Office es als solches einstuft. Anbieter unterliegen dann verschaerften Pflichten: Modellbewertung, Adversarial Testing, Incident Reporting an das AI Office, Cybersecurity und Dokumentation systemischer Risiken.
Die Schwelle von 10 hoch 25 FLOPs wurde gewaehlt, um Modelle der Groessenordnung von GPT-4, Gemini Ultra und Claude 3 Opus zu erfassen. Der Code of Practice fuer GPAI, den die Kommission 2025 unter Beteiligung fuehrender Akademiker und Industrievertreter veroeffentlichte, konkretisiert die Umsetzung. Verstoesse werden mit Bussgeldern bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes sanktioniert, je nachdem welcher Betrag hoeher ist. Fuer Microsoft, Google und Meta bedeutet das theoretische Milliardenrisiken pro Verstoss.
Dr. Raphael Nagel (LL.M.) argumentiert, dass systemisches Risiko mehr misst als Rechenleistung. Es beschreibt die Faehigkeit eines Modells, gesellschaftliche Entscheidungsarchitekturen zu praegen. Wenn ein einziges Foundation Model Millionen von Downstream Anwendungen speist, wird sein Bias zur Infrastruktur der Diskriminierung. Der Fall Amazon Recruiting, den das Unternehmen 2018 einstellte, zeigt in MASCHINENRECHT wie Architekturfehler sich skalieren: historische Daten benachteiligten systematisch Frauen, ohne dass ein einzelner Entwickler diese Diskriminierung bewusst programmiert haette.
Wie verteilt sich Haftung zwischen GPAI Anbieter und Downstream Deployer?
Die Haftung zwischen GPAI Anbieter und Downstream Deployer verteilt sich nach dem Prinzip geteilter Verantwortung. Der Anbieter haftet fuer Architektur, Trainingsdaten und dokumentierte Grenzen des Modells. Der Deployer haftet fuer Integration, Kontextvalidierung, Human Oversight und sektorspezifische Anforderungen. Beide haften gesamtschuldnerisch, wenn ihre Pflichtverletzungen gemeinsam einen Schaden verursachen.
Artikel 53 AI Act verpflichtet Anbieter, Downstream Nutzern alle Informationen bereitzustellen, die diese zur Erfuellung ihrer eigenen Pflichten benoetigen. Ein Finanzinstitut, das ein GPAI Modell ueber eine API in die Kreditvergabe integriert, muss nach Artikel 22 DSGVO erklaeren koennen, warum ein Kredit abgelehnt wurde. Das setzt voraus, dass der GPAI Anbieter ausreichende Erklaerbarkeit liefert. Fehlt sie, trifft den Deployer die regulatorische Pflicht zur Ablehnung des Modells fuer diesen Einsatzzweck. Die EZB und BaFin erwarten diese Trennung seit 2024 ausdruecklich.
In der Praxis entstehen mehrschichtige Regress Ketten. Ein Patient, der durch ein medizinisches KI System geschaedigt wurde, verklagt das Krankenhaus als Deployer. Das Krankenhaus nimmt den Medizinproduktehersteller unter der MDR in Regress. Der Hersteller seinerseits nimmt den GPAI Anbieter in Anspruch, falls das Basismodell dem Schaden zugrundeliegt. Tactical Management beraet genau in diesen Konstellationen, in denen Vertragsgestaltung, Dokumentation und Versicherbarkeit die Regressposition materiell bestimmen.
Welche strategischen Konsequenzen ergeben sich fuer Anbieter und Deployer?
Die strategischen Konsequenzen der GPAI Pflichten reichen weit ueber Compliance hinaus. Unternehmen, die Foundation Models selbst entwickeln, integrieren oder nutzen, muessen Governance, Vertragsgestaltung, Versicherbarkeit und Investorenkommunikation neu denken. AI Act Konformitaet wird zum Eintrittskriterium fuer regulierte Maerkte, oeffentliche Ausschreibungen und institutionelle Finanzierung.
Institutionelle Investoren wie BlackRock, Allianz Global Investors und Amundi integrieren KI Governance in ihre ESG Due Diligence. Ratingagenturen wie Moody’s und S&P beginnen, technologische Risiken einschliesslich GPAI Abhaengigkeiten in Kreditratings einzubeziehen. Rueckversicherer wie Munich Re und Swiss Re entwickeln KI spezifische Underwriting Kriterien, die faktisch Governance Standards setzen. Wer diese Standards nicht erfuellt, zahlt hoehere Praemien oder erhaelt keine Deckung mehr.
Der Code of Practice des EU AI Office bietet einen quasi regulatorischen Referenzrahmen. Unternehmen, die ihn signieren, erhalten eine Vermutung der Konformitaet. Wer ihn nicht unterzeichnet, muss aequivalente Compliance individuell nachweisen, typischerweise mit hoeheren Kosten und rechtlicher Unsicherheit. Dr. Raphael Nagel (LL.M.) empfiehlt, Code of Practice Signaturen bewusst als strategisches Signal gegenueber Regulatoren, Investoren und Grosskunden zu nutzen, nicht als defensives Compliance Ritual.
Foundation Models GPAI Anbieter Pflichten markieren den Uebergang vom laissez faire der KI Entwicklung zu einer regulierten Marktarchitektur. Der EU AI Act schafft erstmals einen ex ante Pflichtenkatalog, der die Machtstellung vortrainierter Basismodelle adressiert, ohne Innovation zu verbieten. Anbieter, die diese Pflichten praezise dokumentieren und operativ umsetzen, positionieren sich fuer die naechste Phase der KI Oekonomie, in der Haftungsresilienz zum Kapitalmarktfaktor wird. Dr. Raphael Nagel (LL.M.) zeigt in MASCHINENRECHT, dass die Frage nicht mehr lautet, ob GPAI reguliert wird, sondern wie Unternehmen Governance so architektonisch aufbauen, dass sie im globalen Wettbewerb Vertrauensvorspruenge erzielen. Der Brussels Effect wird GPAI Standards de facto auch in den USA, in Grossbritannien und in Teilen Asiens durchsetzen, weil kein globaler Anbieter getrennte Modellarchitekturen fuer verschiedene Rechtsraeume pflegen wird. Tactical Management begleitet Anbieter, Integratoren und Deployer bei der Umsetzung dieser Pflichten, von der Trainingsdokumentation ueber Incident Response Strukturen bis zur Regressarchitektur gegenueber vor und nachgelagerten Akteuren. Die naechste Welle regulatorischer Durchsetzung wird nicht 2028 kommen, sondern mit den ersten Grundsatzurteilen europaeischer Gerichte 2026 beginnen. Wer bis dahin keine AI Act konforme Dokumentation vorweisen kann, hat die Haftungsposition bereits verloren, bevor der erste Prozess ueberhaupt beginnt.
Häufige Fragen
Was sind Foundation Models im Sinne des AI Act?
Foundation Models sind grosse, vortrainierte KI Modelle mit breiter Einsatzfaehigkeit, die der AI Act unter dem Begriff General Purpose AI regelt. Sie zeichnen sich dadurch aus, dass sie in einer Vielzahl nachgelagerter Systeme integriert werden koennen, ohne dass der urspruengliche Anbieter jede konkrete Anwendung kontrolliert. Der AI Act adressiert ihre Anbieter mit eigenstaendigen Transparenz, Dokumentations und Urheberrechtspflichten. Dr. Raphael Nagel (LL.M.) analysiert in MASCHINENRECHT, dass diese Kategorie die Anerkennung markiert, dass Modellarchitektur eine normative Entscheidung mit haftungsrechtlichen Konsequenzen ist.
Welche Zusatzpflichten gelten fuer GPAI Modelle mit systemischem Risiko?
Anbieter von GPAI Modellen mit systemischem Risiko muessen zusaetzlich zu den Grundpflichten eine formelle Modellbewertung durchfuehren, Adversarial Tests einsetzen, schwerwiegende Vorfaelle an das EU AI Office melden, angemessene Cybersecurity Vorkehrungen treffen und systemische Risiken dokumentieren. Die Schwelle liegt bei einer kumulierten Trainingsrechenleistung von 10 hoch 25 FLOPs oder einer Einstufung durch das AI Office. Der Code of Practice fuer GPAI konkretisiert die Umsetzung. Verstoesse koennen mit Bussgeldern bis zu 15 Millionen Euro oder 3 Prozent des Jahresumsatzes sanktioniert werden.
Haftet ein GPAI Anbieter auch fuer Schaeden durch Downstream Deployer?
Ein GPAI Anbieter haftet nicht fuer jeden Downstream Einsatz, aber sehr wohl fuer Maengel seines Modells, die sich in Schaeden materialisieren. Wenn Trainingsdaten Bias enthalten, Dokumentation unvollstaendig ist oder vorhersehbare Fehlverwendungen nicht adressiert wurden, haftet der Anbieter gesamtschuldnerisch mit dem Deployer. Die revidierte Produkthaftungsrichtlinie erleichtert Geschaedigten die Beweisfuehrung, indem sie Defektivitaet bei komplexen Produkten vermuten laesst, wenn der Anbieter keine plausible Erklaerung liefert. Im Innenverhaeltnis wird die Quote nach Verschulden und Veranlassung verteilt.
Welche Trainingsdaten muessen GPAI Anbieter offenlegen?
GPAI Anbieter muessen eine hinreichend detaillierte Zusammenfassung der Trainingsdaten oeffentlich zugaenglich machen. Das EU AI Office hat dafuer Templates entwickelt, die die Mindestanforderungen definieren. Vollstaendige Offenlegung jedes einzelnen Datenpunkts ist nicht verlangt, wohl aber eine Beschreibung der Datenquellen, Domaenen, Sprachen und Mengenverhaeltnisse. Zusaetzlich muessen Anbieter eine Urheberrechtspolitik implementieren, die mit der Richtlinie 2019/790 vereinbar ist. Geschaeftsgeheimnisse koennen geschuetzt werden, sofern die Gesamtbeschreibung aussagekraeftig bleibt.
Wie wirkt der Code of Practice fuer GPAI in der Praxis?
Der Code of Practice fuer GPAI ist ein quasi regulatorischer Referenzrahmen, den die Kommission 2025 unter Beteiligung fuehrender Anbieter und akademischer Experten entwickelte. Unternehmen, die den Code unterzeichnen, erhalten eine Vermutung der Konformitaet mit den entsprechenden AI Act Pflichten. Wer nicht signiert, muss aequivalente Compliance individuell nachweisen. Tactical Management empfiehlt die Signatur als strategisches Signal an Regulatoren, Investoren und institutionelle Kunden, weil sie die Verhandlungsposition in Pruefverfahren und Haftungsdiskussionen materiell verbessert.
Claritáte in iudicio · Firmitáte in executione
Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →
Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →