EU-KI-Verordnung: Kennzeichnungspflicht für KI-Inhalte ab August 2026 – Rechtssicherheit und Compliance-Strategien für Legal Tech und Kanzleien
Ab dem 2. August 2026 gilt EU-weit eine verbindliche Kennzeichnungspflicht für KI-generierte Inhalte nach Artikel 50 der EU-KI-Verordnung. Deepfakes, KI-Texte zu öffentlichen Themen und Chatbots müssen transparent gekennzeichnet werden – bei Verstößen drohen Bußgelder bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes. Dieser Artikel erklärt die konkreten Anforderungen, rechtlichen Ausnahmen und praktische Umsetzungsschritte für Kanzleien und Legal Tech-Anbieter.
Die neue Kennzeichnungspflicht: Rechtsgrundlage und Zielsetzung
Die Kennzeichnungspflicht für KI-generierte Inhalte tritt am 2. August 2026 in Kraft und ist in Artikel 50 des EU AI Acts geregelt. Diese Maßnahme dient dazu, Transparenz zu gewährleisten und Risiken wie Desinformation oder Täuschungen durch Deepfakes zu minimieren.
Seit dem 1. August 2024 gilt in Europa der EU AI Act (Verordnung (EU) 2024/1689) – die erste umfassende gesetzliche Regelung für Künstliche Intelligenz (KI). Ziel der Verordnung ist es, den Einsatz von KI sicher, transparent und ethisch zu gestalten, die Grundrechte der Menschen zu schützen und gleichzeitig Innovation zu ermöglichen. Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko einer KI-Anwendung – etwa für Sicherheit, Gesundheit oder Grundrechte –, desto strenger die Anforderungen.
Artikel 50 wird ab dem 2. August 2026 die größte Anzahl an Unternehmen direkt betreffen. Artikel 50 trifft jeden, der einen Chatbot betreibt, KI-generierte Bilder im Marketing einsetzt, mit Voicebots arbeitet oder KI-erzeugte Texte zu Themen von öffentlichem Interesse veröffentlicht. Das sind in der Praxis fast alle Mittelständler mit einer halbwegs modernen Marketing- oder Kundenservice-Abteilung.
Vier zentrale Pflichtenkreise nach Artikel 50 EU-KI-Verordnung
Die EU-Verordnung über Künstliche Intelligenz sieht für Anbieter und Betreiber von KI-Systemen bestimmte Transparenzpflichten vor, die insbesondere in Artikel 50 der KI-VO geregelt sind. Demnach müssen ab dem 2. August 2026: KI-Interaktionen mit Menschen als solche zu erkennen sein, KI-generierte Texte, Bilder, Fotos, Videos und Audioinhalte entsprechend markiert werden, Deepfakes (täuschend echte KI-generierte Bilder oder Videos) so gekennzeichnet sein, dass sie klar als manipulierte Inhalte zu erkennen sind.
1. Chatbot-Hinweispflicht
Die Anbieter stellen sicher, dass KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren, es sei denn, dies ist aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich.
Wie die Kennzeichnung konkret zu erfolgen hat, ist nicht geregelt. Gefordert wird lediglich, dass eine "klare und eindeutige Information" spätestens zum Zeitpunkt der ersten Interaktion gegeben werden soll.
2. Technische Markierung synthetischer Inhalte (Anbieter)
Anbieter von KI-Systemen, einschließlich KI-Systemen mit allgemeinem Verwendungszweck, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet werden.
Der zweite Entwurf des Code of Practice verfolgt einen mehrschichtigen, technologieneutralen Ansatz. Keine einzelne Technik wird als ausreichend betrachtet. Stattdessen sollen Anbieter mindestens zwei maschinenlesbare Verfahren kombinieren: Digital signierte Metadaten: Einbettung kryptografisch gesicherter Herkunftsinformationen nach Standards wie C2PA (Coalition for Content Provenance and Authenticity) und IPTC. Imperceptible Watermarking: Nicht wahrnehmbare Wasserzeichen auf Pixel- oder Frequenzebene, die auch nach Bearbeitung oder Komprimierung erhalten bleiben sollen.
3. Deepfake-Offenlegung (Betreiber)
Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.
Ein Deepfake, wie es der AI Act (Art. 3(60)) definiert, ist ein Bild-, Audio- oder Videoinhalt, der durch KI erzeugt oder manipuliert wurde und realen Personen, Objekten, Orten oder Ereignissen ähnelt und wahrscheinlich eine Person dazu verleiten würde, zu glauben, dass er authentisch ist.
Die Faustregel: Sobald eine KI aus Deinem echten Gesicht, Deiner echten Stimme oder Deinen echten Gesten etwas Neues erzeugt, das Du so nicht aufgenommen hast – auch wenn Du es so aufgenommen hättest – ist es ein Deepfake im Sinne der Verordnung. Punkt.
4. KI-generierte Texte von öffentlichem Interesse
Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.
Themen von öffentlichem Interesse betreffen, etwa Nachrichten oder Stellungnahmen. Marketingtexte oder interne Inhalte fallen in der Regel nicht darunter – können aber je nach Kontext relevant werden.
Rechtliche Ausnahmen: Wann entfällt die Kennzeichnungspflicht?
Eine der wichtigsten Ausnahmen betrifft die redaktionelle Kontrolle. Insbesondere für Journalisten, Freiberufler und Kanzleien von Bedeutung ist, dass die Kennzeichnungspflicht von Texten, die von einer KI erzeugt wurden, entfällt, wenn diese von einem Menschen überprüft oder redaktionell kontrolliert wurden. Entscheidend ist, dass eine Person benannt ist, die redaktionelle Verantwortung für die Inhalte trägt.
Ausnahmegrund | Anwendungsbereich | Rechtliche Grundlage |
|---|---|---|
Redaktionelle Kontrolle | Texte und Medien mit menschlicher Überprüfung und benannter redaktioneller Verantwortung | Art. 50 Abs. 4 EU-KI-VO |
Künstlerische/satirische Werke | Offensichtlich kreative Darstellungen ohne Täuschungsabsicht | Art. 50 Abs. 3 EU-KI-VO |
Strafverfolgung | Gesetzlich zugelassene KI-Nutzung bei Ermittlungen | Art. 50 Abs. 2, 4 EU-KI-VO |
Assistive Bearbeitung | Geringfügige KI-Unterstützung ohne wesentliche Änderung | Art. 50 EU-KI-VO (Auslegung) |
Interne Nutzung | Nicht veröffentlichte, rein private Anwendung | Art. 50 EU-KI-VO (Anwendungsbereich) |
Die Erstellung von Inhalten durch ein KI-System, sodass der Eindruck entsteht, der Beitrag sei ausschließlich von einem Menschen verfasst worden, unterliegt grundsätzlich der Kennzeichnungspflicht. Nutzt ein menschlicher Autor einen KI-generierten Entwurf, überarbeitet diesen und prägt diesen dadurch maßgeblich, entfällt die Kennzeichnungspflicht. Das KI-System dient hierbei lediglich als Hilfsmittel.
Bußgelder und Sanktionen: Millionenschwere Risiken für Unternehmen
Die Sanktionen bei Verstößen gegen die Kennzeichnungspflicht sind empfindlich. Bei Verstößen gegen die Transparenzpflichten können erhebliche Bußgelder drohen: bis 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes. Hierbei gilt der höhere Betrag.
Unternehmensumsatz | Maximales Bußgeld (3% Regel) | Festbetrag | Anwendbarer Betrag |
|---|---|---|---|
100 Mio. € | 3 Mio. € | 15 Mio. € | 15 Mio. € (höherer Betrag) |
500 Mio. € | 15 Mio. € | 15 Mio. € | 15 Mio. € (beide gleich) |
1 Mrd. € | 30 Mio. € | 15 Mio. € | 30 Mio. € (höherer Betrag) |
10 Mrd. € | 300 Mio. € | 15 Mio. € | 300 Mio. € (höherer Betrag) |
Quelle: Art. 99 Abs. 4 EU-KI-Verordnung
Die Bußgelder sind keine theoretische Drohkulisse. Die nationalen Aufsichtsbehörden werden ab August 2026 aktiv Kontrollen durchführen. Möglich ist ebenfalls, dass Verstöße gegen die Kennzeichnungspflichten KI-generierter Inhalte durch Wettbewerber mit Abmahnungen verfolgt werden können.
Technische Umsetzung: Code of Practice und Standards
Die finale Fassung des Code of Practice wird für Anfang Juni 2026 erwartet – rund zwei Monate vor dem Anwendungsdatum. Damit steht die praktische Orientierungshilfe rechtzeitig zur Verfügung, allerdings bleibt die Vorbereitungszeit für Unternehmen knapp.
Für Anbieter gilt: KI-Outputs sollen maschinenlesbar als KI-generiert markiert sein. Zwei Schichten sind vorgesehen — digital signierte Metadaten und ein imperzeptibles (unsichtbares) Wasserzeichen. Referenzstandard ist der C2PA-Standard, der eine Art digitalen Beipackzettel an Dateien heftet und schon von Adobe, Microsoft und Google eingesetzt wird.
Maschinenlesbare Kennzeichnung
Standard | Beschreibung | Anwendungsbereich | Widerstandsfähigkeit |
|---|---|---|---|
C2PA (Coalition for Content Provenance and Authenticity) | Kryptografisch signierte Metadaten mit Herkunftsnachweisen | Bilder, Videos, Audio | Hoch bei intakten Metadaten |
IPTC DigitalSourceType | Standardisierte Metadaten-Tags für KI-Kennzeichnung | Bilder | Mittel (kann entfernt werden) |
Imperceptible Watermarking | Unsichtbare Wasserzeichen in Pixel-/Frequenzebene | Bilder, Videos, Audio | Hoch auch nach Bearbeitung |
Herkunftszertifikate | Separate Zertifikate für Textformate | Texte ohne Metadaten-Support | Hoch durch externe Verifikation |
Schluss mit #FOMO – lassen Sie uns sprechen
Sie haben bis hierher gelesen – das zeigt echtes Interesse an der Zukunft Ihrer Kanzlei. Lassen Sie uns herausfinden, wie clever.legal Ihnen konkret weiterhilft.
Strategie-Gespräch vereinbarenExklusiv: Nur ein Partner pro Rechtsgebiet und Region.
Quelle: Zweiter Entwurf Code of Practice der EU-Kommission, März 2026
Menschenlesbare Kennzeichnung
Der Code of Practice schlägt ein harmonisiertes gemeinsames Symbol auf EU-Ebene vor, um KI-generierte Inhalte zu identifizieren. Bis zur Fertigstellung eines EU-weiten interaktiven Symbols ist die Übergangslösung ein visuelles Label mit dem Akronym "AI" (oder seinem lokalen Äquivalent: "IA" auf Französisch, "KI" auf Deutsch).
Typische Formulierungen für die Kennzeichnung könnten lauten: "Der Text / der Inhalt / die Grafik / das Bild wurde von einem KI-System generiert." Die Verordnung schreibt vor, dass die Kennzeichnung klar, sichtbar und barrierefrei erfolgen muss: direkt im Zusammenhang mit dem jeweiligen Inhalt. Formulierungen wie "KI-generierter Inhalt" oder "Dieses Bild wurde künstlich erzeugt oder manipuliert" gelten als ausreichend.
Besondere Herausforderungen für Anwaltskanzleien und Legal Tech
Die fehlende Routine im Umgang mit KI (58,3 %) ist das am häufigsten genannte Hindernis für Nicht-Nutzer:innen, gefolgt von Bedenken hinsichtlich des Datenschutzes, der Implementierungskosten und ethischen Fragen. Eine aktuelle Studie des Benchmark-Berichts 2026 von Wolters Kluwer zeigt, dass 63,3% der deutschen Kanzleien bereits KI einsetzen.
Berufsrechtliche Aspekte für Kanzleien
Für deutsche Kanzleien bleiben daneben zentrale Pflichten maßgeblich: die anwaltliche Verschwiegenheit (§ 203 StGB, § 43a Abs. 2 BRAO), Sorgfalt und Eigenverantwortung bei der Mandatsbearbeitung (BRAO/BORA) sowie Datenschutz nach DSGVO/BDSG. Die Bundesrechtsanwaltskammer (BRAK) hat hierzu einen Leitfaden mit konkreten Handlungshinweisen zum KI-Einsatz veröffentlicht.
Im Zentrum der DAV-Stellungnahme steht die Botschaft: Anwältinnen und Anwälte dürfen KI nutzen, müssen deren Ergebnisse aber grundsätzlich eigenständig prüfen. Nur wenn der Mandant ausdrücklich vereinbart, dass ein KI-Ergebnis ungeprüft Grundlage der weiteren Arbeit sein darf, ist die unmittelbare Übernahme zulässig – ansonsten verletzt blindes Vertrauen in maschinelle Antworten das Gebot gewissenhafter Berufsausübung.
Praktische Herausforderungen für Kanzleien
Bereich | Herausforderung | Lösungsansatz | Compliance-Anforderung |
|---|---|---|---|
Schriftsätze | KI-unterstützte Textgenerierung | Redaktionelle Kontrolle durch Anwalt | Benannte redaktionelle Verantwortung |
Chatbots auf Kanzlei-Website | Mandanten-Interaktion ohne Hinweis | Klare KI-Kennzeichnung bei Erstkontakt | Art. 50 Abs. 1 EU-KI-VO |
Marketing-Materialien | KI-generierte Bilder von Kanzlei/Team | Sichtbare Deepfake-Kennzeichnung | Art. 50 Abs. 4 EU-KI-VO |
Mandatsgeheimnisse | Datenschutz bei KI-Tools | DSGVO-konforme Systeme, AV-Verträge | § 203 StGB, Art. 28 DSGVO |
Dokumentenanalyse | KI-gestützte Vertragsauswertung | Vier-Augen-Prinzip, fachliche Prüfung | BRAO/BORA Sorgfaltspflichten |
Für Unternehmen und Kanzleien bedeutet dies, dass klar geregelt werden muss, wer KI-generierte Inhalte vor der Veröffentlichung oder Weitergabe prüft. Im Vorfeld sollte zudem festgelegt werden, wer und in welchem Umfang KI einsetzen darf und welche Inhalte nicht von einer KI verarbeitet werden dürfen. Dabei sollte vor allem auf die Verarbeitung personenbezogener Daten geachtet werden.
Branchenspezifische Auswirkungen auf Legal Tech-Anbieter
Legal Tech-Anbieter sind sowohl als Provider als auch als Deployer von der neuen Regelung betroffen. Die Integration von Künstlicher Intelligenz (KI) in den Kanzleialltag wird immer wichtiger. Inzwischen gibt es eine wachsende Zahl an Lösungen, die Kanzleien bei zentralen Aufgaben unterstützen – von der juristischen Recherche über die Mandatsannahme bis hin zur Dokumentenanalyse und zum Wissensmanagement. In dieser Marktübersicht stellen wir Ihnen zwölf KI-Tools vor, die helfen können, Arbeitsabläufe zu straffen und wiederkehrende Tätigkeiten zu automatisieren.
Compliance-Anforderungen für Legal Tech-Anbieter
Als Anbieter von KI-Systemen müssen Legal Tech-Unternehmen eine technische Implementierung vornehmen, die eine Kombination aus Metadaten-Einbettung und Wasserzeichentechnik erfordert. Der Standard C2PA wird in der Praxis als Referenzrahmen betrachtet, auch wenn der Code of Practice technologieneutral formuliert ist.
Legal Tech-Kategorie | Typische KI-Funktionen | Kennzeichnungsanforderungen | Technische Umsetzung |
|---|---|---|---|
Dokumentenautomatisierung | Vertragsgenerierung, Schriftsatz-Entwürfe | Maschinenlesbare Markierung von Outputs | C2PA-Metadaten, Herkunftszertifikate |
Recherche-Plattformen | KI-Zusammenfassungen, Antwortgenerierung | Kennzeichnung synthetischer Texte | Textuelle Kennzeichnung, API-basierte Tags |
Chatbot-Lösungen | Mandanten-Intake, FAQ-Beantwortung | Hinweispflicht bei Nutzerinteraktion | UI-Integration, Begrüßungsnachrichten |
Kanzleisoftware | KI-Assistenten, Aktenanalyse | Interne Tools meist ausgenommen | Dokumentation für externe Outputs |
Beispiele aus der Praxis zeigen bereits die Umsetzung: juris stellt als Online-Anbieter für Rechtsinformationen eine Rechercheplattform mit semantischer Suche und KI-Funktionen bereit. Im juris Portal können Fragen gestellt und Inhalte schnell erschlossen werden; für Microsoft Word steht zudem ein Add-In zur Verfügung, das den KI-Chat direkt in die Textverarbeitung einbindet. Die KI verwendet ausschließlich die geprüften Quellen des juris Portals. Suche und inhaltliche Aufbereitung erfolgen intern in eigenen Rechenzentren; das generative Sprachmodell wird nicht mit Nutzerinhalten trainiert.
Praktische Umsetzungsschritte für Kanzleien und Legal Tech-Unternehmen
Sofortige Maßnahmen (bis Juni 2026)
KI-Inventarisierung: Prüfen Sie zeitnah, welche KI-Systeme im Unternehmen eingesetzt werden und ob diese Inhalte generieren, die unter die Kennzeichnungspflicht fallen.
Risikobewertung: Inventarisieren Sie KI-Tools & Touchpoints Welche Tools werden wofür genutzt? Wer veröffentlicht wo? Risikomatrix bauen Welche Content-Arten haben Täuschungspotenzial (realistische Bilder, Voice/Video, "News"-artige Inhalte)?
Redaktionelle Prozesse: In der Praxis spielt ein weiterer Aspekt eine wichtige Rolle: Texte sind von der Kennzeichnungspflicht ausgenommen, wenn sie von einem Menschen überprüft oder redaktionell kontrolliert wurden und wenn eine Person benannt ist, welche die redaktionelle Verantwortung trägt. Es empfiehlt sich daher insbesondere für Unternehmen, klare Regelungen und Strukturen festzulegen: Wer überprüft Texte vor der Veröffentlichung? Wer darf KI einsetzen? Und welche Inhalte dürfen grundsätzlich nicht über KI verarbeitet werden? Auf diese Weise lässt sich nicht nur die Kennzeichnungspflicht verlässlich umsetzen, sondern auch die interne Verantwortung transparent zuordnen.
Technische Implementierung (bis August 2026)
Umsetzungsbereich | Maßnahme | Zeitrahmen | Priorität |
|---|---|---|---|
Maschinenlesbare Kennzeichnung | C2PA-Standard implementieren, Metadaten-Integration | Juli-August 2026 | Hoch |
Sichtbare Kennzeichnung | UI-Anpassungen, Standard-Formulierungen definieren | Juni-Juli 2026 | Hoch |
Workflow-Anpassungen | Redaktionelle Kontrollprozesse etablieren | Mai-Juni 2026 | Mittel |
Dokumentation | Compliance-Nachweise, Verantwortlichkeiten festlegen | Laufend | Mittel |
Schulungen | Mitarbeiterschulungen zu KI-Kennzeichnung | Juni 2026 | Mittel |
Langfristige Compliance-Strategie
Der AI Act verlangt – je nach Risiko – Risikomanagement, Dokumentation, Transparenz, Governance und ggf. Konformitätsbewertung. Eigenverantwortliche Prüfung: KI-Ergebnisse sind stets fachlich zu verifizieren (kein "Autopilot"). Datenschutz & Vertraulichkeit: Nur datenschutzkonforme Systeme einsetzen; Auftragsverarbeitungsverträge schließen; Datenminimierung. Dokumentation: KI-Einsatz und -Entscheidungsgrundlagen nachvollziehbar festhalten (Mandatsakte). Organisation: Interne KI-Policy, Rollen, Freigabeschritte, Schulungen (auch angelehnt an die AI-Act-KI-Kompetenzpflicht).
Die Integration von technischen Kennzeichnungs-Tools (z. B. Wasserzeichen, Metadaten), eine rechtliche Prüfung, welche Inhalte unter die Kennzeichnungspflicht fallen, sowie Schulungen für Marketing- und Content-Teams, um Kennzeichnungsregeln einheitlich umzusetzen. Wer diese Schritte jetzt angeht, schafft nicht nur Rechtssicherheit, sondern positioniert sich auch als transparentes und vertrauenswürdiges Unternehmen im Umgang mit KI.
Ausblick: KI-Governance als Wettbewerbsvorteil
Zusammenfassend lässt sich sagen, dass der EU AI Act zwar enorme Anforderungen an die Organisation stellt, aber gleichzeitig eine historische Chance bietet. Im Jahr 2026 ist die Zeit des unregulierten Experimentierens endgültig vorbei. Unternehmen, die ihre Compliance-Hausaufgaben gemacht haben, gewinnen einen entscheidenden Wettbewerbsvorteil: Vertrauen. "Vertrauen ist im digitalen Zeitalter die härteste Währung. Wer beweist, dass seine Algorithmen fair und sicher sind, wird Kunden binden, während andere an ihrer Intransparenz scheitern." Kunden, Partner und Investoren bevorzugen zunehmend Unternehmen, die nachweisen können, dass ihre KI-Lösungen sicher, fair und transparent sind.
Die Kennzeichnungspflicht ist dabei nur der Anfang einer umfassenderen KI-Governance. KI ist längst mehr als nur ein Werkzeug – sie entwickelt sich zu einer operativen Notwendigkeit. Im Jahr 2026 werden Legal-Tech-Pioniere deshalb über reine Pilotprojekte hinausgehen und Rahmenwerke für die KI-Governance, Risikokontrollen, Compliance und ethische Rahmenbedingungen einführen.
Für Kanzleien und Legal Tech-Anbieter bedeutet die neue Regelung eine Chance, sich als verantwortungsvolle Akteure zu positionieren. 2026 ist das Jahr, in dem KI-Kompetenz von "nice to have" zu "must have" wird. Juristen, die diesen Übergang gestalten, gewinnen. Mit einem 700-Euro-Kurs und regelmäßiger Praxis (30 Minuten täglich) erwerben Sie innerhalb von 3-6 Monaten eine relevante KI-Kompetenz, die Ihre Karriere transformiert.
Die EU-KI-Verordnung schafft klare Rahmenbedingungen für den Einsatz von KI im Rechtsbereich. Wer frühzeitig handelt und die Kennzeichnungspflichten systematisch umsetzt, kann sich nicht nur vor Bußgeldern schützen, sondern auch das Vertrauen von Mandanten und Geschäftspartnern stärken. Die Investition in KI-Compliance zahlt sich langfristig als Qualitätsmerkmal und Wettbewerbsvorteil aus.
Schluss mit #FOMO – lassen Sie uns sprechen
Sie haben bis hierher gelesen – das zeigt echtes Interesse an der Zukunft Ihrer Kanzlei. Lassen Sie uns herausfinden, wie clever.legal Ihnen konkret weiterhilft.
Strategie-Gespräch vereinbarenExklusiv: Nur ein Partner pro Rechtsgebiet und Region.
Autor
Marc Ellerbrock
Rechtsanwalt
Marc ist das juristische Rückgrat von clever.legal. Rechtsanwalt, Fachanwalt für Bank- und Kapitalmarktrecht, Partner, zuvor Leiter der Rechtsabteilung einer Emittenten-Gruppe, Bankkaufmann. Seine Schwerpunkte: Prozessführung, Kapitalmarktrecht, Versicherungsrecht, Haftungsabwehr (Vermittler, Berater, Makler), Rückabwicklung von Versicherungsverträgen, Schadensersatz von Versicherungsgesellschaften, Glücksspielrecht. Während andere Massenverfahren als organisatorisches Risiko sehen, sieht er sie als algorithmische Herausforderung. Mit seiner Erfahrung in komplexen Haftungsfällen übersetzt er die starre Logik des Gesetzes in die flexible Logik der KI-Engine.
