Zum Hauptinhalt springen

Hard Facts

Kategorie: Gesetzesentwurf

Veröffentlicht: 28. September 2022

Akteure: Europäische Kommission

Zusammenfassung

Die Europäische Kommission legte am 28. September 2022 einen Gesetzesentwurf für eine KI-Haftungsrichtlinie vor. Ziel der Richtlinie ist es Verbraucher·innen, die durch Produkte auf Basis Künstlicher Intelligenz geschädigt wurden, Möglichkeit zur Durchsetzung von Schadensersatzansprüchen zu bieten. Die KI-Haftungsrichtlinie ergänzt somit die bereits geltende EU-Produkthaftungsrichtlinie, die die Haftpflicht für fehlerhafte Produkte im Allgemeinen, unter die auch Software-Produkte fallen, regelt. Die KI-Haftungsrichtlinie greift zusätzlich zu den in der Produkthaftungsrichtlinie aufgegriffenen materiellen Schäden, auch immaterielle Schäden auf. So sollen Verbraucher·innen zusätzlich auch Schadensersatzansprüche geltend machen können, wenn ein KI-System ihre Grundrechte wie das Recht auf freie Meinungsäußerung, Menschenwürde oder Gleichbehandlung verletzt.

Die KI-Haftungsrichtlinie versucht außerdem dem Umstand zu begegnen, dass die technische Komplexität und Intransparenz von „Black Box“-KI-Systemen es Verbraucher·innen praktisch unmöglich macht, die Verursachung eines Schadensfalls zu beweisen. Um dem entgegenzuwirken, vereinfacht die KI-Haftungsrichtlinie die Beweisführung für Verbraucher·innen mit der sogenannten „Kausalitätsvermutung“. Diese soll allerdings nur bei Systemen greifen, die als Hochrisiko-Systeme eingestuft werden. Die Kläger·innen sollen in diesem Fall nicht mehr im Detail den technischen Zusammenhang zwischen dem Fehlverhalten der Angeklagten und dem entstandenen Schaden schildern. Stattdessen soll der Nachweis ausreichen, dass das KI-System den Schaden beeinflusst hat und gegen Prüf- und Sorgfaltspflichten der KI-Verordnung verstößt. Zweitens ermöglicht die KI-Haftungsrichtlinie den Kläger·innen, bereits vor dem Verfahren, Einsichtnahme in die Beweismittel, wenn sie die Plausibilität ihres Schadensersatzanspruchs belegen können. So sollen Verbraucher·innen die mitunter abschreckend hohen Prozesskosten und ihre Erfolgsaussichten im Verfahren besser einschätzen können.

Relevanz

Die KI-Haftungsrichtlinie soll die sich noch in Verhandlungen befindliche KI-Verordnung ergänzen und bezieht sich direkt auf die Vorgaben, die darin gemacht werden. Diese Abhängigkeit als auch der noch offene Verhandlungsstand lassen noch weitestgehend offen, wie verbraucher·innenfreundlich die Richtlinie tatsächlich wirken wird. Gleichzeitig erheben bereits zum jetzigen Zeitpunkt Verbraucherschutzorganisationen und weitere Akteure der Zivilgesellschaft Kritik. Einer der umstrittensten Punkte der KI-Haftungsrichtlinie ist, dass Verbraucher·innen ein konkretes Fehlverhalten der Beschuldigten nachweisen müssen, um Schadensersatz zu erhalten. Die Hürden für diesen Nachweis werden trotz der Maßnahmen zur Vereinfachung der Beweisführung von vielen als zu hoch eingeschätzt. Kritisiert wird beispielsweise, dass sowohl für den Antrag auf Offenlegung der Beweismittel als auch für deren Einsichtnahme kostspielige Sachverständige hinzugezogen werden müssen, da die Beweismittel für Normalverbraucher·innen in der Regel nicht zu durchschauen sind. Ein weiterer Kritikpunkt ist, dass die „Kausalitätsvermutung“ nur bei KI-Systemen greift, die als besonders riskant eingestuft werden. Bei anderen KI-Systemen wird die Beweisführung nur dann vereinfacht, wenn das Gericht einen detaillierten Nachweis für zu schwierig hält. Als verbraucher·innenfreundlichere Alternative wird die „Gefährdungshaftung“ eingeordnet, wie sie zum Beispiel in der EU-Produkthaftungsrichtlinie zum Einsatz kommt und sowohl von Akteuren aus der Zivilgesellschaft und EU-Parlamentarier·innen befürwortet wird. Hier haften Hersteller·innen grundsätzlich für die Gefahren, die von ihren Produkten ausgehen, ohne dass ein konkretes Fehlverhalten nachgewiesen werden muss. Nach fünf Jahren soll die KI-Haftungsrichtlinie grundsätzlich evaluiert und die Frage der Gefährdungshaftung erneut geprüft werden.