Köpfe & Positionen

Wer haftet bei künstlicher Intelligenz?

Von VW-RedaktionTagesaktuelle Informationen und Neuigkeiten aus der Versicherungsbranche. Alle Nachrichten des Tagesreports auch als Newsletter abonnierbar.
Nachdem Rechts- und insbesondere Haftungsfragen zum autonomen Fahren intensiv erörtert wurden, steht nunmehr die nächste Stufe der Entwicklung in der Diskussion, nämlich die Weiterentwicklung der Systeme mittels künstlicher Intelligenz. Während die bisherigen Systeme einem Algorithmus mit klar definierten Handlungsvarianten folgen, entwickeln Systeme der künstlichen Intelligenz sich selbst fort. Sie lernen neue Handlungsvarianten dazu.
Das Einsatzgebiet von künstlicher Intelligenz ist weitreichend und geht weit über das autonome Fahren hinaus. Systeme künstlicher Intelligenz werden in allen Lebensbereichen eingesetzt werden: Neben der Produktion sind beispielsweise der Finanz- und der Verkehrssektor, die medizinische Versorgung sowie die Pflege zu nennen. Zentral ist die Frage, ob das derzeitige deutsche Haftungssystem auf diese Entwicklungen ausreichend vorbereitet ist.

Deliktische Ansprüche verlieren an Relevanz

Der Einsatz und die Entwicklung von Systemen mit oder ohne künstliche Intelligenz werden schrittweise das Verschulden des Menschen an verursachten Schäden am Schädigungsort verdrängen. Es erscheint schwierig Systemen ein Verschulden anzulasten, ungeachtet ob sie ausschließlich einem vorgegebenem Algorithmus folgen oder sich selbstständig weiterentwickeln.
Deliktische Ansprüche, d.h. solche Ansprüche, die als Tatbestandsmerkmal Verschulden vorsehen, werden an Relevanz verlieren. So werden z.B. im Straßenverkehr Verkehrsunfälle häufiger auf Systemfehler zurückzuführen sein. Gleiches gilt insbesondere beim Einsatz von Robotik sowohl in der Industrie als auch im Privatbereich. Das berühmte „technische Versagen“ wird regelmäßig angeführt werden.
Ist das Haftungssystem auf diese technische Entwicklung vorbereitet und wie ist es sinnvoll auszugestalten? Im Mittelpunkt aktueller Diskussionen stehen:
  • die Anerkennung der (Teil-)Rechtsfähigkeit und einer eigenen Haftung des Systems der künstlichen Intelligenz
  • eine Gefährdungshaftung des Halters oder Betreibers des Systems der künstlichen Intelligenz sowie
  • eine Gefährdungs- und Verschuldenshaftung des Herstellers
Die Anerkennung der (Teil-)Rechtsfähigkeit und einer eigenen Haftung des Systems stellen einen Systembruch dar und bedeuten einen Paradigmenwechsel. Neben natürlichen Personen sind juristische Personen und bestimmte Personenvereinigungen als rechtsfähig anerkannt. Ihnen ist gemein, dass sie durch natürliche Personen vertreten werden.

Modell der Gefährdungshaftung eignet sich auch für KI

Unser Haftungssystem zielt auf die Kompensation der verursachten Schäden ab und dient daher dem Geschädigten als Ausgleich. Diese Bestrebung könnte durch eine ausreichende finanzielle Ausstattung des Systems erreicht werden. Das Haftungssystem bezweckt auch präventiv Schäden durch umsichtiges Verhalten vorzubeugen. Gerade die Verkehrspflichten sind Ausdruck dieses Gedankens.
Hinzu kommt die Frage der gesellschaftlichen Akzeptanz einer ausschließlichen Haftung eines Systems. Die medialen Reaktionen auf den tödlichen Verkehrsunfall eines von Uber eingesetzten autonom fahrenden Autos lassen vorläufig Akzeptanzprobleme erwarten. Es stellen sich zahlreiche neue Fragen: Muss das (teil-)rechtsfähige System mit einem Startkapital ausgestattet werden? Wie hoch fällt dieses angemessen aus? Wer zahlt die Verbindlichkeiten, wenn das Startkapital aufgebraucht ist?
Juristische Personen werden insolvent und werden liquidiert, wenn sie vermögenslos sind. Soll die künstliche Intelligenz abgeschaltet werden, wenn sie vermögenslos ist, obwohl die Risiken minimiert werden könnten und das Vermögen erneut "aufgeladen" werden könnte? Solange kein Mensch den Einsatz mehr verantwortet wäre dies die konsequente Schlussfolgerung. Aus ökonomischer Perspektive ist die massenhafte Bindung von Kapital für den eventuellen Ersatz eines Schadens nachteilig. Wie kann das (teil-)rechtsfähige System eigene Ansprüche geltend machen, wenn es geschädigt wurde? Welche Änderungen sind am Prozessrecht vorzunehmen?
Allein die Anerkennung der (Teil-)Rechtsfähigkeit und der Haftung des Systems der künstlichen Intelligenz lösen auftretende Schwierigkeiten nicht. Dieser Lösungsansatz wirft mehr Fragen auf als er beantwortet und ist daher abzulehnen. Er sollte ausschließlich dann weiterverfolgt werden, wenn das herkömmliche Haftungsregime in der weiteren Untersuchung nicht schließbare Lücken aufweist und daher unzureichend ist.
Das Modell der Gefährdungshaftung, das den Halter oder Betreiber einer gefährlichen Sache haften lässt, ohne dass es auf ein Verschulden ankommt, ist auch für künstlich intelligente Systeme geeignet. Gefährdungshaftungstatbestände wie z.B. im Straßen-, Schienen- und Flugverkehr haben gemeinsam, dass derjenige, der den Nutzen aus dem Einsatz einer gefährlichen Sache zieht auch haftet. Auf die Schadensursache kommt es nicht.
Der Schaden kann sowohl auf einem Fehler eines beteiligten Menschen als auch auf einem Systemfehler beruhen. Dies gilt auch dann, wenn das System sich selbstständig fortentwickelt. Die Zulässigkeit von Technik wird regelmäßig an Gefährdungshaftungstatbestände gekoppelt. Das derzeitige Haftungssystem hat demgemäß bereits Möglichkeiten, um adäquat auf neue technische Entwicklungen zu reagieren.
Daneben finden die Haftungsvorschriften des Herstellers Anwendung, also diejenigen zur Produzenten- und Produkthaftung. Die Herstelleranforderungen bei Programmierung der Einsatzgebiete und der Grenzen insbesondere auch der Weiterentwicklungsbereiche sowie an die Instruktion und die Produktbeobachtung sind hoch. Von besonderem Interesse ist die Haftung entlang der Lieferkette.

Herstellerhaftung gewinnt an Bedeutung

Insbesondere Softwarehersteller werden in der supply chain im Fokus des Herstellerregresses stehen. Die Herstellerhaftung wird zukünftig massiv an Bedeutung erlangen. Unzutreffend sind Bestrebungen den Hersteller alleine in die Pflicht zu nehmen. Fallen Hersteller und Betreiber auseinander, so wäre diese Haftungsverteilung unbillig. Der Hersteller kann den zutreffenden Einsatz nur bedingt kontrollieren und selbst bei Wahrnehmung eines Verwendungsverstoßes nur begrenzt intervenieren.
Auch zukünftig wird der Mensch bei der Verwendung Fehler begehen. Hierzu zählt etwa der fortgeführte Einsatz eines Systems, obwohl ein eindeutiger Fehler mit entsprechendem Schadenpotenzial erkennbar ist. Hierfür werden neue Verkehrspflichten anerkannt werden. Die Rechtsausführungen zum assistierten, automatisierten und autonomen Fahren dienen als Blaupause.
Als Fazit kann festgehalten werden: Das Haftungssystem bedarf keiner grundlegenden Reform. Gleichwohl sind Bestrebungen einer EU-weiten Harmonisierung zu begrüßen. Die Anerkennung einer (Teil-)Rechtsfähigkeit der Systeme ist entschieden abzulehnen. Es sollte weiter über die Einführung eines Gesetzes zur Verwendung von künstlicher Intelligenz diskutiert werden. Dieses Gesetz sollte einen Gefährdungshaftungstatbestand enthalten.
Davon abgesehen ist das bestehende Haftungssystem, insbesondere die Produzenten- und Produkthaftung anzuwenden. Eine Substitution der Haftung des Betreibers durch eine ausgedehnte Haftung des Herstellers ist nicht zielführend. Es sollte nicht übersehen werden, dass die künstliche Intelligenz nicht aus reinem Altruismus eingesetzt werden wird. Denn auch wenn die künstliche Intelligenz sich selbstständig weiterentwickelt, wird sie gezielt von Menschen eingesetzt. Diese ziehen aus der Verwendung der künstlichen Intelligenz einen Nutzen.
Letztlich gilt es zu bedenken: Auch die künstliche Intelligenz wurde von einer natürlichen Intelligenz erschaffen, dem Menschen.
Autor: Tobias Hammel ist Rechtsreferent bei der Allianz Versicherungs-AG.
Bildquelle: Fotolia
Allianz · künstliche Intelligenz