Jusletter IT

Hilfe! Der Roomba hat meinen Hamster gefressen!

  • Authors: Katharina Bisset / Ivana Pohl
  • Category: Articles
  • Region: Austria
  • Field of law: LegalTech, Legal Theory
  • Collection: Conference proceedings IRIS 2018
  • Citation: Katharina Bisset / Ivana Pohl, Hilfe! Der Roomba hat meinen Hamster gefressen!, in: Jusletter IT 22 February 2018
In Zeiten, in denen Entscheidungen immer mehr von «Artificial Intelligence» (= künstliche Intelligenz [AI]) getroffen werden, stellt sich die Frage, wer für Fehler dieser AI haftet. Können diese Entscheidungen nicht zurückverfolgt werden, müssen Fragen wie Kausalität, Adäquanzzusammenhang und Verschulden neu überdacht werden. Einer klassischen Schadenersatzprüfung folgend, wird das Problem der «Schädiger-AI» sowohl von Seiten des Herstellers als auch von Seiten des Nutzers beleuchtet. Und am Ende steht die Frage: Was hat AI mit Rechtsanwaltsanwärtern und Hunden zu tun?

Inhaltsverzeichnis

  • 1. Hersteller der AI und die Nachvollziehbarkeit von Entscheidungen
  • 2. Können Anwender das Risiko von AI beurteilen?
  • 3. Zusammenfassung

1.

Hersteller der AI und die Nachvollziehbarkeit von Entscheidungen ^

[1]
Hersteller künstlicher Intelligenz müssen sich mit der Frage auseinandersetzen, wann und in welchem Ausmaß sie für Schäden haften, die durch «Handlungen» der AI verursacht wurden. Denken wir beispielhaft an selbstfahrende Autos, Handelsalgorithmen, komplexe medizinische Systeme, Smarthome und Drohnen, deren Fehlverhalten enormen Schaden verursachen könnte, aber auch an Einfacheres wie Autostaubsauger, die ein Haustier verletzen könnten.
[2]
Sind sämtliche durch die AI verursachten Schäden dem Hersteller zurechenbar bzw. inwieweit hat der Hersteller überhaupt Kontrolle über die Entscheidungen/Handlungen der AI? Diese Fragen versuchen wir nach den geltenden österreichischen Vorschriften zu lösen und werden dabei herausfinden, dass diese nicht immer ausreichend sind, um Lösungen für die modernen technologischen Errungenschaften anzubieten. In diesem Kapitel wird lediglich ein Teilaspekt und zwar die Produkthaftung nach dem Produkthaftungsgesetz (PHG) behandelt. Auf die Haftung gemäß ABGB kann hier aus Platzgründen nicht eingegangen werden.
[3]
Die Haftung nach dem PHG ist verschuldensunabhängig, darf vertraglich nicht ausgeschlossen werden und stellt für den Hersteller ein großes Risiko dar. Der Hersteller eines Endprodukts (zB. Autostaubsauger) ist für Schäden von zugekauften Teilen verantwortlich, wenn diese in das Endprodukt zum Zeitpunkt dessen Inverkehrbringens eingebaut wurden und die Software sich unmittelbar auf das Funktionieren des Endprodukts auswirkt.1 Doch inwieweit haftet der Teilhersteller für die eingebaute Software? Der Softwarehersteller haftet nach dem PHG nur dann, wenn seine Software die Produkteigenschaften aufweist.2 Das PHG ist gemäß seinem Wortlaut nur auf körperliche bewegliche Sachen anzuwenden und Software ist im physikalischen Sinn eine unkörperliche Sache. Nach derzeit unbestrittener Meinung ist die Haftbarkeit nach dem PHG jedenfalls dann gegeben, wenn die Software auf einem Datenträger geliefert wurde.3 Ansonsten gibt es mehrere Lehrmeinungen, die die Frage der Körperlichkeit verschiedentlich behandeln. Eine dieser Ansichten geht davon aus, dass auch für die auf den Datenträger verkörperten Information gehaftet werden muss und dass es nicht darauf aufkommen kann, ob die Software auf einem körperlichen Datenträger gespeichert ist, ob diese digital übermittelt wurde oder auf der Cloud gespeichert wird.4 Es wird auch argumentiert, dass mit dem Überspielen der Software auf eine körperliche Sache (Hardware) das Körperlichkeitskriterium automatisch erfüllt wird.5
[4]
Auch wenn wir die grundsätzliche Haftung nach dem PHG bejahen würden, wird nur für Fehler gehaftet, die durch den Geschädigten nachgewiesen werden müssen.6 Wie allgemein bekannt ist, existiert keine fehlerfreie Software. Nach dem PHG liegt Fehlerhaftigkeit vor, wenn ein Produkt zum Zeitpunkt seines Inverkehrbringens nicht die Sicherheit bietet, die unter Berücksichtigung aller Umstände zu erwarten ist (§ 5 PHG). Der OGH judiziert, dass dabei die berechtigten Sicherheitserwartungen ausschlaggebend sind. Ebenfalls zu prüfen ist, ob das geübte Benutzerverhalten für den Hersteller vorhersehbar war, denn für unvorhersehbare oder geradezu absurde Gebrauchsarten hat der Hersteller nicht einzustehen.7 Der Softwarehersteller kann sich von der Haftung befreien, wenn er nachweisen kann, dass die Eigenschaften des Produkts nach dem Stand der Wissenschaft und Technik, dies ist der höchste existierende Stand8 zu dem Zeitpunkt, zu dem es der in Anspruch Genommene in den Verkehr gebracht hat, nicht als Fehler erkannt werden konnten (§ 8 PHG). In der Praxis wird ein solcher Beweis äußerst schwierig sein und wird durch einen Sachverständigen entschieden werden.
[5]

Doch was wird passieren, wenn eine fehlerfreie künstliche Intelligenz einen Schaden verursacht oder eine AI so fortgeschritten ist, dass sie Entscheidungen treffen kann, die für den Hersteller nicht mehr erkennbar/vorhersehbar sind? Fortgeschrittene selbstlernende Programme existieren bereits jetzt, zum Beispiel AlphaGo, ein Programm der Google-Tochter Deep Mind, der den europäischen Meister im Go-Spiel mit 5:0 geschlagen hat, bzw. sein Nachfolger AlphaGo Zero, der den Go Spiel nur durch Selbstspielen gelernt hat und seine vorherige Version AlphaGo konsequent mit 100:0 schlagen konnte.9 Dies ist durch künstliche neuronale Netze, die ähnlich wie das menschliche Gehirn funktionieren, möglich, die mit Hilfe von Lernalgorithmen (Deep Learning) selbst lernen.10 In einem solchen Fall könnte argumentiert werden, dass die Haftung nach dem aktuellen PHG wegen der fehlenden Vorhersehbarkeit der Entscheidungen aufgrund des Selbstlernmechanismus wohl nicht anwendbar sein wird.11 Vielmehr müssen für solche Situationen neue Regelungen erst geschaffen werden. Aufgrund dieser Gedanken forderten die Abgeordneten des EU-Parlamentes im Februar 2017 die Kommission auf, Regeln für künstliche Intelligenz zu entwerfen, um EU-weite Klarheit und Sicherheitsstandards zu schaffen. Unter anderen soll auch die Frage eines speziellen rechtlichen Status für die AI überlegt werden.12 Das EU-Parlament empfiehlt entweder eine verschuldensunabhängige Haftung des Herstellers oder den Ansatz eines Risikomanagements, wonach eine Person, die die Risiken minimieren und die negativen Auswirkungen bewältigen kann (also unter gewissen Umständen auch der Anwender), haftbar wird.13 Die Haftung sollte den Grad der Autonomie des Roboters berücksichtigen und in Verbindung mit einer Pflichtversicherung und einem Fonds, der nicht-versicherte Schäden abdecken soll, stehen.14

[6]
Auch wenn manche Vorschläge des EU-Parlaments noch unausgereift erscheinen (insbesondere die Einführung eines einheitlichen Haftungsrechts auf sämtliche Formen «intelligenter Roboter»15), ist die Gedanke der Regulierung des Haftungsrechts zu begrüßen, weil sie unzweifelhaft für mehr Rechtsicherheit in der stets wachsenden Branche sorgen wird.

2.

Können Anwender das Risiko von AI beurteilen? ^

[7]
Wenn der Rasenmäher-Roboter durch einen Fehler die Abgrenzung nicht einhält und in Nachbars Garten den Hamster mäht, stellt sich auch die Frage, inwieweit die Anwender von AI für Schäden haften. Ein praktisches Beispiel ist das Unternehmen, das für sein Kundenservice einen Chatbot auf Basis von Watson16 anbietet, der mit jeder neuen Frage und Antwort lernt, indem er diese analysiert und bewertet. In diesem Kapitel wird primär auf die Frage eingegangen, mit welchen bestehenden Regelungen Analogien gezogen werden können.
[8]
Eine lernende AI erhält die Informationen, auf deren Basis es die Entscheidungen trifft, entweder durch Dateneingabe des Anwenders oder durch äußere Einflüsse wie zB die Interaktion mit Dritten. Geht man davon aus, dass selbst Hersteller oft nicht wissen, wie es konkret zu einer Entscheidung der AI kam, kann dies von Anwendern noch viel weniger erwartet werden.
[9]
Zuerst muss die Frage geprüft werden, ob das Verhalten des Anwenders kausal für einen Schaden ist. Diese Frage ist klar zu bejahen, wenn der Anwender diesen zB durch falsche Informationseingabe verursacht hat. Je komplexer eine AI jedoch ist und je mehr diese gelernt hat, kann es zu dem Fall kommen, dass nicht klar ist, ob ein Fehler durch den Hersteller, den Anwender oder durch Informationen von außen verursacht wurde. In diesem Fall wäre die AI selbst, als lernendes und denkendes System, Verursacher des Schadens.
[10]
Oder muss sich der Anwender das Verhalten seiner AI zurechnen lassen? Man könnte argumentieren, dass die Nutzung einer selbstlernenden AI an sich eine gefährliche Handlung ist. Aus Ermangelung bestehender Regelungen werden weiters Möglichkeiten aufgezeigt, wie die Anwenderhaftung einer AI geregelt werden könnte.
[11]
Außerhalb des Vertragsrechts wäre eine Möglichkeit, die AI als Gehilfen im Sinne des § 1315 ABGB zu beurteilen. Ist eine AI beispielsweise noch nicht ausgereift oder hat diese erst wenige Informationen, auf die ihre Entscheidungen basieren, könnte diese ein untüchtiger Gehilfe sein. Bei der Beurteilung muss jedoch auf das konkret fehlerhafte Verhalten der Gehilfen-AI im Zusammenhang mit ihrer Tätigkeit abgestellt werden.17 In der Praxis wird die größte Herausforderung dieser Analogie sein, die Frage zu beantworten, wie komplex und potentiell gefährlich eine AI sein muss, um diese Haftungsverschärfung zu rechtfertigen.
[12]
Bejaht man die Verursachung des Schadens, kann die Rechtswidrigkeit beispielsweise im Eingriff in absolute Rechte bestehen. Ob das Verhalten rechtswidrig war, muss für den Einzelfall beurteilt werden. Es könnten auch hier gesetzliche Vorkehrungen getroffen werden, die den Anwender beispielsweise zu einer regelmäßigen Wartung der AI – ähnlich wie § 57a Kraftfahrgesetz (KFG) – oder zum Abschluss einer Haftpflichtversicherung18 verpflichten.
[13]
Die Antwort auf die Frage, ob eine AI jemals ein Verschulden treffen kann, liegt noch weit in der Zukunft. Es wird bis dahin oft am Hersteller liegen, ein «moralisches» Entscheidungsregulativ für Zweifelsfragen einzuführen. Bei selbstfahrenden Autos ist diese Diskussion bereits im Gange, als ein Daimler-Manager sagte, dass im Zweifel der Insasse seines Autos geschützt wird.19
[14]
Geht man jedoch davon aus, dass es nicht für jeden Fall eine herstellerseitige Zweifelsregel gibt und AI noch kein Verschulden angelastet wird, muss eine verschuldensunabhängige Haftung des Anwenders geprüft werden. Wie bereits oben ausgeführt, ist dies auch der Vorschlag des EU-Parlaments.20 Eine Gefährdungshaftung für den IT-Einsatz ist derzeit in § 89e GOG geregelt, der jedoch nur Anwendung auf die Justiz findet.21 Dieser trägt bereits den schwer nachvollziehbaren Abläufen und den mit der Verwendung von Computer einhergehenden Risiken Rechnung, wobei eine Anwendung auf Private nur von einem Teil der Lehre vertreten wird.22
[15]
Eine weitere Möglichkeit wäre die Normierung einer verschuldensunabhängigen Haftung für AI, ähnlich der Gefährdungshaftung des § 1 EKHG oder der Tierhalterhaftung des § 1320 ABGB.23 Durch die Innovationen im Zusammenhang mit selbstfahrenden Autos wird eine Haftung von Fehlern einer AI sehr bald Thema von Rechtsprechung und Gesetzgebung werden.24 Vergleicht man selbstlernende AI mit Tieren, kann die Haftung ähnlich einer Gefährdungshaftung jedoch mit einer objektiven Sorgfaltskomponente des Halters (idF Anwenders) konzipiert werden.25 Sie würde dann auf die technische Verwahrung und Beaufsichtigung (durch Updates, Logfiles, usw) des Anwenders abstellen. Ähnlich wie bei einem Tier kann man einer AI viel beibringen und sie in gewissem Maß auch unter Kontrolle haben, aber es gibt ein unberechenbares Element («typische AI-Gefahren»), dem man Rechnung tragen muss.

3.

Zusammenfassung ^

[16]
Für die Praxis bedeutet dies: Je schwerer die Entscheidungen der AI nachvollziehbar sind, umso schwerer kann eine Haftung von Anwender oder Hersteller argumentiert werden. Für Fälle, in denen die Verursachung nicht nachvollziehbar ist, müssen Gerichte und Gesetzgeber passende Regelungen finden, um dem Stand der Technik, der potentiellen Gefährlichkeit sowie der Innovation Rechnung zu tragen. Bis dahin wird man bei der Nutzung einer AI weiterhin menschlicher Kontrolle bedürfen. Ähnlich bei einem Rechtsanwaltsanwärter: Je erfahrener dieser ist, umso weniger Kontrolle ist durch den Anwalt erforderlich.
  1. 1 Innerhofer/Jörg/Lettenbichler/Reheis, Logistikdrohnen: Wer haftet für Schäden durch autonom fliegende Luftfahrzeuge? ZVR 2017/53, S. 126.
  2. 2 Eustacchio, Automatisiert zum Recht, ZVR 2017/253, S. 512.
  3. 3 Koziol/Bydlinski/Bollenberger, Kurzkommentar zum ABGB 4, Springer, Wien 2014, § 292 ABGB Rz 1.
  4. 4 Koziol/Apathy/Koch, Österr Haftpflichtrecht III³ Kap. B, Jan Sramek, Wien 2014, Rz 131 ff; Harnoncourt, Haftungsrechtliche Aspekte des autonomen Fahrens, FN 1, ZVR 2016/228, S. 547 (S.549 f).
  5. 5 Innerhofer/Jörg/Lettenbichler/Reheis (Fn. 1), S. 122 (S. 126).
  6. 6 Eustacchio (Fn. 2), S. 509 (S. 511).
  7. 7 RIS-Justiz RS0107605, RIS-Justiz RS0107610; OGH 26. Juli 2016, 9 Ob 77/15m.
  8. 8 OGH 30. Juni 2010, 9 Ob 60/09b.
  9. 9 Silver/Huang/Maddison, Mastering the game of Go with deep neural networks and tree search, Nature 2016, vol. 529, S. 484; Silver/Schrittwiese/Simonyan, Mastering the game of Go without human knowledge, Nature 2017, vol. 550, S. 354.
  10. 10 Gruber/Eisenberger, Wenn Fahrzeuge selbst lernen: Verkehrstechnische und rechtliche Herausforderungen durch Deep Learning?, in Eisenberger/Lachmayer/G. Eisenberger (Hrsg), Autonomes Fahren und Recht, Manz, Wien 2017, S. 51 (S. 52).
  11. 11 Maier, EU denkt an eigenen Rechtsstatus für Roboter, Der Standard 2017/03/02.
  12. 12 Europäisches Parlament, Robotik und künstliche Intelligenz: Abgeordnete für EU-weite Haftungsregelungen, Pressemitteilung, REF: 20170210IPR61808, vom 16. Februar 2017, http://www.europarl.europa.eu/news/de/press-room/20170210IPR61808/robotik-und-kunstliche-intelligenz-abgeordnete-fur-eu-weite-haftungsregelungen (alle Websites zuletzt aufgerufen am 19. Januar 2018).
  13. 13 Bericht, DELVAUX, Bericht mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik, A8-0005/2017, S. 19 ff.
  14. 14 Ebenda.
  15. 15 Lohman, Ein europäisches Roboterrecht – überfällig oder überflüssig?, ZRP 6/2017, S. 168 (S. 169)
  16. 16 IBM Watson, https://www.ibm.com/watson/.
  17. 17 Schacherreiter, in Kletecka/Schauer (Hrsg.), ABGB-ON 1.04, § 1315, Rz 14.
  18. 18 Siehe auch §§ 59 ff. KFG.
  19. 19 Ein Mercedes-Fahrerleben ist nicht mehr wert als andere, http://www.zeit.de/mobilitaet/2016-10/autonomes-fahren-schutz-fahrer-hersteller; Self-Driving Mercedes-Benzes Will Prioritize Occupant Safety over Pedestrians, https://blog.caranddriver.com/self-driving-mercedes-will-prioritize-occupant-safety-over-pedestrians/.
  20. 20 Europäisches Parlament (Fn. 12).
  21. 21 Kodek in Kletecka/Schauer (Hrsg.), ABGB-ON 1.04, Vor § 1293, Rz 10 ff.
  22. 22 Koziol, ÖBA 1987, 3 ff.; siehe auch Ondreasova, Haftung für technische Hilfsmittel de lege lata, ÖJZ 2015/57, S. 443.
  23. 23 In dem Zusammenhang hinzuweisen ist auch auf die Gefährdungshaftung im LFG, die insbesondere bei Drohnen eine bedeutende Rolle spielt. Siehe dazu Innerhofer/Jörg/Lettenbichler/Reheis (Fn. 1), S. 122.
  24. 24 Gruber/Eisenberger (Fn. 10), S. 51.
  25. 25 Weixelbraun-Mohr in Kletecka/Schauer (Hrsg.), ABGB-ON 1.04, § 1320, Rz 3.