Jusletter IT

KI und Haftung: Lösungsansätze für die Schweiz

  • Author: Isabelle Wildhaber
  • Category of articles: Articles
  • DOI: 10.38023/bde8ed24-d9fd-44dd-b6cd-34b283d04cd0
  • Citation: Isabelle Wildhaber, KI und Haftung: Lösungsansätze für die Schweiz, in: Jusletter IT 4 July 2024
To have a modern Product Safety Act and a modern Product Liability Act, it is necessary to make revision to these two Acts. There is agreement on this necessity in Swiss academic literature. However, this pillar of AI liability has hardly been discussed in Swiss politics and the press to date. This should become a regulatory priority. A look at EU law shows: Compared to the European directives on product safety and on product liability (which are currently being revised), the practical impact of the proposed directive on AI liability appears to be less poignant. For Switzerland, I would not recommend to implement the proposed EU directive on AI liability nor would I recommend the introduction of strict AI liability. Instead, AI regulation should take up sector-specific regulations, especially as many AI damages will be covered by sectoral strict liability under national law, such as self-driving cars by traffic regulations or drones by aviation regulations.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Im Hinblick auf die Haftung relevante Risiken von KI
  • 3. Haftung als Teil eines breiteren regulatorischen Rahmens
  • 4. Schweiz: Stand der Diskussion
  • 5. Europäische Union: Stand der Diskussion
  • 6. Lösungsansätze für die Schweiz
  • 6.1. KI-Herstellerhaftung vs. KI-Betreiberhaftung
  • 6.2. Produkthaftung von KI-Herstellern
  • 6.3. Verschuldenshaftung und verschuldensunabhängige Haftung von KI-Betreibern
  • 6.3.1. Erhöhung der Anforderungen an die Sorgfaltspflichten bei der Verschuldenshaftung
  • 6.3.2. Vermutung des Verschuldens und/oder Kausalzusammenhangs bei der Verschuldenshaftung
  • 6.3.3. Einführung einer verschuldensunabhängigen Haftung
  • 7. Fazit

1.

Einleitung ^

[1]

Indem die künstliche Intelligenz (KI) menschliche Entscheidungen unterstützt und ersetzt, verspricht sie, Verletzungen und Schäden durch Unfälle in einer Vielzahl von Kontexten zu reduzieren: Sie kann menschliche Schwächen wie verspätete Reaktionszeiten, Übersehen wesentlicher Daten oder Informationen sowie Subjektivität ausbalancieren und dadurch Schadensrisiken vermindern. Gross ist dennoch auch die Sorge vor Kontrollverlust und unabsehbaren, nicht zurechenbaren Schäden.

[2]

Das Ziel dieses Aufsatzes ist es, einen Beitrag für die Erarbeitung von Lösungsansätzen im Bereich KI und ausservertragliche Haftung für die Schweiz zu leisten. Der Aufsatz beginnt mit einer Analyse der speziellen Risiken und Eigenschaften von KI – z.B. der Blackbox – und deren Relevanz für die Frage der Haftung (2.). Sodann wird die KI in den Gesamtkontext von Regulierung und Haftung gesetzt (3.) und es wird der Stand der Diskussion in der Schweiz (4.) und in der EU (5.) vorgestellt. Dies ermöglicht es zu diskutieren, ob das Schweizer Haftungsrecht Erneuerungen braucht. Der Aufsatz will aufzeigen, welche Lösungsansätze und Möglichkeiten bestehen und de lege ferenda Sinn ergeben könnten (6.), abgerundet wird er durch ein Fazit (7.).

2.

Im Hinblick auf die Haftung relevante Risiken von KI ^

[3]

Im Hinblick auf die Haftung müssen wir uns fragen, ob die KI gewisse Risiken schafft, die mit unseren derzeitigen Haftungsregeln nicht angemessen behandelt werden können. Diese Frage stellte sich in der Vergangenheit auch schon, so z.B. in den 90er-Jahren bei der Gentechnologie. Damals wurde rege diskutiert, ob die Risiken der Gentechnologie mit den bestehenden Haftungsregeln angemessen behandelt werden können.1 Die gleiche Frage wie bei der Gentechnologie stellt sich nun bei der KI. Das geltende Recht kennt auch hier bereits eine Vielzahl von Vorgaben, insbesondere von Haftungsvorschriften, die auf KI-Systeme anwendbar sind. Daher ist zu fragen, ob und wieweit diese Rechtsgrundlagen ausreichen oder angepasst oder ergänzt werden müssen.

[4]

Die Auseinandersetzung mit Risiken der KI ist einer der Ausgangspunkte rund um die Haftungsdiskussion. Die Europäische Kommission identifizierte einige Risiken und Charakteristika der KI, die rechtliche Relevanz haben: Komplexität, Blackbox/Opazität/Intransparenz, Offenheit, Autonomie, Vorhersehbarkeit, Datenabhängigkeit und Verwundbarkeit.2

[5]

Im Hinblick auf die Haftung sind insbesondere die Blackbox/Opazität/Intransparenz, die Komplexität/Vernetzung und die Autonomie/Lernfähigkeit von KI-Systemen relevant, weil sie bei der Durchsetzung haftpflichtrechtlicher Ansprüche Probleme bereiten können.3 Diese drei Risiken bewirken eine eingeschränkte ex ante Erklärbarkeit und ex post Nachvollziehbarkeit der Entscheidungsfindung oder Entscheidungsunterstützung von selbstlernenden Systemen.4 Geschädigte sind möglicherweise nicht in der Lage zu erkennen, dass sie geschädigt wurden oder was genau den Schaden verursacht hat.5 Für die Zurechnung von Verantwortung bei Fehlfunktionen in KI-Systemen und für den Beweis und die Durchsetzung daraus resultierender Haftungsansprüche sind Transparenz und Nachvollziehbarkeit von Kausalverläufen erforderlich.6

[6]

Transparenzanforderungen in KI-Regelwerken sind sinnvoll und notwendig, sie können aber die Probleme nicht lösen, mit denen sich Klagende in Zivilprozessen konfrontiert sehen werden.7 In Haftungskontexten kann es für Gerichte nützlich sein, beobachten zu können, wie sich Eingabevariablen auf den Output auswirken. Bei fortschrittlicheren KI-Systemen ist dies jedoch möglicherweise zu kostspielig und nicht machbar.8 Daraus folgt, dass Haftungsregeln geeignet sein müssen, auch mit intransparenten KI-Systemen umzugehen.9

[7]

Drei relevante Problemkreise bei der KI-Haftung sind der Nachweis eines Verschuldens bzw. einer Sorgfaltspflichtverletzung,10 der Nachweis einer Kausalität11 sowie die unklare Aufteilung der Haftung zwischen verschiedenen Herstellern und Betreibern und zwischen verschiedenen Herstellerparteien (aufgrund der durch die Konnektivität erhöhten Multikausalität).12

3.

Haftung als Teil eines breiteren regulatorischen Rahmens ^

[8]

Die ausservertragliche Haftung ist Teil eines breiteren regulatorischen Rahmens. Dieser regulatorische Rahmen umfasst ex ante Sicherheitsvorschriften (z.B. horizontale Produktsicherheitsregimes wie das PrSG oder die europäische Produktsicherheits-Richtlinie, hinten 5.) und andere Arten der ex post Haftung (z.B. die vertragliche Haftung). Darüber hinaus gelten in Hochrisikosektoren zusätzliche sektorspezifische Haftungs-, Sicherheits- und Zulassungsvorschriften (in der Schweiz z.B. im SVG oder HMG). Dieser rechtliche Rahmen wird sodann durch technische Standards ergänzt, z.B. DIN-, CEN- und ISO-Normen.

[9]

Innovationsrisiken bewegen sich als Querschnittsphänomen intradisziplinär zwischen privatrechtlicher und öffentlich-rechtlicher Regulierung und Selbstregulierung.13 Der breitere regulatorische Rahmen von KI trägt dazu bei, die Risiken von Schäden zu reduzieren, indem er die Verwendung von guten Trainingsdaten und strengen Tests fördert und die Wirksamkeit der Haftungsregelung verbessert.

[10]

Die ex ante Sicherheitsvorschriften und die ex post Haftung müssen m.E. Hand in Hand gehen.14 Sicherheitsvorschriften allein genügen nicht. Im Kontext von KI ist es unwahrscheinlich, dass ein Unternehmen ohne Haftungsregeln den Anreiz hat, das optimale Mass an Sorgfalt walten zu lassen.15 Aber auch eine ex post Haftung allein genügt nicht. Wenn Unfälle nämlich selten sind und das Unternehmen nur eine kurzfristige Perspektive hat (z.B. aufgrund einer hohen Wahrscheinlichkeit, aus dem Markt auszuscheiden, oder aufgrund finanzieller Zwänge), wird das Unternehmen den erwarteten Schaden, den es ausgleichen muss, möglicherweise nicht vollständig internalisieren.16 Ausserdem können nicht alle Dritten eine Haftung geltend machen. Der Gesetzgeber muss daher auch eine ex ante Regulierung vorsehen, um das Risiko für Dritte durch fehlerhafte Produkte zumindest teilweise zu begrenzen. Das gilt für KI genauso wie für andere Technologien, von der Biotechnologie bis zur Medizintechnik.

4.

Schweiz: Stand der Diskussion ^

[11]

Ende 2019 erschien in der Schweiz ein Bericht der interdepartementalen Expertengruppe IDAG KI zu den Herausforderungen von KI.17 Die Expertengruppe kam zum Schluss, dass der bestehende, technologieneutral formulierte Rechtsrahmen der Schweiz auf alle KI-Anwendungen und Geschäftsmodelle anwendbar und für den Umgang mit ebendiesen Anwendungen und Modellen grundsätzlich geeignet sei. Das bestehende Haftungsregime wurde 2019 für ausreichend erachtet. Der Bericht verortete keinen regulatorischen Handlungsbedarf.

[12]

In einem Bericht an den Bundesrat vom April 2022 hat das Eidg. Departement für Auswärtiges (EDA) festgestellt, die Schweiz könne zwar in ihrer nationalen Gesetzgebung eigene Akzente zum Umgang mit KI setzen, ein zu grosser Unterschied zwischen internationaler und nationaler Rechtslage sei jedoch nicht im Interesse der Anschlussfähigkeit der Schweiz an internationale Märkte und Lieferketten zu KI.18

[13]

Im November 2023 hat der EDÖB darauf hingewiesen, dass das seit dem 1. September 2023 geltende Datenschutzgesetz (DSG) auf KI-gestützte Datenbearbeitungen direkt anwendbar sei.19 Das scheint logisch, da das DSG ebenfalls technologieneutral formuliert ist.

[14]

Ebenfalls im November 2023 hat der Bundesrat beim UVEK eine Übersicht möglicher Regulierungsansätze von KI in Auftrag gegeben.20 Diese soll bis Ende 2024 vorliegen. Die Analyse wird auf bestehendem Schweizer Recht aufbauen und mögliche Regulierungsansätze für die Schweiz aufzeigen, die mit dem EU AI Act und der KI-Konvention des Europarats kompatibel sind. Beide internationale Regelwerke sind für die Schweiz relevant. Mit der Analyse will der Bundesrat die Basis schaffen, damit er 2025 einen konkreten Auftrag für eine KI-Regulierungsvorlage erteilen und die Zuständigkeiten regeln kann.

5.

Europäische Union: Stand der Diskussion ^

[15]

Anders als in der Schweiz wird in der EU die Haftung für KI schon seit mehreren Jahre diskutiert. Am 25. April 2018 veröffentlichte die Europäische Kommission eine europäische Strategie zur Bewältigung der Herausforderung und zur optimalen Nutzung von KI.21 Um diese Strategie europaweit koordiniert umzusetzen, hat sie im Dezember 2018 einen KI-Plan vorgeschlagen und diesen mit den Mitgliedstaaten, Norwegen und der Schweiz abgestimmt.22 Die «Hochrangige Expertengruppe für Haftung und neue Technologien» («Hochrangige Expertengruppe») erstattete Ende 2019 einen Bericht mit konkreten Regulierungsvorschlägen für die Europäische Kommission.23

[16]

Am 19. Februar 2020 legte die Europäische Kommission das Weissbuch zur Künstlichen Intelligenz («Weissbuch KI»)24 vor und schlug einen risikobasierten Ansatz zur Regulierung von KI mittels einer mehrstufigen Risikoklassifizierung vor. Gleichentags veröffentlichte die Europäische Kommission den angekündigten Bericht zu den Auswirkungen der neuen Technologien auf die bestehenden Sicherheits- und Haftungsregulierungen («Kommissionsbericht KI»).25 Sie sprach sich aus für eine Anpassung der Produkthaftungs-Richtlinie und der Produktsicherheits-Richtlinie sowie für Abklärungen zur Einführung von verschuldensunabhängigen Haftungen und zu Beweislasterleichterungen oder -umkehrungen in nationalen Haftungsregelungen für Betreiber.

[17]

Der Vorschlag des Europäischen Parlaments in der «EP Entschliessung» zu einer zivilrechtlichen Haftungsregelung vom 20. Oktober 202026 war der erste ausformulierte Verordnungsvorschlag des Europäischen Parlaments an die Europäische Kommission. Er sollte Rechtslücken, die sich in den bisher bestehenden Haftungsregelungen durch den Einsatz von KI-Systemen aufgetan haben, schliessen. Haftungsadressaten sind die Betreiber (mit «Kontrolle», Art. 3g)27 und es handelt sich um ein horizontales Haftungsregime mit einer verschuldensunabhängigen Haftung, gekoppelt mit einer Pflichtversicherung, für definierte hochriskante KI-Anwendungen (Art. 4).28 Infolge des risikobasierten Ansatzes29 ist ausschlaggebend, wie einerseits das KI-System (Art. 3a) und wie andererseits das hohe Risiko (Art. 3c) definiert werden.

[18]

Am 21. April 2021 hat die Europäische Kommission ihre konkreten Reformvorschläge für eine Verordnung zur Festlegung harmonisierter Vorschriften für KI (KI-Gesetz, KI-Verordnung, EU AI Act) bekannt gegeben.30 Nach Trilog-Verhandlungen zwischen den EU-Gesetzgebungsorganen, welche durch Diskussionen um den im Frühling 2023 neu aufgetauchten ChatGPT verzögert wurden, einigten sich die EU-Gesetzgebungsinstitutionen am 8. Dezember 2023 auf die Grundzüge des EU AI Act. Der finale Entwurf wurde am 13. März 2024 beschlossen und am 21. Mai 2024 von den 27 EU-Mitgliedsländern verabschiedet, sodass er nach Veröffentlichung im EU-Amtsblatt und einer weiteren 20-Tage-Frist in Kraft treten kann. Der EU AI Act unterscheidet zwischen KI-Systemen mit inakzeptablen Risiken, Hoch-Risiken und geringen Risiken. Für Hoch-Risiko-KI-Systeme werden zahlreiche Anforderungen sowie Pflichten für deren Anbieter, Nutzer und Dritte definiert. Der EU AI Act verfolgt primär einen produktsicherheitsrechtlichen Ansatz und äussert sich selbst nicht zu Haftungsfragen; gleichwohl wird er indirekt Auswirkungen auf das nationale Haftungsrecht haben, in Deutschland etwa über § 823 Abs. 2 BGB.31

[19]

Am 28. September 2022 sind die Richtlinienvorschläge der Europäischen Kommission im Bereich KI und Haftung publiziert worden: Sie ergänzen den EU AI Act mit einem Vorschlag einer neuen Richtlinie über die Haftung für fehlerhafte Produkte,32 die die heutige Richtlinie 85/374/EWG ersetzen soll, sowie mit einem Vorschlag für eine Richtlinie zur Anpassung der Vorschriften über ausservertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung) für Betreiber.33 Die vom EU-Parlament favorisierte Lösung einer Betreiber-Gefährdungshaftung wurde fallen gelassen. Die Richtlinie über KI-Haftung schafft selbst weder Haftungstatbestände noch Sorgfaltspflichten. Sie enthält lediglich Vorschriften über den Zugang zu Beweismitteln sowie über Verschuldens- und Kausalitätsvermutungen, die einen nach nationalem Recht bestehenden Schadenersatzanspruch voraussetzen. Der EU AI Act und die ergänzende Richtlinie über KI-Haftung sind zwei Seiten derselben Medaille, da sich ex ante Produktsicherheits- und ex post Haftpflichtvorschriften ergänzen (vorne 3.).

6.

Lösungsansätze für die Schweiz ^

6.1.

KI-Herstellerhaftung vs. KI-Betreiberhaftung ^

[20]

Es muss zwischen einer KI-Herstellerhaftung und einer KI-Betreiberhaftung unterschieden werden. Beide braucht es als gemeinsame Säulen einer KI-Haftung. Es ist in der Praxis eine grosse Herausforderung, die Haftung zwischen Herstellern und Betreibern angemessen zu verteilen und die jeweiligen Risikosphären abzugrenzen. Betreiber (auf Englisch «operators») sind z.B. Nutzer, Eigentümer oder Halter.34 Die grosse Frage, die im Raum steht, ist, wie Hersteller oder Betreiber haften sollen. Schon rein faktisch wird oft unklar sein, ob ein Schaden durch einen Produktfehler oder durch eine Fehlbedienung des Nutzers ausgelöst wurde.

[21]

Für eine Zuordnung in die Risikosphäre des KI-Herstellers spricht, dass dieser in Bezug auf die Kontrolle von Schadensrisiken in einer Schlüsselposition ist,35 und die Haftung der Kontrolle folgen soll.36 Im Unterschied zu herkömmlichen Produkten wird bei KI-Produkten die Kontrolle über das «Verhalten» des KI-Systems in der Tendenz zum Hersteller hin verlagert.37 Denn es ist der Hersteller, der die KI-Systeme programmiert, trainiert und Instruktionen verteilt. Wenn aber Hersteller in einer besseren Position als Betreiber sind, das Risiko zu kontrollieren, so spricht ein anreizbasierter Ansatz dafür, die Haftung auf die Hersteller zu verlagern.38

[22]

Für eine Zuordnung in die Risikosphäre des KI-Betreibers spricht ebenfalls Einiges: Während grundsätzlich der KI-Hersteller das Risiko des KI-Systems durch seine Programmierung, Training und Instruktionen kontrolliert, kann sich diese Kontrolle nach Inverkehrbringen aufgrund der Lernfähigkeit der KI verringern. Während der Nutzungsphase steigt demgegenüber die Kontrollfähigkeit des Betreibers, denn er entscheidet, wann, wo und zu welchem Zweck das KI-System benutzt wird,39 und wer von dessen Nutzung profitiert.40 Entscheidend für die Risikobeherrschung sind die Interaktion des Betreibers mit dem KI-System und seine Kontrollmöglichkeiten.41 Die heutige KI-Technologie erfordert stets ein gewisses Mass an menschlicher Überwachung und menschlicher Wartung («human in the loop»).42

[23]

Ein weiteres Argument für eine KI-Betreiberhaftung ist, dass der Betreiber in zahlreichen Fällen die erste sichtbare Ansprechstelle für Geschädigte sein wird.43 Ein Geschädigter wird sich zuerst an den Betreiber – der häufig auch sein Vertragspartner sein wird – und nicht an den originalen Hersteller wenden, also z.B. bei einer medizinischen Behandlung im Spital an den Krankenhausträger und am Arbeitsplatz an die Arbeitgeberin.44

[24]

Eine Betreiberhaftung kann helfen, die Herausforderungen der KI-spezifischen Risiken (vorne 2.) zu verringern. Sie will die Schwierigkeit vermeiden, die Beiträge jedes menschlichen Akteurs oder die Fehler zu identifizieren, die konkret zu schädlichen Handlungen von KI-Systemen führen. Das Risiko eines angemessenen Innenausgleichs wird vollständig auf den haftenden Betreiber und allenfalls dessen Versicherung verlagert. Unterwirft man den Betreiber einer strengen Haftung, verlagert man so manche Zweifelsfragen in das Regressverhältnis gegenüber dem Hersteller.

[25]

Es bleibt aber insgesamt zu bedenken, dass der Betreiber der schlechtere Adressat als der Hersteller ist, denn er hat allenfalls geringen Einfluss auf das Verhalten des Systems. Diese Einsicht wird durch die nutzerbezogenen Privilegierungen des Art. 4 Abs. 3 und Abs. 6 des Richtlinienvorschlags über KI-Haftung sowie Art. 29 EU AI Act bestätigt.45 Die erste Priorität des Schweizer Gesetzgebers sollte deshalb m.E. bei einer Modernisierung des Produktesicherheitsgesetzes (PrSG) und des Produktehaftpflichtgesetzes (PrHG) liegen.

6.2.

Produkthaftung von KI-Herstellern ^

[26]

Die Gesetzgebungsvorschläge der Kommission zum europäischen Rechtsrahmen der Haftung für digitale Systeme schliessen eine grundlegende Reform der Produkthaftungs-Richtlinie von 198546 mit ein. Hand in Hand damit soll die Produktsicherheits-Richtlinie47 revidiert werden.48 Letztere wird in Gestalt einer Verordnung direkten Einfluss auf die hier relevanten Fragestellungen nehmen. Sie hat zum Ziel, den gesetzlichen Rahmen für die Sicherheit von Non-Food-Produkten für Verbraucher zu aktualisieren und den Rechtsrahmen an die spezifischen Herausforderungen neuer Technologie und Geschäftsmodelle anzupassen. Sie baut dazu ein eigenes Gewährleistungsregime in Kombination mit Massnahmen der Marktüberwachung auf.49 Jede Verbindung oder Inkorporation digitaler Elemente inklusive vorgesehener Konnektivität müssen durch den verantwortlichen Wirtschaftsakteur hinsichtlich ihrer Sicherheit bewertet werden, unabhängig von der Eigenschaft des digitalen Elements als ein System der KI nach EU AI Act.

[27]

Der Entwurf einer Produkthaftungs-Richtlinie adressiert – wie bisher – die verschuldensunabhängige Haftung des Produktherstellers für fehlerhafte Produkte, jedoch angepasst an den technischen Fortschritt. Beispielsweise gilt zukünftig Software ausdrücklich als Produkt, auch wenn diese cloud-basiert bzw. stand-alone ist (Art. 4 Abs. 1) und werden die Auswirkungen einer etwaigen Fähigkeit, nach Einsatzbeginn weiter zu lernen, in die erwartbaren Sicherheitsanforderungen des Verkehrs an das Produkt einbezogen (Art. 6 Abs. 1 c). Relevanter Zeitpunkt für die Fehlerhaftigkeit ist, wenn der Hersteller die Kontrolle über das Produkt aufgibt (Art. 6 Abs. 1 e – dies berücksichtigt Online-Updates und -Upgrades). Weiter wird der Anwendungsbereich auf «verbundene Dienste» (Art. 4 Abs. 4) und Datenschäden (bspw. Datenverlust oder Datenverfälschung, Art. 4 Abs. 6 c) erweitert. Eine wesentliche Änderung betrifft die Erweiterung des potenziellen Beklagtenkreises, d.h. der haftenden Wirtschaftsakteure (Art. 7). Neben der Herstellerin des Produkts sollen auch Fulfilment-Dienstleister (Dienstleister für Lagerhaltung, Verpackung, Adressierung und Versand eines Produkts, an dem sie kein Eigentumsrecht haben), Online-Plattformen und Datenzuliefererdienste in Anspruch genommen werden können.

[28]

Der Richtlinienvorschlag zur Produkthaftung kennt (nicht nur für KI-spezifische Herausforderungen, sondern auch für andere komplexe Produkte) eine Offenlegungspflicht für Beweismittel (Art. 8) und eine Fehlervermutung (Art. 9 Abs. 2) sowie eine Kausalitätsvermutung (Art. 9 Abs. 3 und 4). Dieser Ansatz geht im Hinblick auf die Wahrung der Geschäftsgeheimnisse weit und könnte dazu führen, dass Geschädigte zunächst «ins Blaue hinein» Anträge stellen, um an Informationen wie Source Code, Trainings- und Validierungsdaten oder Dokumentation über das Verhalten der KI-Systeme während des Trainings zu gelangen.50 Gemäss Wagner wird die revidierte Produkthaftungs-Richtlinie zu einem Bedeutungsverlust der deliktischen Produzentenhaftung führen und auch die Bedeutsamkeit des Richtlinienvorschlags über KI-Haftung verringern.51

[29]

In der Schweizer Lehre wurde schon vielfach festgestellt und begründet, dass das schweizerische PrHG (parallel zur europäischen Produkthaftungs-Richtlinie 85/374/EWG) im Hinblick auf KI aktualisiert werden sollte.52 Das PrHG wurde nach dem Vorbild der Produkthaftungs-Richtlinie am 18. Juni 1993 autonom nachvollzogen und das Bundesgericht hat sich infolgedessen seither bei der Auslegung des PrHG an der Rechtsprechung des EuGH orientiert.53 Wie die europäische Produkthaftungs-Richtlinie ist auch das PrHG auf herkömmliche Produkte in Form physischer Gegenstände ausgerichtet, die nach Herstellung in Verkehr gebracht und danach nicht mehr beeinflusst werden. Ein modernes PrHG, aber auch ein modernes PrSG54, welche für KI verhaltenssteuernd wirken sollen, brauchen deshalb auch in der Schweiz Anpassungen. Diese gilt es anzugehen.

[30]

Folgende Anpassungen wären zu diskutieren, die ich schon an anderer Stelle analysiert habe:55 Produktbegriff (Software inkludieren, Erweiterung auf verbundene Dienstleistungen), Schadenskonzept (Datenschäden inkludieren), Vorliegen der Fehlerhaftigkeit bei KI-Systemen (Fehler vs. Fehlentscheid) und Bedeutung von Updates und Upgrades sowie Sicherheitserwartungen, Kontrolle nach Inverkehrbringen, Erweiterung des Herstellerbegriffs (auf z.B. Datenlieferanten oder Online-Plattformen), Entlastungsgründe (insbesondere die Einrede des Entwicklungsrisikos und die Einrede des nach Inverkehrbringen entstandenen Schadens), Beweislast bei Beweisnot.

6.3.

Verschuldenshaftung und verschuldensunabhängige Haftung von KI-Betreibern ^

[31]

Bei der Gestaltung einer KI-Betreiberhaftung gibt es verschiedene Optionen. Man könnte (1.) die Anforderungen an die Sorgfaltspflicht bei der Verschuldenshaftung erhöhen, (2.) die Verschuldenshaftung mit einer widerlegbaren Vermutung des Verschuldens und/oder Kausalzusammenhangs versehen, (3.) eine verschuldensunabhängige Haftung für Betreiber einer ausgewählten Gruppe von KI-Systemen einführen.

6.3.1.

Erhöhung der Anforderungen an die Sorgfaltspflichten bei der Verschuldenshaftung ^

[32]

In den meisten EU-Mitgliedstaaten sowie in der Schweiz gilt de lege lata für Nutzer von Produkten jeglicher Art, einschliesslich KI-Systemen, ein verschuldensabhängiges Haftungsregime.56 Der Betreiber haftet, wenn das schädliche Verhalten des KI-Systems auf sein Verschulden innerhalb seines Kontrollbereichs zurückzuführen ist. Bei lern- und entscheidungsfähiger KI kann der Betreiber einen grossen Einfluss auf den Lernprozess der KI haben, indem er den konkreten Einsatz der KI bestimmt und die erforderlichen Sicherheitsvorkehrungen trifft. Den Betreiber treffen in folgenden Einflussbereichen Pflichten: Auswahl und Einsatz, Training (Auswahl der Daten, Erzeugung der Daten), Wartung und Instandhaltung, Überwachung und Kontrolle sowie Pflicht zur Gefahrenabwehr.57 Es bestehen aber bislang keine ausdifferenzierten Sorgfaltspflichten bzw. technischen Standards beim Einsatz von KI-Systemen und bei Fehlen von sektorspezifischen Normen muss auf den Gefahrensatz zurückgegriffen werden.

[33]

Einer der Nachteile einer Verschuldenshaftung von KI-Betreibern besteht deshalb darin, dass die Gerichte das optimale Mass an Sorgfalt festlegen müssten, was im Bereich der KI, in dem sich die Technologie und ihre Anwendungen ständig weiterentwickeln, schwierig sein kann.58 Ein weiterer Nachteil einer Verschuldenshaftung von KI-Betreibern ist die Schwierigkeit des Beweises des Verschuldens und/oder der Kausalität (vorne 2. und hinten 6.3.2.).

[34]

Aus diesem Grund wirft die Verschuldenshaftung die Frage auf, ob sie den Risiken der KI gerecht werden kann oder ob nicht die Anforderungen an die Sorgfaltspflicht erhöht werden müssen. Letzteres wäre eine erste denkbare Option. Die deutsche Lehre schlägt eine Zurechnungsregel in Form einer digitalen Assistenzhaftung vor: Dem Prinzipal wird das Fehlverhalten digitaler Agenten strikt zugerechnet.59 Diese Haftung hätte zur Folge, dass im Fall der Aufgabendelegation an KI-Systeme der Prinzipal (in Form eines Unternehmens oder einer natürlichen Person) verantwortlich wäre. Das ginge weiter, als Sorgfalt bei der Bestimmung des Einsatzrahmens des KI-Systems walten zu lassen, es hinreichend instand zu halten und zu überwachen. Es würde bedeuten, dass man für den algorithmischen Gehilfen strikter haftet als für den menschlichen Gehilfen. Denn für den menschlichen Gehilfen gibt es ja im Kausalhaftungs-Tatbestand von Art. 55 OR einen Entlastungsbeweis.60 Bei Einführung einer digitalen Assistenzhaftung müsste man sich überlegen, ob dann nicht auch der Entlastungsbeweis in Art. 55 OR für menschliche Gehilfen entfallen müsste.61 Das würde aber eine Grundsatzänderung des schweizerischen Haftpflichtrechts bedeuten.62

6.3.2.

Vermutung des Verschuldens und/oder Kausalzusammenhangs bei der Verschuldenshaftung ^

[35]

Man könnte die Verschuldenshaftung mit einer widerlegbaren Vermutung des Verschuldens und/oder Kausalzusammenhangs versehen. Aus Sicht der Geschädigten könnte dies die bevorzugte Lösung sein (sogar gegenüber der verschuldensunabhängigen Haftung, insbesondere wenn eine Kausalitätsvermutung enthalten wäre).63 Genau dies tut denn auch die Richtlinie über KI-Haftung vom 28. September 2022 mittels Einführung von zwei wesentlichen widerlegbaren Vermutungen bezüglich der Beweislast. Sie ist anwendbar auf nicht-vertragliche, verschuldensabhängige Schadenersatzansprüche.

[36]

Gemäss Art. 3 der Richtlinie über KI-Haftung können Geschädigte bei Hochrisiko-KI-Systemen die Offenlegung der Beweismittel verlangen.64 Die Anträge sollten durch Tatsachen und Beweismittel untermauert werden, die die Plausibilität des in Betracht gezogenen Schadenersatzanspruchs belegen, und die angeforderten Beweismittel sollten den Adressaten zur Verfügung stehen.65 Wenn Beklagte dem nicht nachkommen, so wird ein Verstoss gegen die einschlägige Sorgfaltspflicht vermutet. Diese Vermutung zielt darauf ab, die Offenlegung zu fördern, aber auch die Gerichtsverfahren zu beschleunigen. Wenn die Vermutung von Art. 3 Abs. 5 nicht greift, bleibt es beim Geschädigten, eine Sorgfaltspflichtverletzung nachzuweisen.66

[37]

Gemäss Art. 4 der Richtlinie über KI-Haftung ist eine widerlegbare Kausalitätsvermutung67 primär gegenüber gewerblichen Nutzern vorgesehen in Fällen, in denen ein entsprechendes Verschulden festgestellt wurde und nach vernünftigem Ermessen von einem ursächlichen Zusammenhang mit der KI-Leistung ausgegangen werden kann. Dies ist nur dann der Fall, wenn es als wahrscheinlich angesehen werden kann, dass das betreffende Verschulden das einschlägige Ergebnis des KI-Systems oder das Fehlen desselben beeinflusst hat, was auf der Grundlage der Gesamtumstände des Falles beurteilt werden kann.68 Bei Hochrisiko-KI-Systemen gilt eine Ausnahme von der Kausalitätsvermutung, wenn der Beklagte nachweist, dass dem Kläger ausreichende Beweismittel und Fachkenntnisse zur Verfügung stehen, um den Kausalzusammenhang nachzuweisen. Bei KI-Systemen, die kein hohes Risiko darstellen, setzt die Anwendbarkeit der Kausalitätsvermutung die Feststellung des Gerichts voraus, dass es für den Kläger übermässig schwierig ist, den Kausalzusammenhang zu beweisen. Dies ist vor dem Hintergrund der KI-Risiken der Blackbox, der Komplexität und der Autonomie zu bewerten.69

[38]

Es liegt die Frage auf der Hand, ob die Richtlinie über KI-Haftung in der Schweiz umgesetzt werden sollte. Die Richtlinie über KI-Haftung referenziert den EU AI Act, meist durch direkte Verweise (Art. 2 auf die Begriffe KI-System, Hochrisiko-KI-System, Anbieter, Nutzer), sodass das Risiko der Kategorisierung als Hochrisiko-KI sowie die Unsicherheiten in Bezug auf die Anwendung auf private Nutzer in den Richtlinienvorschlag «importiert» werden.70 Aufgrund der Verknüpfung der Richtlinie über KI-Haftung an den EU AI Act unterliegen die Risikokategorien somit einer Dynamisierung und Rechtsunsicherheit; sie erfolgen zu wenig nach effektiven Haftungsrisiken für Individuen.71 Die entscheidendsten Aspekte, wie Definitionen, Anwendungsbereich und Sorgfaltspflichten, sind im EU AI Act geregelt. Eine Umsetzung der Richtlinie über KI-Haftung in der Schweiz würde deshalb zwangsläufig auch eine Umsetzung des EU AI Act bedingen.72 Es ist zu befürchten, dass eine Umsetzung des Richtlinienvorschlags ins Schweizer Recht aufgrund des Kausalitätsbegriffs, des unklaren Anwendungsbereichs und der Vielzahl unbestimmter Rechtsbegriffe zu vermehrter Rechtsunsicherheit im Schweizer Haftpflichtrecht führen würden.73 Das könnte sich negativ auf Einsatz und Innovationstätigkeit im Bereich der KI auswirken. Des Weiteren umfasst die Richtlinie über KI-Haftung nur Schäden, bei denen kein menschlicher Akteur zwischen KI-Output und Schaden tritt (Erwägungsgrund 15 Nr. 2–4), d.h. sie gilt nicht für entscheidunterstützende KI, was die praktische Relevanz einschränkt.

[39]

Was die Offenlegungspflichten (Art. 3) anbelangt, so sieht der EU AI Act Dokumentationspflichten vor, die sich an Fachpersonen richten. Der korrespondierende Anspruch zur Offenlegung in Art. 3 der Richtlinie über KI-Haftung dürfte aber oft durch Laien geltend gemacht werden, die ohne zusätzliche Hilfe von Sachverständigen über kein besseres Verständnis der KI-Systeme verfügen, sodass sie wohl keinen Anspruch mit den offengelegten Beweismitteln durchsetzen können.74 Die offengelegten Informationen dürften also nur beschränkt zu einer Beweiserleichterung führen. Ausserdem bestehen Bedenken hinsichtlich einer möglichen Auforschung und dem Verlust von Geschäftsgeheimnissen.75 Es besteht die Gefahr von «fishing expeditions», bei denen der Anbieter oder Nutzer eines Hochrisio-KI-Systems zunächst mehr oder weniger unspezifisch ausgeforscht wird, um Anhaltspunkte für eine Pflichtverletzung zu finden.76

[40]

Was die Kausalitätsvermutung (Art. 4) anbelangt, so wäre deren Umsetzung ein Novum im Schweizer Recht. In vielen Fällen greift die Vermutung nur dann, wenn gegen eine im EU AI Act vorgesehene Sorgfaltspflicht verstossen wird. Das Zusammenspel von Sorgfaltspflichten aus Schweizer Recht und Unionsrecht ist wenig praktikabel.77 Der Nachweis einer Sorgfaltspflichtverletzung wird darüber hinaus nicht weiter erleichtert. Gemäss Roth bestehen die grössten Bedenken an der Kausalitätsvermutung darin, dass eine Kausalität zwischen Sorgfaltspflichtverletzung und KI-Output vermutet wird, die das Schweizer Recht gar nicht verlangt.78 Entsprechend ist die Kausalitätsvermutung schwierig in das bestehende Schweizer Recht einzupassen und kann kaum die gewünschte Beweiserleichterung bieten.

[41]

Eine Alternative zu einer widerlegbaren Vermutung des Verschuldens und/oder Kausalzusammenhangs bzw. einer Beweislastumkehr wäre die Einführung eines niedrigeren Beweisstandards.79 Diese Lösung ist dem Schweizer Recht nicht fremd. In Fällen komplexer Abläufe, etwa bei Umwelt- und Arzneimittelschäden, erachtet es das Bundesgericht für gerechtfertigt, eine Beweismassreduktion vorzunehmen.80 Nach der Rechtsprechung des Bundesgerichts müssen Geschädigte für einen Fehler im Sinne von Art. 4 PrHG nur beweisen, dass ein Produkt nicht den berechtigten Sicherheitserwartungen des Durchschnittskonsumenten entspricht.81 Der Geschädigte muss nicht die konkrete Fehlerart benennen oder technische Hintergründe des Fehlers erläutern. Wenn es beim Gebrauch eines Produkts zu einem Unfall kommt, so ist der relevante Geschehensablauf mit dem Beweismass der überwiegenden Wahrscheinlichkeit nachzuweisen.82 Die Abläufe innerhalb von lernfähigen KI-Systemen sind komplex und opak, sodass die Gerichte in vielen Schadensfällen durch KI-Systeme ein reduziertes Mass verlangen könnten.

[42]

Damit zusätzlich einhergehen könnten m.E. erhöhte Substantiierungspflichten des nicht beweisbelasteten Schädigers, Offenlegungspflichten für Beweise, Kostenverteilungsregeln für Sachverständigengutachten oder – soweit datenschutzrechtlich zulässig – die Verpflichtung, Daten über die Funktionsweise des Systems zu erheben, um mögliche Ursachen für einen Fehler später nachvollziehen zu können.83

6.3.3.

Einführung einer verschuldensunabhängigen Haftung ^

[43]

Eine dritte Option wäre, zu überlegen, eine verschuldensunabhängige Haftung für Betreiber einer ausgewählten Gruppe von KI-Systemen einzuführen. Es gibt einige, insbesondere rechtsökonomische Gründe, die Betreiber von KI-Systemen in eine verschuldensunabhängige Verantwortung zu nehmen. Auf diese Gründe wurde an anderer Stelle im Detail eingegangen.84 Schon im Zusammenhang mit der Gentechnologie wurde in der Vergangenheit darauf hingewiesen, dass die Kanalisierung der Haftung auf den Hersteller einer Sorte, die gentechnisch veränderte Organismen enthält, und somit das bewusste Ausnehmen der Bauern (als «Gentech-Betreiber») von einer Haftpflicht, der Schadensprävention abkömmlich sei.85

[44]

Es gibt zwei Möglichkeiten für die Einführung einer verschuldensunabhängigen KI-Betreiberhaftung. Man kann entweder ein horizontales Haftungsregime für definierte hochriskante KI-Anwendungen einführen oder aber an bestehende sektorspezifische Vorschriften anknüpfen. Ein horizontales Haftungsregime für hochriskante KI wurde vom Europäischen Parlament in Art. 4 seiner EP Entschliessung vom Oktober 2020 noch favorisiert, im Vorschlag für eine Richtlinie über KI-Haftung wurde davon aber in Art. 5 Abs. 2 interessanterweise Abstand genommen (vorne 5.).86 Für die Schweiz würde ich die Einführung einer neuen einfachen Kausalhaftung bzw. einer Gefährdungshaftung für (hochriskante) KI-Betreiber nicht empfehlen, sondern eine Anknüpfung an sektorspezifische Vorschriften vorziehen, dies aus folgenden Gründen:

[45]

Eine einfache Kausalhaftung – ähnlich der Tierhalterhaftung oder der Familienhaupthaftung – wäre denkbar. Sie müsste auf einem Mangel an objektiver Sorgfalt gewisser Personen beruhen. Aufgrund der KI-Risiken und der Schwierigkeit der Konkretisierung von KI-Sorgfaltspflichten (vorne 2.) wäre es auch hier eine Herausforderung, zu bestimmen, ob und wann ein Mangel an objektiver Sorgfalt dem Haftpflichtigen zurechenbar wäre.87 Aus diesem Grund wird in der Lehre v.a. eine Gefährdungshaftung diskutiert.

[46]

Eine allgemeine Gefährdungshaftung rechtfertigt sich nur bei einem gewissen charakteristischen Risiko und einem inhärenten Schadenspotenzial.88 Der Gesetzgeber führt punktuell Gefährdungshaftungen ein, wenn er der Meinung ist, dass die Geschädigten einen besonderen Schutz verdienen, wobei dies oft vom Zeitgeist abhängt.89 Auf diesem Schutzgedanken gründet der Wertungsentscheid des Gesetzgebers für eine Gefährdungshaftung. In der Schweiz ist die Haftpflichtrechts-Revision mit ihrer Idee einer allgemeinen Gefährdungshaftung gescheitert; der Bundesrat hat darauf am 21. Januar 2009 verzichtet.90 Im Entwurf für einen neuen OR AT – dem OR 2020 – gab es ebenfalls eine allgemeine Gefährdungshaftung in Art. 60 für besonders gefährliche Tätigkeiten, aber auch dieser Vorschlag wurde nicht weiterverfolgt.91 Deshalb wäre für eine Gefährdungshaftung für KI-Betreiber in der Schweiz die Einführung einer spezialgesetzlichen Grundlage notwendig.

[47]

Eine Gefährdungshaftung ermöglicht es, die Schwierigkeiten beim Nachweis des Verschuldens zu überwinden und die nicht greifbaren inhärenten KI-Risiken (vorne 2.) zu erfassen. Allerdings ist man mit den immer wiederkehrenden Problemen der Gefährdungshaftung konfrontiert: Es besteht die Befürchtung, für alle Schäden verantwortlich gemacht zu werden, auch für solche, die zunächst nicht vorhersehbar waren. Die Frage ist offensichtlich zentral für Innovationen, bei denen man mit der Blackbox als Risiko zu kämpfen hat. Bei der Gefährdungshaftung möchte man das Risiko, das nicht vorhergesehen wurde oder sogar nicht vorhersehbar war, denjenigen zuordnen, die daraus einen Nutzen ziehen. Das Kriterium der Vorhersehbarkeit scheint daher kein geeignetes Kriterium für eine Einschränkung der Gefährdungshaftung zu sein, da es für den beabsichtigten Zweck zu restriktiv ist.92 Man möchte den ersetzbaren Schaden genau nicht auf die Vorhersehbarkeit seines Eintretens beschränken.

[48]

Eine weitere Möglichkeit, die Gefährdungshaftung nicht ausufern zu lassen,93 ist es, beim Schutz der Rechtsgüter anzusetzen. Man könnte die geschützten Rechtsgüter begrenzen, wie es in Art. 50 des Vorentwurfs für ein neues Haftpflichtrecht oder in Art. 60 des OR 202094 vorgeschlagen worden war. Begrenzt man die geschützten Rechtsgüter auf Personen- und Sachschäden, so bleibt die Frage, wer das Risiko von Vermögensschäden, etwa aufgrund fehlender oder mangelhafter Konnektivität smarter Produkte, tragen sollte. Soweit die Schäden auf im ursprünglichen Produkt selbst angelegten Eigenschaften beruhen, wäre eine Herstellerhaftung zu erwägen, im Übrigen bleibt dieses Risiko jedoch bei den Verbrauchern.

[49]

Letztlich geht es hier um einen Mangel des fraglichen Produkts und damit um eine Frage des Vertragsrechts. Dabei ist allerdings wiederum zu bedenken, dass derartige Mängel bei lernfähigen und sich weiterentwickelnden Produkten häufig nach Ablauf vertragsrechtlicher Gewährleistungs- und Verjährungsfristen auftreten können. Will man diese Risiken nicht allein den Verbrauchern aufbürden, sollte über den vertragsrechtlichen Verjährungsbeginn nachgedacht werden.95 Er könnte etwa an die Erkennbarkeit des Mangels angeknüpft werden.

[50]

Ein Kardinalproblem eines horizontalen Haftungsregimes in Form einer Gefährdungshaftung für Betreiber von (hochriskanter) KI besteht in der Definition des Anwendungsbereichs, d.h. in der Definition der KI einerseits und der Definition der Risikokategorien andererseits.96 Es gibt keine allgemeingültige Definition der KI, selbst unter Informatikern ist man sich nicht einig.97 Es gibt verschiedene Möglichkeiten, wie das Problem gehandhabt werden kann.98 Die Herausforderung besteht darin, den Anwendungsbereich entwicklungsoffen und für Rechtsanwender trotzdem operationalisierbar zu definieren.99 Wenn eine Gefährdungshaftung eingeführt werden sollte, muss der Geltungsbereich einer solchen Haftung eng definiert und die Geltung für einzelne Anwendungen gut begründet sein. Und wäre jedes Produkt mit KI abgedeckt, auch wenn es nicht die Ursache des Schadens war?100

[51]

Ein weiteres Argument, welches mich dazu bringt, kein horizontales Haftungsregime für (hochriskante) KI zu empfehlen, ist Folgendes: Eine Gefährdungshaftung differenziert zu wenig nach Kontext, in dem eine Anwendung eingesetzt wird.101 Das hat Lohmann 2017 schon gegen ein horizontales Haftungsregime für Robotik ins Feld geführt und gezeigt, dass es dort auf die Strukturiertheit des Einsatzbereichs und die Lern- und Entscheidungsfähigkeit des Roboters ankommt.102 Selbst wenn man nach Risikokategorien differenziert, so wird es in der Praxis schwierig sein, KI-Systeme sektoral bestimmten Risikoklassen zuzuordnen, zumal es Informationsasymmetrien zwischen privaten Akteuren und Regulierungsbehörden geben wird.103

[52]

Ein horizontales Haftungsregime für hochriskante KI würde in der Schweiz nicht viele relevante KI-Anwendungen erfassen.104 Viele KI-Anwendungen sind bereits durch sektorspezifische Regelungen angemessen abgesichert. Eine allgemeine Betreiber- bzw. Gefährdungshaftung (z.B. in Form einer Halterhaftung) findet sich bereits im geltenden Recht für Gefahrenquellen mit besonders hohen Risiken für Leben und Gesundheit von Menschen. Gefährdungshaftungstatbestände in Spezialgesetzen (für Motorfahrzeughalter im SVG, für Eisenbahnunternehmer im EBG, für Luftfahrzeughalter im LFG etc.)105 sind selbstverständlich auch für KI-Betreiber anwendbar, da diese Spezialgesetze technologieneutral sind. Die besonderen Schadensrisiken, die z.B. mit dem Betrieb bestimmter technischer Anlagen verbunden sind, gelten unabhängig davon, ob die Anlagen konventionell oder digital-autonom gesteuert werden.106

[53]

Auf der anderen Seite gibt es zahlreiche KI-Systeme, die nicht risikoreich sind und für die deshalb eine verschuldensunabhängige Haftung nicht gerechtfertigt wäre. Im Gegenteil: KI-Systeme werden genutzt, um menschliche Unzulänglichkeiten (verspätete Reaktionszeiten, Übersehen wesentlicher Daten oder Informationen sowie Subjektivität) auszugleichen und damit Risiken und Schäden zu reduzieren.107 Es gibt beim gegenwärtigen Stand der technischen Entwicklung keinen Grund dafür, KI-Systeme «across the board» einer Gefährdungshaftung zu unterstellen.108

[54]

Es besteht deshalb m.E. momentan kein Bedarf für eine spezifische Gefährdungshaftung für KI-Betreiber, und ein horizontales Haftungsregime für (hochriskante) KI ist derzeit nicht zu empfehlen. Es ist für die Schweiz im Bereich der verschuldensunabhängigen Haftung sinnvoller, an sektorspezifische Vorschriften anzuknüpfen und so die Kohärenz des geltenden Haftpflichtrechts zu bewahren.109 Die Haftung für KI sollte sich in das allgemeine System der Haftungs- und Verantwortungsregeln einfügen. Sektorspezifische Vorschriften ermöglichen die Berücksichtigung unterschiedlicher Risiken und Chancen in verschiedenen Branchen und erlauben so eine präzisere Risikoabschätzung durch den Gesetzgeber. Zudem können sektorspezifische Vorschriften konkreter formuliert werden und sind einfacher realisierbar.110 Das Anknüpfen daran hat den Vorteil, dass die verschuldensunabhängige Haftung auf gewisse, bereits im Gesetz definierte Sektoren beschränkt wird. Es gewährleistet die Kohärenz mit den Sicherheitsvorschriften, die ebenfalls auf Sektorebene definiert sind (vorne 3.). Es stellt sicher, dass der Anwendungsbereich der verschuldensunabhängigen Haftung vom Gesetzgeber bei der Verabschiedung der sektoralen Regelung festgelegt wird und nicht von den Gerichten bei der Auslegung der Kriterien zur Definition von hochriskanten Anwendungen. Denn eine Gefährdungshaftung rechtfertigt sich auch bei KI nur bei Vorliegen bestimmter Kriterien.111 Nach der Analyse von Frey in ihrer Master-Arbeit wären z.B. der Energiesektor und der Finanzsektor keine geeigneten Kandidaten, anders als z.B. der Industriesektor oder die Verkehrsregelungsinfrastruktur.112

[55]

Konkrete gesetzliche Regelungen für neue KI-Systeme sollten frühestens dann und nur jeweils für bestimmte Bereiche eingeführt werden, wenn solche KI-Systeme ausserhalb der bereits durch bestehende gesetzliche Regelungen abgesicherten Bereiche vor der Markteinführung stehen.113 Andernfalls drohen aufgrund der Vielfalt verschiedener KI-Systeme in bestimmten Bereichen unsachgemässe Regelungen. Pauschal «auf Vorrat» sektorale Gefährdungshaftungen für KI-Systeme in Spezialgesetze aufzunehmen, kann nicht die Lösung sein.

[56]

Wenn für bestimmte Bereiche infolge KI eine Einführung oder Anpassung einer verschuldensunabhängigen Haftung für nötig erachtet wird, so gilt es Folgendes zu bedenken, was ich schon bei der Diskussion um die Haftung in der Gentechnologie hervorgehoben hatte:114 Aus Gründen der Gleichbehandlung ist eine allzu fragmentierte Lösung nicht sinnvoll und eine einheitliche Behandlung von Produkten anzustreben. Wieso sollte es für KI-Medizinprodukte eine Gefährdungshaftung geben, nicht aber für Nicht-KI-Medizinprodukte?115 Auch autonome Fahrzeuge sollten in Bezug auf die Halterhaftung und Fahrzeugversicherung nicht anders behandelt werden als nicht autonome Fahrzeuge.116 Es ist also das Kriterium des «kontextspezifischen Referenzszenarios» zu beachten: Dieses fordert stets eine vergleichende Betrachtung zu der Situation, bei der keine KI-Systeme involviert sind.117

7.

Fazit ^

[57]

Dieser Aufsatz zeigt auf, welche Lösungsansätze des ausservertraglichen Haftpflichtrechts für KI bestehen und de lege ferenda für die Schweiz Sinn ergeben könnten. Dabei sollten sich die Herstellerhaftung und die Betreiberhaftung ergänzen.

[58]

Bei den intensiven Diskussionen über den EU AI Act und den Richtlinienvorschlag über KI-Haftung geht häufig der Blick auf die wesentlich weitreichenderen Regelwerke der in Revision befindlichen europäischen Produktsicherheits-Richtlinie und Produkthaftungs-Richtlinie verloren.118 In beiden Regelwerken wird neu die Software explizit zum Regelungsgegenstand erklärt. Software ist als Begriff wesentlich weiter als KI (unabhängig davon, wie man diese nun definiert), und deshalb sind diese beiden Regelwerke sehr wichtig für den Softwaremarkt im Allgemeinen. Hersteller werden sich in erster Linie nach den Produktsicherheits- und Produkthaftungsvorgaben richten. Es steht ausser Zweifel, dass auch das Schweizer PrHG und PrSG im Hinblick auf KI und Digitalisierung aktualisiert werden sollten. Ein modernes PrHG und ein modernes PrSG benötigen auch in der Schweiz Anpassungen. Diese Anpassungen wurden in der Politik und in der Presse bis anhin noch wenig diskutiert. Ich bin aber der festen Überzeugung, dass hier die Priorität liegen sollte.

[59]

Im Vergleich zur Produktsicherheits- und Produkthaftungs-Richtlinie erscheint die Schlagkraft des europäischen Richtlinienvorschlags über KI-Haftung gering.119 In der Praxis dürfte die Richtlinie über KI-Haftung nur eine beschränkte Bedeutung entwickeln, da Geschädigte Schäden nach dem Regime der Produkthaftungs-Richtlinie verfolgen werden.

[60]

Eine zusätzliche KI-Betreiberhaftung ist aber begrüssenswert und fördert die «digital literacy» der Betreiber. Bereits heute werden viele KI-Schäden von sektoralen Gefährdungshaftungen gedeckt sein, wie z.B. selbstfahrende Autos vom SVG oder Drohnen vom LFG. Auf EU-Ebene wird im Bereich KI-Betreiberhaftung diskutiert, die Verschuldenshaftung mit einer widerlegbaren Vermutung des Verschuldens und/oder Kausalzusammenhangs zu versehen. Aufgrund der Verknüpfung der Richtlinie über KI-Haftung an den EU AI Act könnten in der Schweiz diese Vermutungen nur übernommen werden, wenn auch der EU AI Act (wenigstens in den Grundkonzepten) umgesetzt würde. Ich würde die Übernahme der Vermutungen des Verschuldens und Kausalzusammenhangs in der Richtlinie über KI-Haftung zum jetzigen Zeitpunkt nicht empfehlen. Eine Alternative zu den Vermutungen wäre die Einführung eines niedrigeren Beweisstandards, kombiniert mit zusätzlichen Massnahmen wie z.B. Kostenverteilungsregeln für Sachverständigengutachten oder Offenlegungspflichten für Beweise. Von der Einführung einer verschuldensunabhängigen KI-Betreiberhaftung würde ich ebenfalls absehen und stattdessen an sektorspezifische Vorschriften anknüpfen, wobei ich nicht empfehlen würde, pauschal «auf Vorrat» sektorale Gefährdungshaftungen für KI-Systeme in Spezialgesetze aufzunehmen.


Isabelle Wildhaber, Prof. Dr. iur., LL.M., Ordentliche Professorin für Privat- und Wirtschaftsrecht, Universität St. Gallen. Die Autorin bedankt sich bei ihrem Assistenten Damian Cathomas für die Hilfe bei der Quellenbeschaffung und bei Christine Huonker für das Lektorat. Alle Links wurden zuletzt am 14. Juni 2024 überprüft.

  1. 1 Isabelle Wildhaber, Produkthaftung im Gentechnikrecht, Eine rechtsvergleichende Studie, Diss. Zürich 2000; Isabelle Wildhaber, Koexistenz und Haftung, Gedanken zu wirtschaftlichen Schäden im biotechnischen Zeitalter, ZBJV 2011, 631 ff.
  2. 2 Europäische Kommission, Report from the Expert Group on Liability and New Technologies – New Technologies Formation, Liability for Artificial Intelligence and Other Emerging Digital Technologies, Luxembourg 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en, 5 ff.; Europäische Kommission, Bericht vom 19. Februar 2020 an das Europäische Parlament, den Rat und den Europäischen Wirtschafts- und Sozialausschuss, Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik im Hinblick auf Sicherheit und Haftung, COM(2020) 64 final. Ähnlich Eidg. Staatssekretariat für Bildung, Forschung und Innovation (SBFI), Bericht vom 13. Dezember 2019 der interdepartementalen Arbeitsgruppe «Künstliche Intelligenz» an den Bundesrat, Herausforderungen der künstlichen Intelligenz, 24.
  3. 3 Eidg. Departement für auswärtige Angelegenheiten (EDA), Bericht vom 13. April 2022 an den Bundesrat, Künstliche Intelligenz und internationales Regelwerk, 7; Europäische Kommission, Vorschlag vom 28. September 2022 für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über ausservertragliche zivilrechtliche Haftung an künstliche Intelligenz, COM(2022) 496 final, 1; Europäische Kommission, Weissbuch vom 19. Februar 2020 zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen, COM(2020) 65 final, 14 ff.; Kommissionsbericht KI 2020 (Fn. 2), 8 ff.; Expert Group Report 2019 (Fn. 2), 5, 32 ff.; Walter Fellmann, Haftpflichtrecht im Zeichen der Digitalisierung, HAVE 2021, 105 ff., 108; Melinda F. Lohmann, Ein zukunftsfähiger Haftungsrahmen für Künstliche Intelligenz, HAVE 2021, 111 ff., 112; Gunther Teubner, Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten, AcP 2018, 155 ff., 163 ff.; Gerhard Wagner, Verantwortlichkeit im Zeichen digitaler Techniken, VersR 2020, 717 ff., 724; Herbert Zech, Entscheidungen digitaler autonomer Systeme: Empfehlen sich Regelungen zu Verantwortung und Haftung? Gutachten für den 73. Deutschen Juristentag, München 2020, A 49 f.
  4. 4 Bericht IDAG KI 2019 (Fn. 2), 31; Weissbuch KI 2020 (Fn. 3), 16; Richtlinie KI-Haftung 2022 (Fn. 3), 2; Isabelle Wildhaber, Eine Einführung in die Haftung für Künstliche Intelligenz (KI), in: HAVE (Hrsg.), Haftpflichtprozess 2021, Zürich 2021, 1 ff., 6; Omri Rachum-Twaig, Whose Robot Is It Anyway? Liability for Artificial-Intelligence-Based Robots, University of Illinois Law Review 2020, 1141 ff., 1152.
  5. 5 Expert Group Report 2019 (Fn. 2), 33; Weissbuch KI 2020 (Fn. 3), 28; Kommissionsbericht KI 2020 (Fn. 2), 18.
  6. 6 Weissbuch KI 2020 (Fn. 3), 14 f; Bericht IDAG KI 2019 (Fn. 2), 36.
  7. 7 Miriam Buiten, Chancen und Grenzen erklärbarer Algorithmen im Rahmen von Haftungsprozessen, in: Zimmer (Hrsg.), Regulierung für Algorithmen und Künstliche Intelligenz, Baden-Baden 2021, 149 ff.
  8. 8 Buiten (Fn. 7), 149 ff.
  9. 9 Wildhaber (Fn. 4), 8; Miriam Buiten/Alexandre De Streel/Martin Peitz, EU Liability Rules for The Age of Artificial Intelligence, Report for the Centre on Regulation in Europe (CERRE), April 2021, 13.
  10. 10 Expert Group Report 2019 (Fn. 2), 23 ff., 52 ff.; Europäisches Parlament, P9_TA(2020)0276 Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz, Entschliessung vom 20. Oktober 2020 mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz (2020/2014(INL)), Text Erwägung 11; Weissbuch KI 2020 (Fn. 3), 15; Kommissionsbericht KI 2020 (Fn. 2), 16; Richtlinie KI-Haftung 2022 (Fn. 3), 1; Buiten/De Streel/Peitz (Fn. 9), 21; Rachum-Twaig (Fn. 4), 1144, 1159 ff.
  11. 11 Expert Group Report 2019 (Fn. 2), 8, 20 ff.; Silvio Hänsenberger, Die Haftung für Produkte mit lernfähigen Algorithmen, in: Jusletter vom 26. November 2018, N 33; Lohmann (Fn. 3), 117; Melinda F. Lohmann, Roboter als Wundertüten – eine zivilrechtliche Haftungsanalyse, AJP 2017, 152 ff., 156; Wildhaber (Fn. 4), 13; Zech (Fn. 3), A 57 ff., A 73; Herbert Zech, Empfehlen sich Regelungen zu Verantwortung und Haftung beim Einsatz Künstlicher Intelligenz? NJW-Beilage 2022, 33 ff., 35.
  12. 12 Richtlinie KI-Haftung 2022 (Fn. 3), E. 17; Wildhaber (Fn. 4), 13; Shu Li/Michael Faure/Katri Havu, Liability Rules for AI-Related Harm: Law and Economics Lessons for a European Approach, European Journal of Risk Regulation 2022, 618 ff., 620.
  13. 13 Reto Patrick Müller/Herbert Zech, Was ist Technikrecht? Herausforderungen der Rechtsordnung im Umgang mit einer «hybriden» Querschnittsmaterie, Sicherheit & Recht 2019, 72 ff.; ähnlich auch schon Wildhaber, Diss. (Fn. 1), 394 ff.
  14. 14 Wildhaber (Fn. 4), 11; so auch Richtlinie KI-Haftung 2022 (Fn. 3), 3.
  15. 15 Buiten/De Streel/Peitz (Fn. 9), 30; Wildhaber (Fn. 4), 11; vgl. auch Müller/Zech (Fn. 13), 94 ff.
  16. 16 Richtlinie KI-Haftung 2022 (Fn. 3), 3.
  17. 17 Bericht IDAG KI 2019 (Fn. 2).
  18. 18 Bericht EDA 2022 (Fn. 3), 2, 22 f., 15, mit Blick auf das Bundesgesetz über die technischen Handelshemmnisse (THG).
  19. 19 Mitteilung des EDÖB vom 9. November 2023, https://www.edoeb.admin.ch/edoeb/de/home/kurzmeldungen/2023/20231109_ki_dsg.html.
  20. 20 https://www.uvek.admin.ch/uvek/de/home/uvek/medien/medienmitteilungen.msg-id-98791.html.
  21. 21 Europäische Kommission, Mitteilung vom 25. April 2018 an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, COM(2018) 237 final.
  22. 22 Europäische Kommission, Mitteilung vom 7. Dezember 2018 an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Koordinierter Plan für künstliche Intelligenz, COM(2018) 795 final.
  23. 23 Expert Group Report 2019 (Fn. 2), 1 ff.
  24. 24 Weissbuch KI 2020 (Fn. 3), 17.
  25. 25 Kommissionsbericht KI 2020 (Fn. 2), 2, 16, 21.
  26. 26 EP Entschliessung KI-Haftung 2020 (Fn. 10).
  27. 27 EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 7 und 8, 11 ff., Anlage Erwägung 14.
  28. 28 Weissbuch KI 2020 (Fn. 3), 16, i.V.m. Kommissionsbericht KI 2020 (Fn. 2), 14; Jürgen Basedow, Strikte Haftung und «nackte» Pflichtversicherungen, EU-Konzepte für die digitale Welt?, EuZW 2021, 1 f.
  29. 29 EP Entschliessung KI-Haftung 2020 (Fn. 10), Art. 4 und Art. 8; Weissbuch KI 2020 (Fn. 3), 20 f.
  30. 30 Europäische Kommission, Vorschlag vom 21. April 2021 für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union, COM(2021) 206 final.
  31. 31 Gerald Spindler, CR 2021, Der Vorschlag der EU-Kommission für eine Verordnung zur Regulierung der Künstlichen Intelligenz, CR 2021, 361 ff., 362; Gerhard Wagner, Die Richtlinie über KI-Haftung: Viel Rauch, wenig Feuer, JZ 2023, 123 ff., 128 ff.
  32. 32 Europäische Kommission, Vorschlag vom 28. September 2022 für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte, COM(2022) 495 final; Kommissionsbericht KI 2020 (Fn. 2), 14 ff.; Expert Group Report 2019 (Fn. 2), 27 f.; EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 8.
  33. 33 Richtlinie KI-Haftung 2022 (Fn. 3).
  34. 34 Expert Group Report 2019 (Fn. 2), 40.
  35. 35 Wagner (Fn. 3), 731 f., 738; Wildhaber (Fn. 4), 23.
  36. 36 Fellmann (Fn. 3), 110; Wagner (Fn. 3), 724 f.; Gerhard Wagner, Liability Rules for the Digital Age, JETL 2022, 191 ff., 196.
  37. 37 Astrid Seehafer/Joel Kohler, Künstliche Intelligenz: Updates für das Produkthaftungsrecht? EuZW 2020, 213 ff.; Gerhard Wagner, Robot, inc.: Personhood for autonomous systems? Fordham Law Review 2019, 591 ff., 602; Wagner (Fn. 3), 734.
  38. 38 Fellmann (Fn. 3), 110; Li/Faure/Havu (Fn. 12), 626; Wagner (Fn. 3), 734, 738.
  39. 39 Expert Group Report 2019 (Fn. 2), 7 N 16, 41; EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 10 ff., Anlage B Erwägung 10.
  40. 40 Expert Group Report 2019 (Fn. 2), 39 ff.; Bericht IDAG KI 2019 (Fn. 2), 37.
  41. 41 Expert Group Report 2019 (Fn. 2), 40; EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 10; Zech (Fn. 3), A 51; Isabel Ebert/Isabelle Wildhaber, Piercing the Veil of Opacity: Responsibility and Liability for the Use of People Analytics Tools, Morals + Machines 2/2021, 40 ff., 45; Lohmann (Fn. 3), 113; Li/Faure/Havu (Fn. 12), 627; Wagner (Fn. 3), 738.
  42. 42 Das gehört gemäss Expert Group Report 2019 (Fn. 2), 7 N 16, zu den Betreiber-Sorgfaltspflichten.
  43. 43 EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 10. Siehe die ähnlichen Abwägungen im Zusammenhang mit der Gentechnik Wildhaber, ZBJV 2011 (Fn. 1), 11 (eine negative Konsequenz von Art. 30 Abs. 2 GTG, Kanalisierung auf den Bewilligungsinhaber, ist, dass der Bewilligungsinhaber für den Konsumenten oder Nachbarn oftmals gar nicht ersichtlich sein wird). Siehe auch Ebert/Wildhaber (Fn. 41), 45.
  44. 44 Ebert/Wildhaber (Fn. 41), 45 ff.: Am Arbeitsplatz soll dies auch so bleiben, da es spezielle arbeitsrechtliche Verfahrensregeln und spezielle Arbeitsgerichte gibt, die den betroffenen Arbeitnehmern zur Verfügung stehen.
  45. 45 Wagner (Fn. 31), 133.
  46. 46 Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte, Amtsblatt Nr. L 210/29 vom 7. August 1985.
  47. 47 Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates vom 3. Dezember 2001 über die allgemeine Produktsicherheit, Amtsblatt Nr. L 11/4 vom 15. Januar 2002.
  48. 48 Europäische Kommission, Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über die allgemeine Produktsicherheit, zur Änderung der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates sowie zur Aufhebung der Richtlinie 87/357/EWG des Rates und der Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates, 30. Juni 2021, COM/2021/346 final; konsolidierte Fassung des Rates: COM(2021)346 – C9-0245/2021 – 2021/0170(COD).
  49. 49 Philipp Reusch, KI und Software im Kontext von Produkthaftung und Produktsicherheit, RDi 2023, 152 ff., 155 ff.
  50. 50 Gerald Spindler, Die Vorschläge der EU-Kommission zu einer neuen Produkthaftung und zur Haftung von Herstellern und Betreibern Künstlicher Intelligenz, CR 2022, 689 ff., 697.
  51. 51 Wagner (Fn. 31), 127; Wagner (Fn. 36), 198 f., 231 ff.
  52. 52 Fellmann (Fn. 3), 106 ff.; Lohmann (Fn. 3), 111 ff.; Wildhaber (Fn. 4), 24.
  53. 53 BGE 137 III 226 E. 2.2; BGE 133 III 81 E. 3.1; BGE 129 III 355 E. 6.
  54. 54 Hänsenberger (Fn. 11), N 42; Heinz Rey/Isabelle Wildhaber, Ausservertragliches Haftpflichtrecht, 5. Aufl., Zürich 2018, N 1493 ff.
  55. 55 Wildhaber (Fn. 4), 24 ff. Ausserdem: Fellmann (Fn. 3), 106 ff.; Lohmann (Fn. 3), 111 ff.; Bernhard A. Koch/Pascal Pichonnaz, Der Entwurf einer neuen EU-Produkthaftungsrichtlinie aus schweizerischer Sicht, SJZ 2023, 627 ff., 637 ff.
  56. 56 Wagner (Fn. 37), 606; Wildhaber (Fn. 4), 37.
  57. 57 Expert Group Report 2019 (Fn. 2), 44; Wildhaber (Fn. 4), 37; Tina Dötsch, Ausservertragliche Haftung für Künstliche Intelligenz am Beispiel von autonomen Systemen, Diss. Wiesbaden 2023, 145; Buiten/De Streel/Peitz (Fn. 9), 43; Zech (Fn. 3), A 56.
  58. 58 Wildhaber (Fn. 4), 38; Rachum-Twaig (Fn. 4), 1144; Wagner (Fn. 3), 726 ff.
  59. 59 Teubner (Fn. 3), 191 ff.; Wagner (Fn. 3), 736; Gerhard Wagner, Haftung für Künstliche Intelligenz, Eine Gesetzesinitiative des Europäischen Parlaments, ZEuP 2021, 545 ff., 559; mit Kritik Zech (Fn. 3), A 76 ff.
  60. 60 Rey/Wildhaber (Fn. 54), N 1090 ff.
  61. 61 Wildhaber (Fn. 4), 38.
  62. 62 Melinda F. Lohmann/Theres Pressler, Die Rechtsfigur des Erfüllungsgehilfen im digitalen Zeitalter, RDi 2021, 538 ff.
  63. 63 Buiten/De Streel/Peitz (Fn. 9), 46; Rachum-Twaig (Fn. 4), 1167.
  64. 64 David Bomhard/Jonas Siglmüller, Europäische KI-Haftungsrichtlinie, RDi 2022, 506 ff., 508 ff.; Jan Eichelberger, Der Vorschlag einer «Richtlinie über KI-Haftung», DB 2022, 2783 ff., 2785 f.; Spindler (Fn. 50), 701 ff.; Dirk Staudenmayer, Haftung für Künstliche Intelligenz, Die deliktsrechtliche Anpassung des europäischen Privatrechts an die Digitalisierung, NJW 2023, 894 ff., 896 f.; Wagner (Fn. 31), 125; Wagner (Fn. 36), 224 f.
  65. 65 Richtlinie KI-Haftung 2022 (Fn. 3), 14.
  66. 66 Philipp Hacker, The European AI Liability Directives, Critique of a Half-Hearted Approach and Lessons for the Future, Computer Law & Security Review 2023, 105871, 1 ff., 22, 25; Raphaela Roth, Ausservertragliche Haftung des Betreibers für KI, Analyse des Richtlinienentwurfs der EU-Kommission zur KI-Haftung und dessen Umsetzbarkeit in der Schweiz, Master-Arbeit an der Universität St. Gallen 2024, unpubliziert, 46; Bomhard/Siglmüller (Fn. 64), 509.
  67. 67 Bomhard/Siglmüller (Fn. 64), 510 ff.; Eichelberger (Fn. 64), 2786 ff.; Spindler (Fn. 50), 702 ff.; Staudenmayer (Fn. 64), 897 ff.; Wagner (Fn. 31), 125 f.; Wagner (Fn. 36), 225 f.
  68. 68 Richtlinie KI-Haftung 2022 (Fn. 3), 16.
  69. 69 Richtlinie KI-Haftung 2022 (Fn. 3), 16.
  70. 70 Bomhard/Siglmüller (Fn. 64), 506; Spindler (Fn. 50), 700; Staudenmayer (Fn. 64), 896; Wagner (Fn. 31), 123.
  71. 71 Orian Dheu/Jan De Bruyne/Charlotte Ducuing, The European Commission’s Approach To Extra-Contractual Liability and AI, A First Analysis and Evaluation of Two Proposals, CiTiP Working Paper 2022, https://ssrn.com/abstract=4239792, 17 ff.; Roth (Fn. 66), 46.
  72. 72 Roth (Fn. 66), 58.
  73. 73 Roth (Fn. 66), 47; Hacker (Fn. 66), 33.
  74. 74 Roth (Fn. 66), 46.
  75. 75 Roth (Fn. 66), 57; Bomhard/Siglmüller (Fn. 64), 513.
  76. 76 Eichelberger (Fn. 64), 2789.
  77. 77 Hacker (Fn. 66), 33.
  78. 78 Roth (Fn. 66), 46; Wagner (Fn. 31), 125.
  79. 79 Expert Group Report 2019 (Fn. 2), 8; Kommissionsbericht KI 2020 (Fn. 2), 17.
  80. 80 Rey/Wildhaber (Fn. 54), N 781.
  81. 81 BGE 137 III 226 E. 3.2 BGE 133 III 81 E. 4.1; BGE 131 III 12 E. 2; Barbara Klett/Dominique Müller, Rechtsentwicklungen zum PrHG und PrSG, HAVE 2018, 438 ff.; Rey/Wildhaber (Fn. 54), N 1446.
  82. 82 BGE 133 III 81 E. 4.2.2; Rey/Wildhaber (Fn. 54), N 1446.
  83. 83 Buiten/De Streel/Peitz (Fn. 9), 56; Wildhaber (Fn. 4), 36.
  84. 84 Wildhaber (Fn. 4), 40 ff.; Miriam Buiten/Alexandre De Streel/Martin Peitz, The law and economics of AI liability, Computer Law & Security Review 2023, 105794, 1 ff., 9; Hacker (Fn. 66), 31.
  85. 85 Wildhaber, ZBJV 2011 (Fn. 1), 13.
  86. 86 Weissbuch KI 2020 (Fn. 3), 16, i.V.m. Kommissionsbericht KI 2020 (Fn. 2), 14.
  87. 87 Pascal Pichonnaz, La responsabilité pour l’intelligence artificielle: un régime de responsabilité objective simple comme solution nuancée, in: Belser/Pichonnaz/Stöckli (éd.), Le droit sans frontières, Mélanges pour Franz Werro, Bern 2022, 513 ff., 520.
  88. 88 Shirin Grünig, Die Gefährdungshaftung, HAVE 2021, 94 ff.; Li/Faure/Havu (Fn. 12), 627; Müller/Zech (Fn. 13), 94 ff.; Pascal Pichonnaz/Franz Werro, La responsabilité fondée sur le risque: un état des lieux et quelques perspectives d’avenir, in: Werro/Pichonnaz (éd.), Colloque du droit de la responsabilité civile 2017, Bern 2018, 1 ff.; Rey/Wildhaber (Fn. 54), N 1500.
  89. 89 Vincent Bruhlhart, Responsabilité pour risque et assurance de la responsabilité: ce qu’elles se doivent l’une à l’autre, in: Werro/Pichonnaz (Hrsg.), Les responsabilités fondées sur le risque, Bern 2018, 139 ff., 144; Grünig (Fn. 88), 96.
  90. 90 Pichonnaz/Werro (Fn. 88), 2.
  91. 91 Pichonnaz/Werro (Fn. 88), 2 ff.
  92. 92 Pichonnaz/Werro (Fn. 88), 25; Wildhaber (Fn. 4), 43.
  93. 93 Rey/Wildhaber (Fn. 54), N 1504.
  94. 94 Claire Huguenin/Reto Hilty (Hrsg.) Schweizer Obligationenrecht 2020, Entwurf für einen neuen allgemeinen Teil, Zürich 2013.
  95. 95 Wildhaber (Fn. 4), 43 f.
  96. 96 Weissbuch KI 2020 (Fn. 3), 19 ff.; EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 14.
  97. 97 Bericht IDAG KI 2019 (Fn. 2), 18 ff.; Miriam Buiten, Towards Intelligent Regulation of Artificial Intelligence, EJRR 2019, 1 ff., 5.
  98. 98 Vgl. dazu Philipp Hacker, Europäische und nationale Regulierung von Künstlicher Intelligenz, NJW 2020, 2142 ff., 2142.
  99. 99 Weissbuch KI 2020 (Fn. 3), 19.
  100. 100 Weissbuch KI 2020 (Fn. 3), 19; Wildhaber (Fn. 4), 44.
  101. 101 Buiten (Fn. 97), 1 ff.; Buiten/De Streel/Peitz (Fn. 9), 11; Dötsch (Fn. 57), 363; Lohmann (Fn. 11), 152 ff.; Wildhaber (Fn. 4), 44; ähnlich auch Bericht IDAG KI 2019 (Fn. 2), 34 (rechtliche Implikationen müssen sich aus dem konkreten Anwendungsfall ableiten); EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung 15, Anlage B Erwägung 13. Aus diesem Grund sieht das Weissbuch KI 2020 (Fn. 3), 20 f., zwei Kriterien vor, damit eine KI-Anwendung als hochriskant gilt: riskanter Sektor und riskanter Einsatz.
  102. 102 Lohmann (Fn. 11), 152 ff.; vgl. ähnlich EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung L («Erwägung, dass die Bemühungen um die Ermittlung einer einzelnen Lösung, die für das gesamte Risikospektrum geeignet ist, durch die Vielfalt der KI-Systeme und die vielfältigen Risiken, die die Technologie mit sich bringt, erschwert werden»).
  103. 103 Hacker (Fn. 98), 2143.
  104. 104 Buiten/De Streel/Peitz (Fn. 9), 45; Wildhaber (Fn. 4), 45.
  105. 105 Rey/Wildhaber (Fn. 54), N 1512 ff.
  106. 106 Wagner (Fn. 59), 564.
  107. 107 Wagner (Fn. 31), 133; Buiten/de Streel/Peitz (Fn. 84), 9.
  108. 108 So auch Wagner (Fn. 31), 133.
  109. 109 Wildhaber (Fn. 4), 45; Buiten (Fn. 97), 1 ff.
  110. 110 So auch Zech (Fn. 3), A 99.
  111. 111 Norina Frey, The New Artificial Intelligence Liability Directive – Meaning and Significance for the Current Legal Artificial Intelligence Operator Liability Framework in Switzerland and Ways Forward for Switzerland, Master-Arbeit an der Universität St. Gallen 2023, unpubliziert, 28 ff. (sie identifiziert als Kriterien: operator benefit, legal interests/assets at risk, autonomy/degree of operator control, public exposure of AI, degree of AI interaction with other technology, interaction of AI with physical dimension, professional users vs. non-professional users, another law/contract already protects the infringed upon rights).
  112. 112 Frey (Fn. 111), 34 ff.
  113. 113 Wildhaber (Fn. 4), 46.
  114. 114 Wildhaber, Diss. (Fn. 1), 386 ff.
  115. 115 Vgl. EP Entschliessung KI-Haftung 2020 (Fn. 10), Text Erwägung J («Erwägung, dass gerechte Entschädigungsverfahren bedeuten, dass jede Person, die einen von einem KI-System verursachten Personenschaden erleidet oder deren Sachschaden von einem KI-System verursacht wurde, den gleichen Schutzgrad erhalten muss wie in Fällen ohne Beteiligung eines KI-Systems»).
  116. 116 Kommissionsbericht KI 2020 (Fn. 2), 15.
  117. 117 Expert Group Report 2019 (Fn. 2), 35; so im Ergebnis auch Richtlinie KI-Haftung 2022 (Fn. 3), 2; Bericht der Enquete-Kommission Künstliche Intelligenz vom 28. Oktober 2020, BT-Drs. 19/23700, S. 64.
  118. 118 Ebenso Reusch (Fn. 49), 152; Bomhard/Siglmüller (Fn. 64), 507.
  119. 119 Ebenso Koch/Pichonnaz (Fn. 55), 637.