Jusletter IT

Künstliche Intelligenz und haftungsrechtliche Konsequenzen

  • Author: Nicolai Bleskie
  • Category: Articles
  • Region: Switzerland
  • Field of law: AI & Law
  • Citation: Nicolai Bleskie, Künstliche Intelligenz und haftungsrechtliche Konsequenzen, in: Jusletter IT 24 May 2018
Artificial Intelligence as a technical phenomenon at the beginning of its development potential does indeed still appear surreal. However, being widespread already, it is becoming increasingly significant. From a legal point of view, that leads to considerable problems. This is due to the lack of foreseeability, controllability and difficult addressability – core elements which normally enable exposure to liability. The author analyses the capability to integrate this innovative appearance into the current legal structure and proposes future-oriented solutions.

Inhaltsverzeichnis

  • 1. Was ist «künstliche Intelligenz»?
  • 1.1. Künstliche Intelligenz – und die Juristerei?
  • 1.2. Künstliche Intelligenz – ein Definitionsversuch
  • 2. Risiken beim Einsatz künstlicher Intelligenz
  • 2.1. Risikosphären
  • 2.2. Erkennen von Risiken
  • 2.3. Überwindung von Ängsten
  • 3. Haftung bei künstlicher Intelligenz: Status Quo
  • 3.1. Ausländisches Recht und künstliche Intelligenz
  • 3.2. Konsequenzen künstlicher Intelligenz im Gehäuse der Körperlichkeit
  • 3.3. Künstliche Intelligenz und die Schwierigkeit der Zurechnung
  • 3.4. Gefährdungshaftung und die Art. 55 und 101 OR
  • 3.5. Art. 55 und 101 OR und künstliche Intelligenz: Lösungs- und Problemmacher
  • 3.6. Künstliche Intelligenz, Juristische Person und e-Person
  • 4. Ausblick und Praxisempfehlungen

1.

Was ist «künstliche Intelligenz»? ^

1.1.

Künstliche Intelligenz – und die Juristerei? ^

[1]

Die Übergänge von Realität und Virtualität erscheinen angesichts der digitalen Revolution im Umfeld einer sich stets im Wandel befindlichen globalisierten Welt schwierig greifbar. Entsprechend fliessend sind die verschiedenen Definitionsvariationen künstlicher Intelligenz. Diese stellt nach wie vor einen bedeutenden, umstrittenen und nicht restlos geklärten Untersuchungsgegenstand der Forschung dar. Dabei besteht keine eindeutige Zweiteilung bei der intendierten Annäherung von Mensch und Technik bzw. von Körperlichkeit und Körperlosigkeit, was auch mit der beschwerlichen Definitionsfindung zu tun hat. Gleichzeitig ist es die Kernkompetenz der technologischen Forschung, innovativ und kreativ zu sein und modernste Errungenschaften wie künstliche Intelligenz zu ermöglichen und das Wirtschaftssystem und die Vertragsgestaltung inklusive Leistungserbringung und Vertragserfüllung zu beflügeln. Die Juristin und der Jurist können und müssen diesem Fluge folgen, sollten jedoch ihre Aufgaben parallel zu den eingeschlagenen Luftreisen und Zeitsprüngen gestalten und das Zepter nicht völlig aus der Hand geben, sondern als Lotse fungieren, sobald Probleme oder Risiken auftauchen. Korrekte und nachhaltige Juristerei bedingt es zu verstehen, mit welcher vom Recht zu regelnden Materie es die Rechtsanwenderinnen zu tun haben. Wer oder was eine vertragliche Leistung erfüllt, hängt auch mit der Definition menschlicher wie künstlicher Intelligenz zusammen. Um eine rechtliche Eruierung samt der Findung tragender Konsequenzen vornehmen zu können, sind die Formen von Mensch, Maschine und künstlicher Intelligenz voneinander abzugrenzen: Erst auf einer solchen Basis können Rückschlüsse auf Delikts-, Geschäfts-, Handlungs- und Rechtsfähigkeit im Hinblick auf haftungsrechtliche Folgen – Trägersäulen der Juristerei – erlangt werden. Mitunter sind die Übergänge fliessend.1

1.2.

Künstliche Intelligenz – ein Definitionsversuch ^

[2]

Eine Definition künstlicher Intelligenz ist aus rechtlicher Perspektive nebst einem generellen (technischen) Verständnis der in Frage stehenden Materie deshalb von Bedeutung, weil die Problematik der Haftung direkt daran anknüpft. Das Einstehenmüssen hängt ab von Eigenschaften wie Handlungsmacht, Verantwortungs- bzw. Zurechnungsfähigkeit und verlangt die z.T. suggerierte Befähigung, Erfolge voraussehen zu können, wobei zukunftsbezogene Erkennbarkeit gerade bei komplexen Systemen herausfordernd ist.2 Das Vermögen der eigenen Kontrollierbarkeit ist insbesondere für eine präzise haftungsrechtliche Abgrenzung allfälliger Aufsichtspflichten und/oder Delegationsmöglichkeiten von Belang.3

[3]

Da sich die künstliche Intelligenz in einem sich wandelnden Entwicklungsstadium und zurzeit einer noch nicht ausgereiften Anwendungsverbreitung befindet, gestaltet sich eine praxisnahe Definition aber schwierig.4 Der Wunsch nach Delegation menschlicher Arbeit an Maschinen äussert sich primär dadurch, dass durch die Maschinen menschliche Handlungen assimiliert werden können. Die reine Assimilation stellt noch keine künstliche Intelligenz dar, sondern einen technologischen Zwischenschritt von Mensch, Maschine und künstlicher Intelligenz.5 Die nächste Stufe wäre es, der Maschine menschliche Intelligenz aneignen zu können, wobei die höchste Ebene dann die künstliche Intelligenz im erweiterten Sinne darstellt, die gar über die menschliche Intelligenz hinausgeht.6

[4]

Eine begriffliche Unterscheidung, die zugleich unterschiedliche Intelligenzgrade und Ausreifungsstadien beschreibt, stellt starke bzw. schwache künstliche Intelligenz dar: Bei der starken Intelligenz liegt ein eigentliches Quasi-Mensch-Sein mit eigener Integrität vor, während bei der schwachen intelligente Unterstützung des Menschen im Vordergrund steht, das der Sachlage gegenwärtig am nächsten kommt.7 Bereits dieses Niveau des Smart-Seins im Rahmen künstlicher Intelligenz, entsprechend weiter zu erwartenden Entwicklungsstufen, reicht zur Schaffung (haftungs-)rechtlicher Probleme aus.8

[5]

Einige Eigenheiten sind erforderlich, um von künstlicher Intelligenz ausgehen zu können: Eigenaktivität bzw. Eigenständigkeit, Kreativitäts- und Anpassungsoption, Selbstwahrnehmung und soziale Interaktionsfähigkeit.9 Im definitionsbezogenen Fokus stehen dabei technisches Zusammenspielen von Komplexität bei gleichzeitiger Präzision und Autonomie bzw. problem- und umweltbezogene Adaptionsfähigkeiten.10 Insbesondere in Relation zur Teilnahmefähigkeit am Rechtsverkehr als Rechtssubjekt erscheinen Wahrnehmungsfähigkeit, Sprachvermögen, Intentionalität gegenüber sich selbst und anderen sowie normativ-moralische Auffassungsgabe essenziell.11

[6]

Bei Abgabe des Stempels der «Intelligenz» ist eine gewisse Zurückhaltung gefordert, da erst die Kombination der verschiedenen Definitionselemente ein intelligentes System ausmacht.12 Nicht unter das Kriterium der Selbstständigkeit fallen durch den Menschen vorgenommene Softwareupdates, da dies lediglich einen fremdgesteuerten erweiterten oder verbesserten Automatisierungsprozess ermöglicht, nicht aber die eigene Fähigkeit beinhaltet, sich anpassen zu können.13 Diese Selbständigkeit kann die Gefahr in sich bergen, potentielle Vertragspartner oder Anwender zu manipulieren sowie die Vorhersehbarkeit deutlich zu erschweren.14 Nicht nur die Definitionen und Funktionen künstlicher Intelligenz sind verschachtelt, sondern auch die Entwicklungsetappen eines Systems. Dabei nehmen die beschriebenen Definitionselemente stets zu, sie fangen bei Texterkennung und Datenverarbeitung an und vervollständigen sich letztlich durch das eigentliche machine learning.15

[7]

Negativ fehlt, insbesondere zur Abgrenzung von Automaten und technisierten Maschinen, allgemein die vollständig von Menschenhand konstruierte Determination.16 Mehrheitlich unbestritten ist, dass selbst bei gegebenen Eigenschaften künstlicher Intelligenz nicht eo ipso eine rechtliche Gleichstellung zum Menschen oder gar «einem Lebewesen in biologischem Sinn»17 erfolgt.18 Der Mensch behält auch bei gegebener künstlicher Intelligenz die Sonderstellung gegenüber assimilierten Quasimenschen.19

[8]

Umstritten bleiben dabei die konkrete Vergleichbarkeit menschlicher und künstlicher Intelligenz sowie die Notwendigkeit, nur einzelfallspezifisch und nicht in einer pauschalen Gesamtheit zu definieren und abzugrenzen.20 So variiert je nach Ansicht der Technik-Software bezogene Definitionsgehalt gegenüber menschlichen Querbezügen, insbesondere zur menschlichen Intelligenz, oder die Elemente der Begrifflichkeiten greifen ineinander über oder schliessen sich gegenseitig aus.21 Diese Differenzen haben auch damit zu tun, dass menschliches Handeln bzw. Intelligenz nicht durchgehend strenger Logik i.S.v. Software und/oder Algorithmen folgt.22 Menschliches Denken samt Reflexionsfähigkeit hängt auch mit Emotionalität, Lebenserfahrung, dem Lernen aus Fehlern schlechthin und dem Erleben durch sich selbst als selbstwahrgenommenes, körperliches Individuum zusammen.23 Es ist fraglich, ob das die Lernfähigkeit, die der künstlichen Intelligenz innewohnt, zu ersetzen vermag und ob Körperlichkeit damit als zwingendes Definitionselement anzusehen ist.24 Das Erfordernis von Körperlichkeit, weiter unterscheidbar in Mobilität und Immobilität, ist nicht gänzlich unbestritten, da diese zumal prima facie Ausdruck manueller und nicht intellektueller Tätigkeiten ist.25 Haftungsrechtliche Auswirkungen können sich bei Körpern insoweit ergeben, als dass nicht nur materielle, sondern auch physische Schäden möglich sind.26

[9]

Im Unterschied zu nur automatisierten Prozessen, selbst wenn eine gewisse Komplexität gegeben ist, erfolgend durch Maschinen bzw. Automaten, vermögen autonome intelligente Systeme über gesetzte Regeln und Algorithmen hinaus zu gehen, agieren also definitionsspezifisch autonom.27 Allfällige Fehlerquellen werden i.d.R. aber in der programmierten Logik der Software und Algorithmik ihren Ursprung haben.28 Ein Indiz gegen künstliche Intelligenz kann die Fähigkeits- bzw. Aufgabenverschiebung zugunsten oder zulasten des Menschen sein, das Gelieferte auch selbst begründen zu können. Die Begründungsfähigkeit eigener Handlungen oder Entschlüsse ist zudem ein pointierter Ausdruck von Intelligenz.29 Weiterer Anhaltspunkt fehlender künstlicher Intelligenz ist es, wenn das System nur auf Befehl des Menschen tätig wird bzw. auf die Kontrolle des menschlichen Anwenders angewiesen ist.30 Im Privatrechtsverkehr ist es von entscheidender Bedeutung, dass abgegebene Willenserklärungen zu Vertragsschluss und Vertragsinhalt im Hinblick auf die zu erbringende Erfüllung des Vertrags, auf entsprechendem (menschlichem) Willen basieren.31 Hochmoderne, komplexe technische Geräte erfüllen diese Anforderungen des Öfteren nicht, da nicht mechanische, sondern mentale Fähigkeiten gefordert sind («cogito ergo sum»32).33 Monotone, repetitive und ohne Reflexion und Konnexion erfolgende Tätigkeiten erreichen diese Ebene regelmässig nicht, was wiederum zur Abgrenzung von schlichter Maschine und künstlicher Intelligenz dienlich sein kann.34 Die blosse Kopie menschlicher Handlungen ist deutlich einfacher kontrollierbar und die Vorhersehbarkeit klarer und grösser. Der Durchbruch aus technischer Sicht ist es gerade, dass Selbständigkeit und Eigenaktivität bestehen und es sich somit nicht nur um eine blosse Assimilierung an gewisse isolierte menschliche Fähigkeiten handelt. Rechtlich wirft dies a priori bei Delikts-, Geschäfts-, Handlungs- und Rechtsfähigkeit grosse Fragezeichen auf. Risiken finden sich nicht nur auf rechtlich-institutionalisierter Ebene in puncto Adressierbarkeit, sondern auch bei den konkreten Anwendungsgefahren. Freilich sind auch hier Überschneidungen erkennbar, denn allfällige Risiken bei der Verwendung technischer Mittel haben einen engen Konnex zu möglichen rechtlichen Konsequenzen.

2.

Risiken beim Einsatz künstlicher Intelligenz ^

2.1.

Risikosphären ^

[10]

Auswüchse oder Umbrüche in Richtung künstlicher Intelligenz, auch in Form sog. humanoider Roboter, finden sich als Leistungsbestandteil des Kauf- und Dienstleistungsvertrages autonomer Privatfahrzeuge und Drohnen oder Transportmittel, sowie intelligenter Roboter im Haushalt und Garten und bei Arbeits- und Industrieprozessen, im Dienstleistungsvertrag im Bereich des Caterings bei entsprechendem Einsatz von (Service-)Robotern, Roboter in Form von Museumsführern und Lehrern, im Auftragsrecht in Form von Legal Technology, Robo-Advice im Bereich der Anlageberatung und Vermögensberatung, Pflege- oder Operationsrobotern, intelligente Software als oder zur Leistungserbringung, sowie unternehmensintern beim Einsatz künstlicher Intelligenz zur Vornahme entsprechender Bestellungen, Wartungsanzeigen und Überprüfung des Waren- bzw. Lagerbestandes bzw. der Vornahme des Due Diligence und Compliance oder im Bereich der Börsen die durch künstliche Intelligenz bewirkten Handelsaufträge, wobei diese lange Liste keineswegs abschliessend ist.35

[11]

Nicht endgültig bestimmbar sind auch die Risikosphären, was angesichts der vielfältigen Einsatzgebiete anschaulich einleuchtet. Wie die Definitionsversuche künstlicher Intelligenz gezeigt haben, bildet die Weiterentwicklungsfähigkeit ein zentrales Charakteristikum derselben. Dieses Phänomen des «learning by doing» hat jedoch einen erheblichen Einfluss auf Risikoabwägungen bzgl. des Einsatzes künstlicher Intelligenz: Die Hersteller wollen die Begehung eigener Fehler i.d.R. nicht dem Anwender bzw. Erwerber überlassen, da dann eine unkontrollierbare Flut haftungsrechtlicher Klagen zu befürchten wäre, eben weil Fehlleistungen vorliegen.36 Zwar sind Verantwortungsabgaben i.S. von Warnungen, Haftungsausschlüssen u.Ä. denkbar, doch wird es im Interesse sowohl von Hersteller wie Anwender sein, die Grenzen des in den Wirtschaftsverkehr in seiner Gesamtheit im öffentlichen wie privaten Raum geführten Systems zu kennen.37 Entsprechend werden diese Konstrukte meist erst in den Markt gebracht, wenn sie diese learning by doing-Phase in kontrollierten und eingegrenzten Räumlichkeiten des Herstellers hinter sich haben.38 Doch ist dieses Eingrenzungskriterium nur von begrenzter Sinnhaftigkeit, da es an stringenten Abgrenzungsoptionen mangelt, nicht nur den genauen Zeitpunkt dieser Schnittstelle oder Marktreife eruieren zu können, sondern auch an der Begrenzung des learnings by doings schlechthin, gerade weil dies eine zentrale Eigenheit künstlicher Intelligenz ist.39

[12]

Ein Risiko quantitativer Herkunft ist die Intensität der Verbreitung risikobehafteter Materie, wie der künstlichen Intelligenz. Eine Bezifferung der genauen Verbreitung samt der Frequenz ihres Einsatzes lässt sich zwar nicht treffsicher zutage fördern, doch ist deren Zunahme bereits jetzt gegeben und weiter anzunehmen, sodass die Umwandlung von futuristisch anmutendem Modewort hin zu verbreiteter Gebräuchlichkeit nur eine Frage der Zeit ist.40 Die Risiken nehmen aber mit grösserer Ausdehnung und Verbreitung der Einsatzbereiche zu, da bei abnehmender Kontrollierbarkeit die Zahl der potentiellen Geschädigten steigt, vordergründig dann, wenn ein Produkt Eingang in den freien Markt des Privatrechtsverkehrs findet.41 Bei Bewertung der Vorsichtsmassnahmen in Bezug auf die moderne Materie künstlicher Intelligenz stehen jedoch nicht nur klassische Sorgfaltspflichten im Fokus, sondern auch das objektiv sorgsame Handeln nach dem Stand von Wissenschaft und Technik, ein Element im Rahmen des Entgehens haftungsrechtlicher Konsequenzen durch entsprechende Exkulpation.42 Diesen Stand zu eruieren ist wiederum einfacher, wenn eine gewisse Verbreitung des infrage stehenden Systems überhaupt vorhanden ist, da es sich um einen auslegungsbedürftigen unbestimmten Rechtsbegriff handelt.43 Die Risikosphären überlappen sich somit in qualitativer wie quantitativer Hinsicht.

2.2.

Erkennen von Risiken ^

[13]

Das learning by doing mit dem enthaltenen Zyklus von Fehler und Verbesserung hat unter dem Oberbegriff der Fehlerhaftigkeit einen engen Konnex zur Sicherheit.44 Umso wichtiger ist dabei die Transparentmachung des Einsatzes künstlicher Intelligenz als adressierbare Entität, um die Basis allfälliger Fehlerquellen schnellstmöglich finden zu können, an welche die Relation zur Haftungskonsequenz direkt anknüpfen kann, wie z.B. die vertragliche Haftungsbefreiung nach Art. 101 Abs. 2 des Obligationenrechts (OR). Auch die intersubjektive Wechselwirkung wird dadurch verständlicher und kann Inkorrektheiten vorbeugen.45 Die Erkenntnis typischer Risiken ermöglicht auch eine Kategorisierung derselben, welche die korrekte Anwendbarkeit und vereinfachte Reaktionsfähigkeit im Interesse der Vermeidung und Behebung von Problemen steigert.46 Dabei ist es ebenfalls von Vorteil, wenn das System dem Anwender konkret aufzeigt, was es gerade tut und weshalb, oder dies zumindest bei Bedarf überprüft werden kann.47 Die Schematisierung der Intensität und Grenzen künstlicher Intelligenz macht folglich ebenfalls Sinn, um einerseits das Bewusstsein des Anwenders zu stärken und andererseits die konkrete Zurechenbarkeit durchschaubarer ermitteln zu können.48 Dafür ist die Deklaration, zur gesteigerten Erkennbarkeit und dadurch der transparenten Schaffung einer adressierbaren Entität, aus haftungsrechtlicher Sicht von Vorteil.49

[14]

Bedienen sich die Vertragsparteien solcher Technologien, auch um überhaupt erst einen Vertragsschluss vorzunehmen, sind sie gut beraten, dies auf vertraglicher Ebene detailliert zu regeln.50 In der Stufe des Eingehens vertraglicher Verpflichtungen liegt eine Schwerpunktverlagerung bzgl. der Risikoabwägung vor: Beim Ansuchen der Haftungsverantwortung ist weniger die Gefahr der Technologie von Interesse, sondern vielmehr die Fähigkeit, durch den entsprechenden Einsatz gültig einen Vertrag schliessen zu können.51 Die Hemmschwelle und damit eingrenzende Wirkung auf die Anwendung künstlicher Intelligenz, sich in potentiellen Einsatzgebieten der künstlichen Intelligenz bereits beim Vertragsschluss zu bedienen, rührt ebenfalls von einem Risiko ganz eigener Art her: der Unklarheit der Rechtslage. Gebotene Umsicht ist entsprechend beim Einsatz künstlicher Intelligenz als eigentliche Hilfsperson bei der Vertragserfüllung vorteilhaft, zumal die Grenzziehung der Verantwortungsbereiche von künstlicher Intelligenz und dem Menschen, die sich zurzeit noch häufig überlagern, schwierig ist, und die eindeutige Zurechnung erschweren.52

[15]

Eng verbunden mit der Transparentmachung künstlicher Intelligenz ist die Abgrenzung zum Menschen. Nebst der Gesamtschau der sich überlappenden technischen Entwicklungen von klassischem Menschsein und traditioneller Maschine i.S. der Maschinierung des Menschen einerseits und Vermenschlichung der Maschine andererseits, sticht das Bestreben hervor, durch künstliche Intelligenz menschliche Verhaltenseigenheiten und Verrichtungen zu übernehmen sowie eine Wandlung hin zu maschinellem Denken erzielen zu können.53 Eine Erkennbarkeit menschlicher oder maschineller Zuordnung samt aller damit verbundenen Risiken allein durch Betrachtung aus der Vogelperspektive ist nicht ohne weiteres möglich, was hingegen nicht in eine generelle Verneinung der vermeintlich offensichtlichen Abgrenzungsfähigkeit von Mensch und Maschine schlechthin mündet.54 Vielmehr geht es aufgrund der Eigenheit der Arbeitsteilung und Kooperation von Mensch und Maschine oftmals nicht um einen Entweder-oder-Schluss, sondern um die klare Eruierung der Verantwortung in ihre Einzelstücke.55 Die Verästelung von Arbeitsabläufen und Verantwortungsbereichen muss einer jeweiligen Autonomieprüfung unterworfen werden, um die Haftbarkeit von Mensch und/oder Maschine feststellen zu können.56 Zurzeit sind i.d.R. noch Überschneidungen der zu erfüllenden Leistung mit Handlungen und Kontrollen des Menschen gegeben, doch kann die künstliche Intelligenz bereits bei diesen erfassten Teilbereichen rechtliche Unsicherheiten aufweisen, insbesondere wegen der sozialen Komponente sowie hinsichtlich haftungsrechtlicher Konsequenzen ungewollter Vertragsentstehungen und Fehlleistungen.57

[16]

Die Verbindung menschlicher und künstlicher Intelligenz als eigentliche Handlungseinheit ist herausfordernd, da Graubereiche entstehen, deren rechtliche Würdigung sich schwierig gestaltet.58

[17]

Abgrenzungen sind nicht nur bei der Eruierung des Sachverhalts im Sinne der Adressierung klarer Arbeitsteilung von Mensch und Maschine von Bedeutung, sondern genauso für deren rechtliche Würdigung in ihrer Gesamtheit. Dabei finden sich schwierige Graubereiche nicht nur bzgl. des OR AT, sondern z.B. auch bei Art. 2 Abs. 1 des Urheberrechtsgesetzes (URG), das wiederum den engen Konnex zu den Definitionen menschlicher und künstlicher Intelligenz aufzeigt: «geistige Schöpfungen» werden unter Schutz gestellt. Das Europäisches Parlament fordert «die Ausarbeitung von Kriterien für eine ‹eigene geistige Schöpfung› für urheberrechtlich schutzfähige Werke, die von Computern oder Robotern erzeugt werden» und stellt warnend fest: «der unzureichende derzeitige Rechtsrahmen [...] gibt aufgrund des (voraussichtlich massiven) Datenstroms, der sich aus der Nutzung von Robotik und KI ergibt, Anlass zu grosser Sorge».59

[18]

Die Bejahung eines Einsatzes künstlicher Intelligenz im konkreten Falle bei der Vertragserfüllung hat haftungsrechtliche Konsequenzen, wobei im Gegensatz zu unselbständigen Systemen die bestehenden zivilrechtlichen Regelungen nicht eo ipso Anwendung finden können.60 Dabei hat das Risiko des Rechts selbst, seine Funktion der Sicherheit in keiner Weise zu gewähren, eine nicht zu unterschätzende Auswirkung für den Privatrechtsverkehr und die Wirtschaft generell.61 Die Bandbreite an möglichen Einsatzgebieten führt zu unterschiedlichen rechtlich-vertraglichen Umgebungen und untermalt die Stosskraft des Rechts, Vertrauen und Zuspruch zu garantieren.62 Die vielfältigen Anwendungsbereiche künstlicher Intelligenz machen die Aufhellung rechtlicher Risiken nicht einfacher. Die rechtliche Kraft kann über die inter partes Wirkung im Vertrag hinausgehen, weil insbesondere dann, wenn vom Produkt Gefahren ausgehen, das öffentliche Recht eingreift, da eine nur privatrechtliche und an Eigenverantwortung appellierende Handhabung an Grenzen stösst.63 Anwender der Technologie künstlicher Intelligenz müssen nach dem Stand von Wissenschaft und Technik agieren sowie gewisse Schutzmassnahmen i.S. der Prävention und Beherrschung von Risiken treffen, was einen Balanceakt darstellt, denn gewisse Gefahren oder Defizite können verborgen sein.64 Umso wichtiger ist dann die Produktbeobachtung von Seiten des Herstellers, obwohl bereits umstritten ist, ob die der künstlichen Intelligenz in sich fassenden Software überhaupt ein Produkt darstellen kann.65 Dabei geht es nicht um die restlose Beseitigung sämtlicher potentieller Risiken.66 Zu dem Pendel des vertretbaren Ausgleichs gehört als Ausfluss auch die verbraucherübliche Sorgfalt des Anwenders selbst, wobei bezweifelt werden kann, ob dies dem Laien in Bezug auf künstliche Intelligenz möglich ist und damit entsprechende Hinweise für die korrekte Verwendung vonnöten sind.67 Dies geht erneut einher mit der durchwirkten und mit Mühe verbundenen Differentiation menschlicher und maschineller Zuständigkeitsbereiche.68

2.3.

Überwindung von Ängsten ^

[19]

Nicht nur formell birgt eine völlige Entmenschlichung vertraglicher Handlungen hinsichtlich der Teilnahmemöglichkeit autonomer Systeme im Rechtsverkehr Probleme – tun sie es doch zumindest faktisch z.T. ohnehin schon – sondern auch wenn es um materiell-rechtliche Aspekte wie Vertrauen, Glaubwürdigkeit, Zusicherungsfähigkeit, Urteilsvermögen oder Willensbildung geht.69 Dabei sind einzelfallbezogenes Vertrauen und dazugehörige Glaubwürdigkeit auf das konkret verwendete intelligente System gleichermassen von Bedeutung wie gesamtgesellschaftliches Zutrauen in breite Einsatzbereiche der neuen Technologie, die im Umkehrschluss zu einem grösseren Verständnis gegenüber der hilfsweisen Verwendung im speziellen Vertrag führen würde.70 Dabei gehen die Ängste gegenüber neuen Technologien und die dadurch bewirkte Verlagerung gesellschaftlicher, wirtschaftlicher und arbeitstechnischer Schwerpunkte in Form eigentlicher «Transformationen von Geschäftsfeldern»71 einher mit den Ängsten wirtschaftlicher Existenz: Insbesondere in Bereichen, in der nicht nur objektiv, sondern auch subjektiv davon ausgegangen wird, dass eine Errungenschaft wie die künstliche Intelligenz noch am Anfang steht, sind Risiken rein sachlich zu erwarten und aus persönlicher Sicht zu befürchten.72 Diese Ängste gilt es durch Transparentmachung und Aufklärung seitens Hersteller wie Staat zu überwinden, ohne dabei die Risiken in allen Ebenen zu vernachlässigen oder unter Fehlen jeglicher Sorgsamkeit in undifferenzierten Enthusiasmus zu verfallen.73 Nur dadurch wird auch sichergestellt, dass v.a. Unternehmen aktuellste Entwicklungen bewusst und sachgerecht in ihre für den Erhalt des Betriebes tragende Planung integrieren sowie ihre zu erbringende Leistungsfähigkeit erweitern können.74 Die Normalisierung der Verwendung künstlicher Intelligenz, unterlegt durch das Ansehen des öffentlichen Rechts, würde auch deren Verbreitung und Ansehen der breiteren Öffentlichkeit, inklusive dem Verständnis gegenüber dem Beziehen von Hilfspersonen in Form künstlicher Intelligenz bei der Vertragserfüllung im Privatrechtsverkehr, behilflich sein. Ein Bestandteil bei der Aufteilung von Kompetenzen, i.S. der Arbeitsteilung, kann dabei der direkte Kundenkontakt mittels künstlicher Intelligenz darstellen.75 Die Transparenz ist dabei wichtiger Garant zur Vertrauensschaffung gegenüber dem Einsatz künstlicher Intelligenz, sowohl allgemeiner Natur als auch im konkreten Vertrag.

[20]

Zieht der Leistungserbringer Hilfspersonen künstlicher Art bei, so besteht das Risiko, dass das System fehlerhaft zum Nachteil des Vertragspartners agiert. Dies kann an nicht ausreichend ausgeklügelter Softwareprogrammierung liegen, in der falschen oder unsorgfältigen Anwendung von Seiten des Benutzers, ein Ausfluss des learning by doing durch den Kreislauf von Fehlerbegehung und Korrektur oder in extremis an der Weiterentwicklung des Programms selbst liegen, das seinen Aufgabenbereich selbstständig ohne Führung, Wissen und Wollen des Geschäftsherrn erweitert.76 Doch bereits bei der Kennzeichnung von Intelligenz selbst, insbesondere in Abgrenzung zu nicht autonom agierenden schlichten Maschinen ohne künstliche Intelligenz, liegt eine Risikoquelle besonders nahe, welche im Bereich des Privatrechtsverkehrs nur zu oft in Erscheinung tritt und menschlich ist: das Missverständnis. Ein nicht intelligentes System kann zwar genauso fehlerhaft agieren und dadurch zu Nachteilen für Vertragspartner führen, doch wird es sich dabei um mechanische und nicht um mentale Beeinträchtigungen oder Fehlschlüsse kognitiver Natur handeln.77 Vor allen Dingen die Fertigkeit des Systems, lernen und differenzieren zu können, führt zu einem Ermessensspielraum in den eigenen Handlungen und ist damit risikoanfällig. Problembehaftet wird es vordergründig dann, wenn es um die Abwägung von ohnehin eintretenden fehlerhaften Szenarien zum Nachteil des Vertragspartners geht, das System sich also für das «geringste Übel» entscheiden muss.78 Soll das autonome System z.B. in Form von selbständiger Überprüfung der Verfügbarkeit eines Produkts bei Nichtvorhandensein nur intern bestellen, mit entsprechender Wartezeit für den Vertragspartner, oder das im Lager vorhandene Produkt minderer Qualität oder anderer Farbe, z.B. Autolack, bereitstellen und anwenden? Freilich wird zurzeit noch der Mensch korrigierend eingreifen bzw. den Kontakt zum Vertragspartner herstellen, doch könnte bei Fortführung des Beispiels das intelligente System Verständigungen gleich selber übernehmen. Es könnte den Vertragspartner auch schlicht falsch verstehen und ein Ergebnis bewirken, welches nur umständlich rückgängig zu machen wäre, z.B. die falsche Farbe der Lackierung. Es besteht also bei intelligenten Systemen nicht nur die Gefahr von Fehlern im klassischen Sinne oder Schäden physischer wie finanzieller Art, sondern auch eigentlicher Irrtümer. Die Transparentmachung dieser Abwägung ist nicht nur für den Verwender von entscheidender Bedeutung, sondern auch für die Feststellung der Kausalkette. Zwar sind diese Problemquellen nicht neuartig, umfassend auch die allgemeine Transparentmachung menschlicher Leistungen den Kunden gegenüber, und das OR AT bietet Antworten darauf. Doch sind sie deshalb ungewohnt, weil der Ursprung dieser bekannten Herausforderung nicht direkt vom Menschen selber, sondern von einem intelligenten System herrührt. Die Feststellung aber, dass die Konsequenzen allfälliger Fehlfunktionen künstlicher Intelligenz faktisch nicht entscheidend anders sind, als wenn Menschen agieren, kann ebenfalls helfen, Ängste zu überwinden.

[21]

Die Vielschichtigkeit der Einsatzbereiche künstlicher Intelligenz inklusive der ersten Phase des Vertragsschlusses bei gleichzeitig gegebener Verflechtung menschlicher Verantwortungsbereiche und den Systemen künstlicher Intelligenz gleichen dem Konstrukt der Arbeitsteilung.79 Dies verleiht der näheren Analyse prima facie der normativ anerkannten und die Aufteilung von Pflichten ermöglichenden Art. 55 (Haftung des Geschäftsherrn) und 101 OR (Haftung für Hilfspersonen) Nachdruck. Zwar besteht keine gesetzliche Pflicht den Beizug eines Gehilfen offenzulegen.80 Doch würde damit dem Irrtum begegnet, den Vertragspartner inklusive seinen Hilfspersonen als Menschen zu registrieren, was im Umkehrschluss auch die analoge Anwendung der Art. 55 und 101 OR nahelegt: Insbesondere bei fehlender Transparentmachung geht eine Partei ohnehin davon aus, sie habe es mit menschlichen Leistungsgehilfen zu tun.81 Die Transparentmachung würde zudem dazu beitragen, Ängste in seiner ganzen Breite zu minimieren. Verantwortungsbereiche lassen sich bei gewollter Eigendynamik ebenfalls nur undeutlich abgrenzen oder werden gar bewusst übertragen, da die Effizienz und Leistungsfähigkeiten eines Systems diejenigen des Menschen übertreffen können.82 Hierbei besteht die Gefahr, dass der Mensch blind auf scheinbare Überlegenheit vertraut und angezeigte Kontrollen vernachlässigt, was in einen eigentlichen Kontrollverlust münden kann.83 Fehlerquellen können vielartig sein, auch bei gegebener künstlicher Intelligenz schädigt das System nicht zwingend «willentlich», sondern es kann sich dabei schlicht um Soft-, Hardware- oder Systemfehler handeln.84 Diese zu eruieren gestaltet sich aber aufgrund der Komplexität des Systems oftmals schwierig, obwohl diese Risikoart bereits bekannt ist.85 Eine komplette Abkopplung menschlicher Verantwortung und Haftbarkeit scheitert auch an der durch Menschenhand vorgenommenen Programmierung der Algorithmen, die erst das Gefüge künstlicher Intelligenz ermöglicht.86 Der Einsatz künstlicher Intelligenz zur Leistungserbringung trägt somit Chancen wie Risiken in sich.87

3.

Haftung bei künstlicher Intelligenz: Status Quo ^

[22]

Der Blick ins Gesetz lässt v.a. bei rasanten technischen Entwicklungen direkte Antworten missen. Zwar sind sich die Juristin und der Jurist das Zusammensuchen, Auslegen und Verknüpfen von Gesetzesbestimmungen gewohnt. Analoge Anwendungen und das Schliessen von Lücken gehören schliesslich zum Jargon der Juristerei. Doch sind diese bei sich rasant ändernden und technisierten Prozessen besonders ausgeprägt, so auch die Haftungsproblematik bei künstlicher Intelligenz. Die Gründe dafür sind vielfältig und können in fehlender Vorhersehbarkeit technischer Entwicklungen und diesbezüglicher Probleme, nicht gegebenen Konsens bezogen auf (z.T. politisch brisantes) Neuartiges oder in der zu geringen Ausreifung oder Verbreitung der problembehafteten Materie liegen, was eine explizite Regelung überflüssig machen würde.88 Dies ist auch ein Ausfluss der Reibung des Gedeihen-Lassens von Innovation, Produktivität und Effektivität und der Einschränkung derselben aufgrund der damit verbundenen Risiken. Den rechtlichen und technologischen Komponenten tritt somit eine ökonomische Dimension hinzu.89 Wirtschaftlich kann es aber ebenfalls nachteilig sein, wenn der Gesetzgeber gewisse Bereiche gar nicht regelt, da sich das Fehlen von Rechtssicherheit und Vorhersehbarkeit auf die Investition und Anwendung neuer Technologien im Privatrechtsverkehr hemmend auswirken kann. In der Tat ist es so, dass die Regelungen dieser modernen Materie noch spärlich sind. Nicht nur, dass eine einheitliche Regelung fehlt, die der Übersicht abträglich ist, fällt auf.90 Ebenfalls bemerkenswert ist, dass der dogmatisch intensiv diskutierte Begriff des «Agenten» im technischen Sinne sich weder im OR noch im Zivilgesetzbuch (ZGB) findet.91 Die Ausschau nach möglichen Baustellen und Analogien in puncto künstlicher Intelligenz führt u.a. hin zu den Artikeln 32 ff., 41, 55, 58, 68, 101, 328b, 420, 562, 602, 707, 716, 731b, 809, 810 OR sowie den Artikeln 11, 12, 53, 83, 84, 333, 712l ZGB.92 Der Gemeinsamkeit aller Analogien liegt dabei die Idee des mutantis mutandis zugrunde. Bestimmungen ausserhalb des OR und ZGB stellen Art. 26 Abs. 1 der Verordnung 3 zum Arbeitsgesetz (ArGV3); Art. 4 des Datenschutzgesetzes (DSG); das Heilmittelgesetz (HMG); Art. 120 der Handelsregisterverordnung (HRegV); die Richtlinie 2006/42/EG (Maschinenrichtlinie); die Verordnung über elektrische Niederspannungserzeugnisse (NEV); Art. 1 des Produktehaftpflichtgesetzes (PrHG); Art. 1 des Produktesicherheitsgesetzes (PrSG); Art. 58 ff. des Strassenverkehrsgesetzes (SVG) sowie Art. 15 des Vorentwurfs zum DSG (VE DSG) dar.93 Die Aufzählung zeigt eindrücklich die potentielle Weitläufigkeit des Herds künstlicher Intelligenz.

[23]

Rechtsanwender können sich, dem Territorialitätsprinzip folgend, i.d.R. nicht direkt auf ausländisches Recht berufen, auch nicht in Form von Analogien. Doch kann der Beizug ausländischen Rechts, v.a. des deutschen und/oder europäischen Rechts («autonomer Nachvollzug europäischen Rechts») der argumentativen Untermalung einer gewählten nationalen Rechtsgrundlage dienen und die Rechtspraxis in ihrer Entscheidfindung beeinflussen.94 Künstliche Intelligenz und die Begründung der Haftung hat einen engen Zusammenhang zur Körperlichkeit und Zurechnung, welcher im Anschluss diskutiert wird. Der Zentrierung der Art. 55 und 101 im OR, als ein allgemeiner Leitstern des Privatrechts schlechthin, wird entsprechend Raum gegeben. Ein Ausweichen auf solch bekannte und bewährte Institute ist unabdingbar. Die Eigenheit der Zuhilfenahme und der Abnahme bzw. Übergabe konkreter Aufgaben zeichnet sowohl die künstliche Intelligenz selbst als auch die Motivation des Anwenders i.S. der Arbeitsteilung aus. Nicht nur konkrete Gesetzes- und Verordnungstexte, sondern auch allgemeinere Ebenen der Rechtssubjektqualität, juristischen Person und e-Person finden dabei Beachtung.

3.1.

Ausländisches Recht und künstliche Intelligenz ^

[24]

Da der Einsatz künstlicher Intelligenz in der global vernetzten Wirtschaft keine nationalen Grenzen kennt, wird i.S. einer Rechtsvergleichung punktuell an das die künstliche Intelligenz umgebende rechtliche Umfeld anderer Länder angeknüpft. Die technologische Revolution und die Globalisierung sind nicht nur gesellschaftlich-wirtschaftlich fragmentiert und charakterisiert, sondern auch das Recht bildet einen nicht unwesentlichen Bestandteil dieser Entwicklung. Ob das Recht der wegleitende Stern zur proaktiven Förderung gewünschter technologischer und gesellschaftlicher Prozesse auch i.S. eines social engineerings darstellt, sei dahingestellt. Jedenfalls muss es seiner Grundfunktion gerecht werden, Rechtsfrieden und Rechtssicherheit zu garantieren. Lösungsvorschläge legen auf diese das Hauptaugenmerk.

[25]

Bei der gefestigten Verbreitung der juristischen Person besteht länderübergreifend keine restlos einheitliche Ansicht in Bezug auf dieses Rechtsinstitut.95 Bezüglich des modernen, ohne Wurzeln schlagenden Phänomens der künstlichen Intelligenz sind somit statt klaren Antworten vielmehr Anregungen und Vergleiche zu erwarten. Als Pendants zu den Art. 55 und 101 OR können die § 278 und § 831 aus dem deutschen Bürgerlichen Gesetzbuch (BGB) gesehen werden. § 278 BGB regelt die Verantwortlichkeit des Schuldners für Dritte, deren er sich zur Erfüllung seiner Verbindlichkeit bedient, wobei er dies im gleichen Umfang zu vertreten hat wie sein eigenes Verschulden.96 § 831 BGB sieht vor, dass die Ersatzpflicht nicht greift, wenn der Geschäftsherr die im Verkehr erforderliche Sorgfalt geachtet hat bzw. ein Schaden auch bei Achtung derselben eingetreten wäre. Ist jener als Vertragspartner menschlich, steht dies einer Subsumption künstlicher Intelligenz, entgegen dem Wortlaut «Person» in beiden Artikeln, nicht zwingend im Wege: Die Tragung zurechenbarer menschlicher Verantwortung bliebe gewährleistet.97 Dabei ist das Fehlverhalten aus haftungsrechtlicher Sicht gerade nicht an der Hilfsperson selbst orientiert, sondern am Verfehlen des zuständigen Geschäftsherrn, die entsprechende Vertragsstörung nicht verhindert zu haben.98 Dadurch wird die Definition der Hilfsperson von untergeordneter Bedeutung und folglich wäre die Hilfsmaschine in Form künstlicher Intelligenz ebenfalls diesen Artikeln zugänglich, wobei aus umgekehrter Sicht die Exzeptionsoption und damit das Nachsehen des Geschädigten verbleibt.99 Diese Abspaltung gelingt meistenteils dann, wenn nicht im Rahmen der Verrichtung (vgl. Wortlaut § 831 BGB, «Verrichtungsgehilfe») der Vertragserfüllung geschädigt wurde, da dies dem Geschäftsherrn nicht zurechenbar ist.100 Dasselbe gilt bei fehlendem Unrechtsbewusstsein oder Unvorhersehbarkeit von Seiten des Geschäftsherrn.101 In Relation zur künstlichen Intelligenz stellen sich bei dieser Schnittstelle allerdings erneut Fragen hinsichtlich Kontrollierbarkeit und deliktischer Haftung des intelligenten Systems selbst, auf die bei gelungener Exzeption versucht würde zurückzugreifen, was gemäss jetziger Rechtslage aber nicht möglich ist, da es an der Delikts-, Geschäfts-, Handlungs- und Rechtsfähigkeit intelligenter Systeme fehlt.102

[26]

Der direkten haftungsrechtlichen Loslösung von der Hilfsperson hin zum Geschäftsherrn vorangestellt ist, dass eine Hilfsperson überhaupt erst schuldhaft einen Fehler begeht, der in einer Störung der Vertragserfüllung mündet.103 Problematisch verbleibt dabei die Erforderlichkeit der Widerrechtlichkeit, bzw. das Abstellen auf die Handlung auf Seiten der Hilfsperson: Gemäss deutscher Rechtsprechung ist die Bejahung einer widerrechtlichen Handlung an ein Mindestmass an Bewusstseinskontrolle, Willenslenkung und mitunter selber beherrschbaren Verhalten gebunden.104 Im arbeitsrechtlichen Kontext wird sich zwar durchaus den § 278 und § 831 bedient, jedoch wird dann gerade nicht auf den autonom agierenden, intelligenten Roboter zurückgegriffen, sondern auf den menschlichen Arbeitsgeber.105 Entsprechend umstritten und richterlich bislang ungeklärt bleibt die analoge Anwendung der für menschliche Gehilfen konzipierten § 278 und § 831 auf Sachverhalte künstlicher Intelligenz, wobei die von der Praxis genannten Eigenschaften in Bezug auf intelligente Systeme im Einzelfall sorgfältig nachzuweisen wären, um die entsprechende Lückenschliessung vornehmen zu können.106 Eine Gesetzesänderung wäre auch deshalb angezeigt, da eine von Seiten des Geschäftsherrn geäusserte Berufung auf die Nichterfassung technischer Hilfspersonen zu einer unbilligen Haftungslücke mangels Einschlägigkeit führen könnte.107

[27]

Es soll nicht negiert werden, dass Konsensfindung, Verständnis und Beobachtung technologischer Entwicklungen und das Reagieren der Praxis ohne sofortiges Zutun des Gesetzgebers die Qualität potentieller Regelungen auch positiv zu beeinflussen vermögen. Insofern gilt es auch die hochaktuellen Diskussionen innerhalb der EU zu würdigen, ein Fortlauf der intereuropäischen Debatte, die 2017 in einem Bericht resümiert und nun am 25. April 2018 aktualisiert und vervollständigt wurde.108 Es ist die Bemühung zu erkennen, der Öffentlichkeit (bzw. der Presse) das teilweise noch surreal anmutende Phänomen möglichst einfach und bürgernah zu vermitteln sowie zugleich auf die Komplexität der Materie samt der Schwierigkeit diesbezüglicher (europäischer) Regulierung hinzuweisen.109 Die Technologie der nächsten Generation soll der menschlichen nächsten Generation zudem wissenschaftlich durch «Digital Opportunity Traineeships» proaktiv näher gebracht werden.110 Einigkeit besteht darin, dass ein «European Approach» erforderlich und angezeigt ist, um künstliche Intelligenz sachgemäss fördern, verbreiten und regulatorisch bewältigen zu können und die Früchte dieser technologischen Entwicklung sozial wie wirtschaftlich bestmöglich generieren zu können.111 Berechtigte Ängste können dabei dadurch in Schach gehalten werden, indem Missbräuche verhindert werden, das Verständnis der Allgemeinheit bewusst gefördert wird und das Profitieren der Vorzüge künstlicher Intelligenz in seiner ganzen Breite nicht nur auf dem Papier vermittelt wird, sondern jedem Einzelnen Zugang zu diesem Nutzen zu ermöglichen ist.112 All dies muss auf rechtlich fundierter Art und Weise geschehen – die europäische Vorgehensweise soll dabei ein sachangemessenes ethisches (v.a. hinsichtlich fundamentaler Aspekte wie die Privatsphäre und Würde des Menschen) wie legales Rahmengefüge sicherstellen.113 Eine Gratwanderung, welche die EU anschaulich mit den Worten umschreibt, sowohl Vertrauen als auch Verantwortlichkeit, die Haftbarmachung umfassend, im Umgang mit dieser Technologie sicherzustellen.114 Selbstregulierung stellt einen wichtigen Bestandteil dieser Entwicklungen dar, kann aber nur als erstes Set im – vom Staat zu erlassenden – Paket des Rechts darstellen.115 Dadurch kann die Akzeptanz sowohl der neuen Materie, als auch der Fähigkeit des Staates, diese zu regeln, gewährt werden.116 Sicherheitstechnische Aspekte im engeren Sinne werden zur Zeit durch diverse «EU Safety Frameworks» aufgefangen.117 Insgesamt wird die intereuropäische Zusammenarbeit nicht nur in institutioneller Hinsicht befürwortet, sondern auch eine «European AI Alliance» angestrebt, die Technik und Recht durch das Zusammenführen von Vertretern beider Richtungen noch näher bringen soll.118 Um ein rechtliches Fundament erarbeiten zu können bedingt dies auch eine detaillierte Analyse problemanfälliger technischer Herausforderungen.119 Die Wichtigkeit der Transparentmachung des Einsatzes sowie der konkreten Funktionen und Abläufe künstlicher Intelligenz wurde ebenfalls hervorgehoben und in Aussicht gestellt, dass bis Ende 2018 «AI Ethics Guidelines» entwickelt würden, welche diese zentrale Thematik aufgreifen.120 Rechtliche Lösungsvorschläge betreffend Adressierbarkeit künstlicher Intelligenz nehmen zudem Bezug auf die «Product Liability Directive», unter Einräumung des Umstandes, dass diese auf das Jahr 1985 zurückgeht, wird jedoch eine «Interpretative Guidance» in Aussicht gestellt, die eine moderne Auslegung angesichts der neuen Technologien ermöglichen soll. Interessanterweise wird dieses Rechtsinstitut aber nur dann vorgesehen, wenn sich künstliche Intelligenz in einem eigentlichen Produkt verpackt vorfindet, so dass ein Konnex zum Gehäuse der Körperlichkeit hergestellt wird.121 Diese liegt der künstlichen Intelligenz allerdings nicht zwingend zugrunde.

3.2.

Konsequenzen künstlicher Intelligenz im Gehäuse der Körperlichkeit ^

[28]

Körperlichkeit als solches ist in der Konnexion zu künstlicher Intelligenz nicht ein ausreichendes Indiz, nur eine normale Sache i.S. des Sachenrechts vor sich zu haben oder um die Gegebenheit künstlicher Intelligenz zu bejahen.122 Um Handlungen im Rechtssinne begehen zu können, muss nicht zwingend eine klassische Körperbewegung getätigt werden, sondern es reicht die Sinnhaftigkeit rechtlicher Zuschreibung.123 Realität und Virtualität werden durch die Umrandung virtuell anmutender, intelligenter informatischer Software durch einen Körper bildlich zu einer realeren adressierbareren Entität und erfüllen auch die Definition der Produktqualität eindeutiger.124 Zugleich ist bei der Berührung der zuständigen Atmosphären vom Leistungserbringer und Leistungsempfänger ein eigentlicher «technischsozialer Kontakt»125 gegeben, was das Einsatzgebiet künstlicher Intelligenz als Hilfsperson und damit auch der Geschäftsherrenhaftung erweitert.126 Prononciert anknüpfend an den Grundsatz, die körperliche und psychische Integrität des Vertragspartners i.S. der Obhuts- und Schutzpflichten zu achten, stellt es hinsichtlich des Gefährdungspotentials einen entscheidenden Faktor dar, ob künstliche Intelligenz verpackt in einen autonom agierenden Körper (embodied robots) vorliegt.127 Das Element der Körperlichkeit hat nämlich durch die Beweglichkeit im Raum einen direkten Einfluss auf das Schädigungspotential und schlägt sich auf die Ausgestaltung von Ansprüchen, Haftungsfolgen und der Erfassung von Erfolgs- bzw. Verhaltensunrecht nieder.128 Von Vorteil kann bei gegebener Körperlichkeit die Integration einer Black Box sein, um bei allfälligen Haftungsfällen ex post auch im Hinblick auf die Abgrenzung bzw. Eruierung menschlicher Beteiligung an der Vertragsstörung herauszufinden, was das System genau getan oder fehlerhaft unterlassen hat.129

3.3.

Künstliche Intelligenz und die Schwierigkeit der Zurechnung ^

[29]

Der juristisch klassische Untersuchungsgegenstand der Zurechnung gestaltet sich, befindlich im Nachhall der Verflochtenheit von Menschen und künstlicher Intelligenz samt deren Aufgabenteilung und Interaktion, entsprechend schwierig. Insbesondere, ob künstliche Intelligenz überhaupt Verantwortungsfähigkeit und eine gewisse Handlungsmacht in sich halten kann, also die Bestandteile, welche die Zurechnung im allgemeinen Sinne erst auszeichnen, lassen sich nicht ohne Weiteres fixieren. Ergänzt wird dies durch die Einzelfallbetrachtung, auch in concreto naheliegende Erklärungen für die Begründung der Zurechnung zu haben.130 Da die Antworten auf die Frage der Haftung bei Anwendung künstlicher Intelligenz einem Mosaik gleichen, sei vordergründig der Konnex zu allgemeinen haftungsrechtlichen Instituten herzustellen. Die Art. 55 und 101 OR sind ohnehin ein Ausklang derselben.

[30]

Die eindeutige Zuweisung der Art. 55 und 101 OR zu einer klaren Zurechnungsform ist umstritten, denn die Art. 55 und 101 OR knüpfen weder direkt an Verschulden an noch erlegen sie eine strenge Kausalhaftung auf.131 Im Unterschied zur strikten Kausalhaftung besteht keine konsequente Einstandspflicht unter Annahme eines respondeat superior.132 Es kann somit im Schadensfalle durch Exkulpation einer Schadenstragung, mit Verweis auf Achtung von Verkehrsregeln, ausreichend angewendeter Sorgfalt und nicht gegebener Vorhersehbarkeit, entgangen werden.133 Bundesgericht wie h.L. sprechen in diesem Kontext von einfacher Kausalhaftung bezogen auf Art. 55 OR und einer Zurechnungsnorm für Dritte in Sachen Art. 101 OR.134

3.4.

Gefährdungshaftung und die Art. 55 und 101 OR ^

[31]

Die künstliche Intelligenz als verschachtelte Erscheinung macht eine Rechtslage erforderlich, die auf multiplen, sich ergänzenden und ineinandergreifenden Regelungen basiert und über Monokausalitäten hinausgeht, um haftungsrechtlichen Besonderheiten gerecht zu werden, ohne bewährte Rechtskonstrukte ausser Acht zu lassen.135 Der Wandlungsdynamik der Technik, und somit der künstlichen Intelligenz, haftungstechnisch nah angegliedert ist die Gefährdungshaftung.136 Sie ist losgelöst von Verschulden und Widerrechtlichkeit und setzt an zulässiges Handeln bei damit verbundenen Gefahren in abstracto an, wobei die Risiken des Fortschritts und der Innovation durch Etablierung der Kausalhaftung aufgefangen werden.137 Der beschriebene Ausgleich von Nutzen und Risiko i.S. des Beiziehens einer Hilfsperson durch den Leistungserbringer findet pointiert Ausdruck in der Gefährdungshaftung.138 Die Motive sind denen der Art. 55 und 101 OR insofern ebenfalls ähnlich, als dass Schadensausgleich ermöglicht und Verhaltensbeeinflussung bewirkt werden soll.139 Diese ist jedoch speziell risikovermeidend zu sehen im Vergleich zur allgemeinen Achtsamkeit und den curae bei den Art. 55 bzw. 101 OR zur Sicherstellung sorgsamer Vertragserfüllung.140 Das Schweizer Recht kennt keine allgemeine Gefährdungshaftung.141

[32]

Insbesondere der Stand der Wissenschaft als Eckpfeiler der Gefährdungshaftung bleibt aber bei den Art. 55 und 101 OR, zugeschnitten auf Menschen, prinzipiell unberücksichtigt.142 Da die künstliche Intelligenz selbst nur durch Analogie von der nicht explizit erfassten Hilfsmaschine zur Hilfsperson wird, erscheint eine Gefährdungshaftung dem Phänomen näher liegend, da künstliche Intelligenz unter eine Gefahr subsumierbar wäre. Anzumerken ist, dass es weder einen einzigen zulässigen Hilfspersonentypus gibt, noch ein bestimmtes Risiko, das es zu vermeiden gilt.143 Vielmehr fixiert das Gesetz die roten Linien konkreter, riskanter Verarbeitungssequenzen bestimmter Domänen vertraglichen Handelns samt Haftungsfolgen bei entsprechender Überschreitung bzw. Nichtbeachtung und macht dadurch «menschlich-technische Verantwortungssphären»144 objektiv zugänglich.145 Das Konstrukt der Hilfsperson hat keinerlei risikoorientierte Komponente im technischen Sinne und dient mehr der Ermöglichung von Zusammenwirkungen i.S. effizienter Leistungserbringungen, als der Ausradierung von Gefahren. Dabei könnte der Stand der Wissenschaft aber bereits einen Schritt vorher, nämlich bei der Eruierung, ob eine Hilfsperson in Gestalt einer Hilfsmaschine überhaupt vorliegt, berücksichtigt werden. Da beide Komponenten im speziellen Falle der künstlichen Hilfsperson in der Doppelnatur als Gefahrenquelle und Hilfestellung vorliegen, wäre eine differenziertere Lösung zu bevorzugen, welche beide Eigenheiten zu regeln vermag. Zwar entspricht es der ratio der Gefährdungshaftung, Vorzüge und Risiken bzw. Zweckdienlichkeit und Mankos als sich gegenüberstehenden Pole in einer Einheitsregelung zu erfassen.146 Auch die Idee, nur denjenigen einer Haftung zu unterziehen, welcher Fehler bzw. Gefährdungen aufgrund von Quellen bewirkt, die er einsetzt, um primär seinem eigenen beneficium zu dienen, deckt sich mit den Art. 55 und 101 OR und ist letztlich ein Fortlauf von ius distributiva.147 Hingegen bleiben culpa und Widerrechtlichkeit unbeachtet und die Definition künstlicher Intelligenz entspricht zumindest materiell durchaus einer Hilfsperson und liegt den Art. 55 und 101 OR dadurch hinsichtlich sachgemässer Rechtsanwendung am nächsten.

[33]

Zwar ist zweifelhaft, ob künstliche Intelligenz per se gefährlich ist, und stellt das Anknüpfen an die Gefährdungshaftung, dessen Veranlassung der Einsatz gefährlicher aber legal tolerierter Risiken ist, in Frage.148 Doch ist es auch ein Ansporn der Gefährdungshaftung, nur mögliche Risiken zu erfassen, die allerdings mit einer gewissen Wahrscheinlichkeit und Intensität behaftet sind, wobei diese Grenzziehung eine heikle Gratwanderung für das Eingreifen und Formulieren des Gesetzgebers darstellt.149 Die Kontrolle der Gefahrenquelle könnte auch unter die curae und Vorsichtsmassnahmen des Geschäftsherrn nach den Art. 55 und 101 OR subsumiert werden und bei mangelhafter Vornahme und erfolgter Gefahrverwirklichung i.S.v. Fehlerhaftigkeiten eine Haftung ermöglicht werden. Wird jedoch die Ansicht vertreten, der künstlichen Intelligenz liegen Gefahren zugrunde, die nicht nur den Einzelnen und seine privatrechtlichen Interessen berühren, sondern auch das Kollektiv und öffentliche Interessen wie Sicherheit und Gesundheitsschutz, so stösst diese Lösung, zumindest ohne weitere Regelungen, an Grenzen und spricht für eine Gefährdungshaftung.150 Die Gefährdungshaftung greift aber nur dann, wenn dies expressis verbis vom Gesetzgeber in der betreffenden Risiko-Materie unter entsprechender tatbestandlicher Aufzählung bekannter Gefahrenquellen vorgesehen ist.151 Da dies bei der künstlichen Intelligenz nicht der Fall ist, verbleibt dennoch eine Lücke und es muss auf allgemeine Verkehrspflichten ausgewichen werden, die auch bei der Analyse der curae im Rahmen der Geschäftsherrenhaftung beigezogen werden könnten.152 Dieses Vorgehen ist jedoch bei in praxi wenig etablierten Prozessen nicht sehr hilfreich, zumal die Bezugnahme auf die Übung als Mittel zur Untermalung der Üblichkeit gewählter Vertragsinhalte im Gesetz selber vorgesehen sein muss, was bei Lücken nicht der Fall sein wird.153 Gerade bei unbekannten Risiken scheint dieser Orientierungspol nur beschränkt zielführend, so dass reaktive Handlungen ex post i.S. der Produktbeobachtungspflicht geeigneter erscheinen, um dem eine Fehlleistung erleidenden Vertragspartner zum Recht verhelfen zu können.154

3.5.

Art. 55 und 101 OR und künstliche Intelligenz: Lösungs- und Problemmacher ^

[34]

Zwar sind die konkreten Risiken künstlicher Intelligenz nicht abschliessend geklärt, was für eine Gefährdungshaftung spricht, doch darf bezweifelt werden, ob dies ausreicht, um dieses Haftungsmodell zu bejahen oder ob nicht vielmehr die analoge Anwendung der Art. 55 und 101 OR die praxisgerechtere Lösung wäre. Den potentiellen Risiken könnte durch erhöhte Sorgfaltspflichten des Geschäftsherrn begegnet werden, da dieser sich eines neuen Verfahrens zur Leistungserbringung bedient. Folglich stellt sich die Frage der Zuschreibung von Verantwortlichkeit und Haftung in den Art. 55 und 101 OR besonders anschaulich. Quintessenz ist die Erkenntnis, unter den Wortlaut der «Person» auch tatsächlich künstliche Intelligenz subsumieren zu können, da sonst die analoge Anwendung ohne nähere Prüfung der konkreten Arbeitsteilungen u.Ä. bereits scheitert.155 Dass dabei die Definitionen und Erscheinungsformen der künstlichen Intelligenz variabel, uneinheitlich und nicht abschliessend sind, erschwert diesen ersten Prüfungsschritt. Gesetzeswortlaut und Verfassungspassagen der schweizerischen BV legen eine Verneinung nahe: Künstliche Intelligenz ist weder eine Person im menschlichen, noch im rechtlichen Sinne und es liegt bei autonomen intelligenten Systemen, entgegen der ratio des Gesetzestextes von Art. 55 und 101 OR, keine natürliche Person vor.156 Ihnen kommt weder Grundrechtsschutz noch die Anerkennung in Form einer fiktiven Rechtsfigur wie der juristischen Person zugute.157 De lege lata ist künstliche Intelligenz weder delikts-, geschäfts-, handlungs-, noch rechtsfähig, was auch mit der Negierung eigener Willensbildung zu tun hat, die einen Vertragsschluss sowohl in Aussen- wie auch in Innenverhältnissen ausschliesst.158 Der in Art. 55 Abs. 2 OR vorgesehene Rückgriff verläuft bei künstlicher Intelligenz zurzeit ins Leere.159 Die damit einhergehende fehlende Schuldfähigkeit vermag aber die Absolutheit einer Nichtanwendung der Art. 55 und 101 OR insofern abzusprechen, als dass Verschulden oder Urteilsfähigkeit der Hilfsperson von gesetzgeberischer Seite gar nicht verlangt wird, um eine Haftung des Geschäftsherrn zu begründen.160

[35]

Aus einer technisierten, skalaren Sicht liegt die künstliche Intelligenz einer Person deutlich näher als einem reinen Gegenstand in Form eines Hilfsmittels handwerklicher Art, was sich bereits aus der Definition ihrer selbst ergibt, der Assimilierung nicht nur mechanischer, sondern auch geistiger Begabungen des Menschen.161 Dabei sind es gerade die der Technik anhaftenden Besonderheiten, i.S. eigentlicher Assistenzfunktionen, welche diesen Schluss nahelegen. Hilfsfunktionen künstlicher Intelligenz können dank der ihr innewohnenden stetigen Aufnahmefähigkeit in einer bestmöglichen Anpassung der zu erbringenden Leistungen an den Vertragspartner münden sowie den Wert einer menschlichen Hilfsperson, die nicht nur mechanische Fertigkeiten auszeichnet, ebenfalls erreichen und je nach Entwicklungsstand sogar übertreffen. Die Annäherung an menschliche Gaben oder gar das Übertrumpfen derer kann sich nicht nur qualitativ zeigen, sondern auch in einer herausstechenden Zügigkeit der Leistungserbringung und Aufgabenbewältigung. In gewissen Konstellationen transferiert sich der Beizug eines Hilfsmittels wie der künstlichen Intelligenz vom Nutzen des Geschäftsherrn daher hin zu einer Pflicht, um eine adäquate Qualität der Leistung sicherzustellen.162 Wer zur Vertragserfüllung auf künstliche Intelligenz setzt, kann folglich als eigentlicher Geschäftsherr nach Art. 55 und 101 OR gelten.163 Das begriffliche Problem der Hilfsperson, wenn nicht zu eng auf Menschen fixiert, könnte zudem dadurch gelöst werden, indem es weniger auf die konkreten Eigenschaften des unterstützenden Leistungsgehilfen selber ankäme, sondern vielmehr darauf, ob es sich um eine Tätigkeit handelt, die an eine Hilfsperson i.S. des Gesetzes delegiert werden könnte.164 Diese objektiv-finale Herangehensweise ist auch aus dem Bereich der Willenserklärungen ohne Erklärungsbewusstsein bekannt.165 Mit einem solchen Blickwinkel wäre in fine die Subsumption künstlicher Intelligenz unter die Art. 55 und 101 OR ohne weiteres möglich. Das Leitmotiv der Beziehung von Hilfspersonen ist es, den Geschäftsherrn bei der Vertragserfüllung zu entlasten bzw. diese zu perfektionieren, also durch möglichst wenig Inputs ein Optimum an Outputs erzielen zu können, was ebenfalls an die Definition der künstlichen Intelligenz selbst erinnert.166 Aufgrund willentlicher Entscheidung des Geschäftsherrn, künstliche Intelligenz als Hilfsmittel zur Vertragserfüllung zu ergreifen, wäre trotz Selbständigkeit des verwendeten Systems mit damit einhergehender Abgabe engmaschiger Kontrollmöglichkeiten, eine Wegkappung jeglicher menschlicher Verantwortung schwierig zu begründen und untermalt die Bedeutung der Art. 55 und 101 OR.167

[36]

Trotz sich am Horizont abzeichnenden Grenzen einer Universallösung «Art. 55, 101 OR und künstliche Intelligenz», besteht der Vorteil derer analogen Anwendung darin, dass eine Rechtsfolge bereits festgelegt ist: die Haftung des Geschäftsherrn. Die Verdeutlichung von Verantwortungsbereichen ist strapaziös, aber durch Transparentmachung machbar. Das Zurückgreifen auf haftungsrechtlich bereits bewährte Artikel ohne weiteren Aufwand für den Gesetzgeber bietet sich an, zumal die Motivation der Arbeitsteilung im Rahmen der Vertragserfüllung dieses an Haftung zu bindende Phänomen auch den Art. 55 und 101 OR entspringt. Ungelöst bleibt hingegen die direkte Adressierung künstlicher Intelligenz mangels Delikts-, Geschäfts-, Handlungs- und Rechtsfähigkeit, was die Hervorbringung eines geeigneten Instituts nahelegt, um problemmachende Haftungslücken vollumfänglich schliessen zu können.

3.6.

Künstliche Intelligenz, Juristische Person und e-Person ^

[37]

Rechtsuchende brauchen eine umgängliche Palette rechtlicher Mittel, um zum Haftungserfolg zu kommen. Vergleichend mit der juristischen Person, an welche die e-Person angelehnt wäre, vermag es die Fürsprache der Art. 55 und 101 OR insofern anzuspornen, als dass, trotz Fehlen von Bewusstsein und sozialen Intellekts, die Teilnahme am Rechtsverkehr samt der Trägerschaft von Rechten und Pflichten sowie einer potentiellen Haftungsmasse ermöglicht wird.168 A fortiori müsste dies, inklusiver Subsumptionsmöglichkeit unter die Art. 55 und 101 OR, für die künstliche Intelligenz gelten, welche diese Attribute im konträren Vergleich zur juristischen Person gar per definitionem aufweist.169 Umso mehr, als auch jenem fiktiven Rechtsgebilde gewisse Grundrechte zugesprochen werden.170

[38]

Aufgrund solcher Divergenzen wird zugleich die Schaffung eines eigenen rechtlichen Instituts in Form der e-Person bestärkt, zumal die Eigenheit der Assimilierung nicht nur in Sachen fiktiver Rechtssubjektqualität, sondern bei künstlicher Intelligenz in Bezug auf den Menschen schlechthin zutage tritt.171 In gleicher Weise bedeutsam ist dabei die Möglichkeit, auch juristische Personen der Geschäftsherrenhaftung zu unterstellen, eine Handhabung, die auch auf e-Personen angewendet werden könnte.172 Aus einer ganzheitlichen Betrachtungsperspektive ist dies nicht nur für Vertragspartner, sondern auch für den Staat i.S. des öffentlichen Rechts von Vorteil, da dieser dann v.a. in puncto Sicherheit vereinfachtere Steuerungsmöglichkeiten hat.173 Durch Genehmigungen, Registerführungen, Festlegung von Einsatzbereichen u.Ä. wäre zudem transparenter und leichter eruierbar, wie die konkrete Verbreitung künstlicher Intelligenz ist, wobei diese nebst vereinfachten Kontrollmöglichkeiten durch Expertinnen von Seiten des Staates auch für Rückschlüsse auf Verkehrsregeln und Übung praktikable Quellen wären.174 Die Normalisierung der Verwendung künstlicher Intelligenz, unterlegt durch das Ansehen des öffentlichen Rechts, würde auch deren Verbreitung und Ansehen der breiteren Öffentlichkeit, inklusive dem Verständnis gegenüber dem Beziehen von Hilfspersonen in Form künstlicher Intelligenz bei der Vertragserfüllung im Privatrechtsverkehr, behilflich sein. Denkbar wäre die Subsumption autonomer Systeme unter die juristische Person selbst, wobei dies den Anwendungsbereich aufgrund der Nähe zu Unternehmen und Verein auf das Gesellschafts- und Stiftungsrecht beschränken würde.175 Zumal würden mit der künstlichen Intelligenz verbundene Schwierigkeiten, wie die Abgrenzung zum Menschen, nach wie vor bestehen: Gesellschafter müssen menschlich sein bzw. dürfen Gesellschaften und Stiftungen nicht längere Zeit ohne Menschen existieren, was der gewünschten Anerkennung und Erweiterung der Einsatzgebiete künstlicher Intelligenz, inklusive deren Haftbarmachung, nur begrenzt erspriesslich wäre.176

[39]

Ein Urteil des Bundesverfassungsgerichts177 aus Deutschland, das weit ausgelegt einerseits als Inspirationsquelle und andererseits als Warnung an den hiesigen Gesetzgeber aufgefasst werden könnte, untermalt die Kehrseite einer abwartenden Praxis. Die Gefahr nämlich, als Gesetzgeber nur im Abseits zu stehen und technologische Entwicklungen kleinzureden oder zu vernachlässigen, denn der technische Fortschritt ist gegenwärtig und wird laufend erweitert. Es wurde im Entscheid festgestellt, dass die Beschränkung der Tätigkeit als Insolvenzverwalter auf natürliche Personen einen Verstoss gegen die Berufsfreiheit, einem Grundrecht, darstellen kann.178 Dies erinnert an die bundesgerichtliche Praxis179 der Business Judgment Rule, wonach bei der Beurteilung von Geschäftsentscheiden ex post Zurückhaltung angezeigt ist, um unternehmerische Freiheiten sicherzustellen. Dieser Ansatz wäre auf den Einsatz autonomer intelligenter Systeme übertragbar.180 Die Erwägungen bestärken die Möglichkeit, den technologischen Fortschritt praxisgerecht und proaktiv in das Recht zu integrieren und demgemäss autonome Systeme künstlicher Intelligenz u.a. auch den Art. 55 und 101 OR zu unterwerfen.

4.

Ausblick und Praxisempfehlungen ^

[40]

Die Verschmelzung von Technik und Recht auferlegt nicht nur dem Gesetzgeber die Pflicht, die praxisgerechte Integration technischer Eigenheiten in das Rechtsgefüge einzurichten, sondern auch den Entwicklern, Produzenten, Erwerbern und Anwendern stets vorausschauend zu überlegen, wie rechtliche Schwierigkeiten vermieden werden können.181 Das Arrangement fängt an bei kalkulierender, risikobezogener Denkarbeit zur Gewinnung ausgeklügelter Systeme und Anleitungen, welche undurchsichtige Aufgabenbereiche und allfällig zu erwartende Fehlfunktionen transparent und rasch lösbar machen, der Etablierung standardisierter Verfahren und Visualisierung der Daten- und Funktionsabläufe, um vereinfacht Rückschlüsse auf die rechtlich vorgesehene Haftbarkeit machen zu können, und kann anschliessen an Produktbeobachtung und problemorientierten Vertragsformulierungen.182 Die Visualisierung bildet dabei den Ausgangspunkt in die Tiefen des intelligenten Systems eintauchen und die Fehlerquelle lokalisieren zu können.183 Nachvollziehbarkeit bedeutet auch, die intersubjektive Verständigung von System und Mensch greifbar zu machen: Die Kettenverbindungen von softwarebezogenen Algorithmen sollen dem konkreten Menschen dank entsprechender Transparenz ein Urteil über Ablauf und Probleme ermöglichen und damit die Kontrollierbarkeit von Seiten des Menschen und folglich eine Haftbarmachung gewähren.184 Nur durch Vergegenwärtigung und Replizierbarkeit der Interaktionen intelligenter Mechanismen wird ein stimmiges Ermessen in Kontrolle und Überwachung von Seiten des Geschäftsherrn, den Art. 55 und 101 OR folgend, überhaupt ermöglicht.185 Unternehmensintern, insbesondere bei Fragen von Überwachung und Kontrolle autonomer Systeme, können entsprechende policies helfen, durch Bearbeitung von Fehlerquellen schon in ihrer Entspringung, haftungsrechtliche Konsequenzen zu vermeiden, vermögen aber nicht eine konsequente Umsicht des Geschäftsherrn zu ersetzen.186 Dabei wäre auch eine automatisierte bewusste Zwischenschaltung des menschlichen Verantwortungsträgers in gewisse Abläufe der künstlichen Intelligenz vorstellbar, ähnlich wie bei einer Hausaufgabenkontrolle, was vom Gedankengang an die Konzeption der Haftung für Hausgenossen in Art. 333 ZGB erinnert.187 Des Weiteren würde dies verhindern, dass das System längerfristig ohne Wissen des Menschen agiert, eine Motivation, die auch der Transparentmachung zugrunde liegt.188

[41]

Oberste Verantwortung trägt letztlich der Staat in Form des Gesetzgebers. Dieser muss Gebrauch machen von der Steuerungsfunktion gewünschter oder unerwünschter Entwicklungen. Eine Lenkung muss nicht in einem eigentlichen Paternalismus in Form einer obrigkeitlich diktierten und endgültigen Orthodoxie bestehen, vielmehr kann die Gesetzgebung dabei unterstützend wirken, die komplexe Interessenslage mit einer gesunden Zurückhaltung auszugleichen und sich damit auch als Vermittlerin auszeichnen.189 Dabei kann die Regierung nebst der finanziellen Förderung von Forschung neuester Technologien wie der künstlichen Intelligenz zum Ankurbeln von Wirtschaft und gesellschaftlichen Entwicklungsstandards sowie interdisziplinärer Zusammenarbeit von Technik, Informatik und Recht auch expressis verbis bewusste Freiräume lassen oder Risiken dulden, wobei der Gedanke, die Risikoabwägung samt Haftungsbegründung in die Sphäre des technischen Spezialisten zu übertragen, an die Idee der Gefährdungshaftung anklingt.190 Im kontradiktorischen Sinne sollten diesbezügliche Kosten von Seiten des Gesetzgebers nicht vermieden werden, da sie den Säulen der Nachhaltigkeit in wirtschaftlicher wie gesellschaftlicher Sicht Rechnung tragen und die Rechtssicherheit stärken.191 Nur durch zukunftsorientiertes Aufgreifen und Adressieren technologischer Entwicklungen geht der Gesetzgeber über ein schlichtes, strategieloses actio et reactio und dann hastig erlassene Notfalllösungen hinaus, die nur ephemere Antworten zu vermitteln in der Lage wären, ohne der Komplexität und Langfristigkeit des neuen zu regulierenden Phänomens gerecht zu werden.192

[42]

Eine sachgemässe Entscheidung wird der Legislative aber nur bei einem minimalen technologischen Verständnis gelingen können.193 Durch Expertinnen vermitteltes Wissen technischer Dimensionen zur verbesserten Abwägung von Bedarf und Nutzen gesetzgeberischer Tätigkeit kann auch helfen, das Fahrwasser der Technik und deren Tempo zu vermitteln und die Findung der richtigen Anpassungsgeschwindigkeit der Legislative an die Eigenbewegung der Technik festzulegen. Dadurch wird eine Differenzierung ermöglicht, die einerseits die technische Entwicklungsrichtung im Auge behält sowie damit verbunden die Eruierung des Generationenstandes der in Frage stehenden Technologie und andererseits die konkreten Probleme der Gegenwart und nahen Zukunft rechtlich einbettet.194 Dabei kann theoretisches zukunftsbezogenes, noch futuristisch anmutendes, Gedankengut schneller als gedacht über eine Planungsphase hinaus rasch in eine eigentliche Praxis münden.195 Nur durch Schaffung von Klarheit, was erlaubt und geduldet ist, kann die zu haftende Person verbindlich bekundet werden.

[43]

Durch die rasche Technisierung und dem Wandel der Gesellschaft schlechthin erscheint auch eine Anwendung des allgemeinen Teils des Obligationenrechts für eine langfristig nachhaltige und praxisprägende Erscheinung, wie der künstlichen Intelligenz, angezeigt. Die Art. 55 und 101 OR vermögen diese Entwicklung im Rahmen der Vertragserfüllung durchaus vorübergehend aufzufangen. Wichtig erscheint aber, zukunftsorientiert zu hinterfragen, ob der allgemeine Teil des Obligationenrechts inklusive den Art. 55 und 101 OR nicht einer Revision bedarf, um über ein Auffangen hinauszugehen zu einer Steuerung und breiten Beantwortung haftungsrechtlicher Fragen künstlicher Intelligenz. Da künstliche Intelligenz einen eigentlichen technologischen wie gesellschaftlichen Schnitt darstellt, welchen der Gesetzgeber zur Zeit des Legiferierens noch nicht berücksichtigt hatte, sollte eine Ergänzung des OR AT, die moderne Materie der künstlichen Intelligenz adressierend, oder gar eine Gesamtrevision des OR AT – in Kraft seit 1911 und ohne grösseren Revisionen – in Erwägung gezogen werden.196

[44]

Es mangelt zunehmend an einem Abbild der Realität und erscheint sowohl in toto als auch hinsichtlich der Bewältigung künstlicher Intelligenz lückenhaft, einem Phänomen universeller Bedeutung mit spezifischen Kennzeichen des OR AT (wie Leistungserbringung, hilfsweise Einsetzung, Vertragsabschluss, Störungen und Schäden) oder direkt an diese oder das ZGB anknüpfend (Delikts-, Geschäfts-, Handlungs-, Rechtsfähigkeit und Verschulden) und damit geeignet für die Integration in das OR AT. Zwar ist der grösste Teil des OR AT ohnehin nur dispositives Recht, doch sind nicht nur Detailfragen, sondern auch weiterreichende Fragestellungen allgemeiner Natur erkennbar (z.B. e-Person, Delikts-, Geschäfts-, Handlungs- und Rechtsfähigkeit künstlicher Intelligenz, Hilfspersonensubstantiierung). So ist nicht mit aller Deutlichkeit dargetan, dass künstliche Intelligenz, als technisches Spezifikum, per se nur mit Spezialerlassen zu regeln wäre.197 Es geht hierbei nicht nur um das Angehen des Dilemmas der Auslegung der Art. 55 und 101 OR, das sich im Besonderen beim Terminus «Hilfsperson» in Bezug auf künstliche Intelligenz als schwierig erweist. Auch zu beachten ist, dass potentielle autonome, systembasierte Leistungsgehilfen in ihrer Leistungskraft und zugewiesener Aufgabengestaltung deutlich an Intensität und Umfang zunehmen und den Menschen, inklusive allfälliger Spezialistinnen, überholen können. Die entsprechende Subsumption weiter anzuzweifeln vermag nicht nur die Differenzierung hinsichtlich des Maschinen- oder Menschseins, sondern auch die Grenzen der Tätigkeiten und Kompetenzen einer Hilfsperson, um noch als solche und nicht als eigentlicher Geschäftsherr oder Vertragspartner zu gelten.198 Die Motivation des Geschäftsherrn bzw. der am freien Markt teilnehmenden Privaten und Unternehmen, sich im Rahmen der Vertragsfreiheit der Effizienz, Nachhaltigkeit und des Mehrwertes wegen Hilfestellungen wie der künstlichen Intelligenz als Leistungsgehilfen für die Vertragserfüllung zu bedienen, ist verständlich.199 In Zukunft könnte dies aus unternehmerischer oder geschäftlicher Sicht sogar erforderlich sein, um auf dem sich rasch wandelnden und zunehmend fortschrittlicheren Markt überhaupt bestehen zu können. Entgegen der ratio legis der Art. 55 und 101 OR könnten intelligente künstliche Leistungsgehilfen künftig selber Kontroll- und Überwachungsfunktionen entwickeln und übernehmen, sowie im Fokus der eigentlichen Vertragserfüllung stehen und machen das Erfordernis nach Lösungen deutlich.200 Zumindest wäre bei entsprechendem Zurückgreifen auf die Art. 55 und 101 OR nach wie vor ein Konnex zwischen der künstlichen Intelligenz zu einem von oben steuerndem Menschen zu verlangen. Indem die Legislative der Idee anhaftet, dass das Volk selbständig Lösungen aus dem Gesetz folgern können sollte, bleibt sie diesem nach wie vor eine Antwort schuldig, wie diese aufgeführten Probleme angegangen werden.201

[45]

Dabei gibt es den Vorschlag renommierter Praktiker eines OR 2020, welche auch das Parlament beschäftigt hat (Postulate «Für ein modernes Obligationenrecht»).202 Dieses greift die oben beschriebenen Problematiken auf und stellt konkrete Bezüge zur Gefährdungshaftung i.S.v. Art. 60 OR 2020 her, v.a. um einer Haftungsermöglichung ausreichend gerecht zu werden und es vermag, über umstrittene Analogien wie in Form der Art. 55 und 101 OR hinauszugehen, ohne die Hilfspersonen- bzw. Geschäftsherrenhaftung dabei in Frage zu stellen.203 Der Bundesrat hat 2018 den entsprechenden Bedarf eines moderneren OR AT mit Verweis auf gegenwärtige Praxiserfahrungen, die keine ernsten Probleme erkennen liessen, sowie auf die Unausgeglichenheit von Nutzen und Kosten, verneint. Auffallend ist dabei das weitere Begründungselement, dass eine umfassende Modernisierung der Rechtssicherheit abträglich wäre.204 Die Rechtssicherheit ist jedoch insbesondere dann gefährdet, wenn das Recht nicht mehr dem Abbild technischer wie gesellschaftlicher Entwicklungen entspricht und nur noch wenig Lösungspotential in sich birgt. Die Ausdehnung der Auslegung allgemeiner Bestimmungen, die kaum mehr zeitentsprechend und zu vage aufgestellt sind, vermag ein Kosten-Nutzen-Kalkül kaum abzufedern. Bereits 2009 hatte der Bundesrat die Konsensfähigkeit einer Anpassung in Form einer Modernisierung haftungsrechtlicher Bestimmungen bezweifelt und damit auch einer Revision eng zugeschnitten auf das allgemeine Haftpflichtrecht eine Absage erteilt.205 Schon im Jahre 2005 hatte der Bundesrat pointiert seine den technischen Entwicklungen gegenüber abwartende Haltung bekannt gegeben, indem er verlauten liess, dass beim Eingriff des Gesetzgebers, auch i.S.v. Gesetzesänderungen, grösste Zurückhaltung geboten ist.206 Dadurch rücken aber nicht nur evolutionäre Reformen, sondern auch pragmatische Lösungsansätze, wie die beschriebenen, vorerst in weite Ferne. Ganz allgemein ist eine eigentliche Debatte aufgrund der Vielschichtigkeit, Tragweite und Aktualität der Problemstellungen nicht nur angezeigt, sondern aufgrund der stetigen Weiterentwicklung der Technik bei verhältnismässig hoher Geschwindigkeit womöglich schon bald zwingend erforderlich. Technische Spezialgesetze sind vonnöten, da eine pauschale Abhandlung künstlicher Intelligenz samt ihren Einsatz- und Produktvariationen kaum realistisch erscheint, sie müssen aber zugleich in einem allgemeinen rechtlichen Haftungsgefüge eingebettet sein, das kohärent ist und es vermag, die künstliche Intelligenz auch in Form allgemein-rechtlicher Bestimmungen als Entität zu adressieren.207 Dabei sind nicht nur zwischen den technischen Strömungen Homogenität wie Inhomogenität gleichermassen zu beobachten.208 Ohne Frage finden Diskurse und eine öffentliche Auseinandersetzung bereits lebendig auch fächerübergreifend, Bezug nehmend auf Bereiche wie Ökonomie, Rechtsphilosophie, Politikwissenschaft, Informatik und Ethik, statt, doch wäre es von grossem Interesse, diese Debatte in das Parlament zu transferieren, um zielführende Aussprachen über geordnete und nachhaltige Bahnen hin zur Lösung technisch-spezifischer Haftungsfragen erfolgreich führen zu können.209 Die Art. 55 und 101 OR bilden dabei eine fruchtvolle Mischung und Verbindungskomponente aus Alt und Neu als Basis für anregende Diskussionen. Dogmatik wie Praxis können dabei helfen, ein Umdenken und einen eigentlichen Paradigmenwechsel in Richtung Legislative zu beschleunigen, um den rechtlichen Anschluss an die Technik, bzw. die Einbettung der Technik in ein haftungsrechtlich sinnvolles Gefüge, nicht vollends zu verlieren und damit auch die Attraktivität des Standortes Schweiz nicht nur in wirtschaftlich-technologischer, sondern auch in rechtlicher Hinsicht gebührend einzupreisen.210

[46]

Die Schweiz als Vorreiter in Sachen Dialog, Stabilität und starker Wirtschaft droht die Zügel von Rechtsfrieden und Rechtssicherheit aus der Hand zu geben, wenn der Gesetzgeber, überrumpelt vom tatsächlichen Geschehen, nur als Feuerlöscher aus der Wartestellung emporsteigt. Dabei stellt die Bejahung der Anwendung der Art. 55 und 101 OR bei einer Vertragserfüllung durch künstliche Intelligenz ein changierendes Konglomerat feuerhemmender wie brandbeschleunigender Art dar. Einerseits vermag es die Lückenhaftigkeit und Absenz spezialrechtlicher Regelungen zu mässigen und im Einklang mit technischem Fortschritt angemessene Spielräume bei der Vertragserfüllung zu garantieren. Allfälligen Risiken kann bei nicht gegebener Gefährdungshaftung im Rahmen der Sorgfaltspflichten des Geschäftsherrn Rechnung getragen werden. Bei deren Würdigung sind Übung und Stand von Wissenschaft und Technik hilfreich. Zahlreiche Probleme werden so praxisnah und ohne weiteres Zutun des Gesetzgebers mit einem einzigen Deckel versehen. Andererseits wird der Wirkungskreis in seiner Gesamtheit ausgedehnt und damit das Tor zu Erschwernissen geöffnet: Die künstliche Hilfsperson wird, zumindest implizit, der menschlichen Hilfsperson gleichgestellt. Der Abs. 2 des Art. 55 OR, den Rückgriff auf die menschliche Hilfsperson ermöglichend, muss entweder überarbeitet oder ein rechtliches Konzept, die künstliche Intelligenz in seiner Gesamtheit adressierend, gefunden werden. Denn nur durch Kreierung einer Rechtssubjektqualität wäre der gesetzlich vorgesehene Regress überhaupt erst möglich und auch der Art. 101 OR vollumfänglich anwendbar. Als allgemeine Zurechnungsnorm ausgestaltet entspricht es der ratio legis des Art. 101 OR, diesen vorläufig dennoch unter ergebnisorientierter Ansicht hypothetischer Vorwerfbarkeit auf künstliche Intelligenz anzuwenden, zumal diese vom Verschulden losgelöste Betrachtungsweise auch bei menschlichen Hilfspersonen greift. Die logischste Konsequenz ist es, den Art. 55 Abs. 2 OR mangels Anerkennung der Rechtspersönlichkeit bei künstlicher Intelligenz nicht direkt greifen zu lassen und damit dem Geschäftsherrn einen Rückgriff auf die Hilfsmaschine zu versagen. Es muss keinen Widerspruch darstellen, Abs. 1 anzuwenden, nicht hingegen Abs. 2 des Art. 55 OR. Auch ohne die Etablierung einer expliziten Gefährdungshaftung stellen diese Lösungen einen Ansporn für den Geschäftsherrn dar, sorgfältig und risikovermeidend zu handeln. Er wird künstliche Intelligenz mit Bedacht bei der Vertragserfüllung einsetzen, was helfen kann, potentielle Schäden zu verhindern. Der von der Lehre teilweise gewollten Gefährdungshaftung würde dies einen deutlichen Schritt näherkommen.

[47]

Unberührt bleibt dabei die Möglichkeit des Geschäftsherrn selber auf die Hersteller bzw. Verkäufer der vom Geschäftsherrn erworbenen und dann in Verträgen eingesetzten künstlichen Intelligenz haftungsrechtlich zurückzukommen. Auch die Subsumption künstlicher Intelligenz unter die Produktqualität samt Beobachtungspflicht liegt im Interesse adäquater Risikobewältigung sowie der Ausbalancierung der Interessen von Entwickler, Hersteller, Verwender und Vertragspartner. Es mag ein zweischneidendes Schwert darstellen, künstliche Intelligenz bei Hilfspersonen- wie Geschäftsherrenhaftung in die Nähe des Menschen zu rücken, bei der Produkthaftung hingegen in Richtung eines Gegenstandes, und damit einem Produkt, einzuordnen. Es kann aber nicht die Lösung sein, die analoge Anwendung nur zu verneinen, um weiterem Ungemach entfliehen zu können, zumal sich die Nichtanwendung des Art. 55 Abs. 2 OR samt seinen haftungsrechtlichen Konsequenzen schlüssig begründen lässt. Die Definition der künstlichen Intelligenz tangiert dies nicht, sondern es ist vielmehr ein Ausfluss ihrer selben: Künstliche Intelligenz ist weder ein Mensch noch ein schlichter Gegenstand in Form einer Maschine oder eines Produkts, und zwar unabhängig davon, ob Körperlichkeit vorliegt. Durch pointierte, minimale Akzentversetzungen werden die Lücken des bestehenden Gesetzesgefüges i.S. eines haftungsrechtlichen Kreises geschlossen, wobei die Geschädigten mit Begriffsspielereien ohnehin nur wenig anfangen können. Eine Anwendung des OR AT scheint auch insofern angezeigter und naheliegender als spezialrechtliche Bestimmungen, inklusive Gefährdungshaftungen, da letztere bezwecken, Spezialbereiche zu erfassen, die aussergewöhnliche Erscheinung der künstlichen Intelligenz jedoch e contrario gerade nicht explizit geregelt ist. Dreh- und Angelpunkt der Diskussion findet ohnehin auf einer Ebene allgemeiner Natur statt, die es weiter zu vertiefen und entwickeln gilt. Bis ein Konsens dafür gefunden wird, bilden die Art. 55 und 101 OR eine gute Übergangslösung. Sie spiegeln nicht nur die Eigenheiten künstlicher Intelligenz und die menschliche Motivation deren Schaffung wieder, sondern reflektieren auch eine Ausgleichungswirkung zwischen konservativer und liberal-zukunftsweisender Problemlösung, die ebenfalls im Parlament zu erwarten wäre. Doch die grundsätzliche Bejahung dieser Möglichkeit darf die Legislative nicht dazu verleiten, zu lange untätig zu bleiben und eine solch richtungsweisende wie umwälzende Erscheinung der Praxis zu überlassen, was sowohl aus ökonomischer wie rechtlicher Sicht nicht praktikabel wäre.

[48]

Wie sich der Gesetzgeber entscheiden wird, hängt aufgrund seiner abwartenden Haltung in erster Linie von der qualitativen technischen Entwicklung und steigender quantitativen Verbreitung ab. Dies könnte sich bei einer weiteren, womöglich publiken, Zuspitzung der Probleme aber rasch ändern. Dabei sind bis zur Findung einer eigentlichen Patentlösung unter Würdigung der haftungsrechtlichen Besonderheiten im Kontext der Verwendung künstlicher Intelligenz bei der Vertragserfüllung nicht nur juristische und diplomatische Kompetenzen der Konsensfindung vonnöten, sondern auch ein minimales technisches Verständnis. Dieses soll dank interdisziplinärer Zusammenarbeit, unterstützt durch Expertenwissen sowie zur Findung von Lösungen im Kollektiv, zusammengetragen werden und in rechtlichen Rezepten Eingang finden. Die Schweiz kann dazu ihren Blick auch auf die im Ausland, vordergründig in der EU, stattfindenden Diskussionen und Fortgänge werfen. Nur so wird eine rechtliche Architektur geschaffen, die möglichst nachhaltig und praxisgerecht gestaltet ist. Dabei kann gerade die Gemeinsamkeit menschlicher wie künstlicher Intelligenz, die soziale Interaktionsfähigkeit, für die Etablierung klaren Rechts verwendet werden: Die z.T. noch virtuell anmutende künstliche Intelligenz wird dann auch auf dem Gesetzespapier Wirklichkeit sein, inklusive der Erschaffung versprechender und ausbalancierter haftungsrechtlicher Konsequenzen bei der Vertragserfüllung durch künstliche Intelligenz.

 

Nicolai Bleskie studiert im Master der Rechtswissenschaften an der Juristischen Fakultät Basel, hat den Bachelor of Law mit magna cum laude 2017 erworben und ist publizistisch aktiv.

  1. 1 Susanne Beck, Technisierung des Menschen – Vermenschlichung der Technik, Neue Herausforderungen für das rechtliche Konzept «Verantwortung», in: Malte-Christian Gruber/Jochen Bung/Sascha Ziemann (Hrsg.), Autonome Automaten – Künstliche Körper und artifizielle Agenten in der technischen Gesellschaft – Beiträge zur Rechts-, Gesellschafts- und Kulturkritik, Band 12, Berlin 2014, S. 173, S. 176 f., 180, 183; Nora Markwalder/Monika Simmler, Roboterstrafrecht, AJP, 2017, S. 171 f.; Dagmar Schmauks/Ingrid Weber, Philosophie im multimedialen Zeitalter, in: Kai Buchholz/Shahid Rahman/Ingrid Weber (Hrsg.), Wege zur Vernunft, Philosophieren zwischen Tätigkeit und Reflexion, Frankfurt/Main 1999, S. 194.
  2. 2 Beck (Fn. 1), S. 174 f.; Malte Grützmacher, Die deliktische Haftung für autonome Systeme – Industrie 4.0 als Herausforderung für das bestehende Recht?, in: CR 2016, S. 695; Jan-Philipp Günther, Embodied Robots – Zeit für eine rechtliche Neubewertung?, in: Malte-Christian Gruber/Jochen Bung/Sascha Ziemann (Hrsg.), Autonome Automaten – Künstliche Körper und artifizielle Agenten in der technischen Gesellschaft – Beiträge zur Rechts-, Gesellschafts- und Kulturkritik, Band 12, Berlin 2014, S. 162, mit Hinweis auf § 276 Abs. 1 Satz 1, § 276 Abs. 2 BGB; Herbert Zech, Zivilrechtliche Haftung für den Einsatz von Robotern – Zuweisung von Automatisierungs- und Autonomierisiken, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 167 f., 171.
  3. 3 Beck (Fn. 1), S. 174.
  4. 4 Shawn Bayern/Thomas Burri/Thomas Dale Grant/Daniel M. Häusermann/Florian Möslein/Richard Williams, Gesellschaftsrecht und autonome Systeme im Rechtsvergleich, AJP, 2017, S. 192, 202; Günther (Fn. 2), S. 157, 165 ff.; Markus Hartung, Kanzleien von morgen, Anwaltsrevue, Das Praxismagazin des Schweizerischen Anwaltsverbandes, 2017, S. 276; Thomas Jandach, Juristische Expertensysteme, Methodische Grundlagen ihrer Entwicklung, Berlin 1993, S. 5; Zech (Fn. 2), S. 201.
  5. 5 Sebastian Dienst/Matthias Falke, E-Commerce und das Internet der Dinge, in: Peter Bräutigam/Daniel Rücker (Hrsg.), E-Commerce, Rechtshandbuch, München 2017, S. 1003 ff.; Michael Martin Kianička, Die Agentenerklärung: Elektronische Willenserklärung und künstliche Intelligenz als Anwendungsfall der Rechtsscheinhaftung, ZStP – Zürcher Studien zum Privatrecht Band/Nr. 252, Zürich 2012, S. 65; Henry C. Mishkoff, Understanding Artificial Intelligence, Indianapolis 1985, S. 2, 4, 7.
  6. 6 Beck (Fn. 1), S. 176 f., 180; Joachim Hertzberg, Technische Gestaltungsoptionen für autonom agierende Komponenten und Systeme, in: Eric Hilgendorf/Sven Hötitzsch (Hrsg.), Das Recht vor den Herausforderungen der modernen Technik, Beiträge der 1. Würzburger Tagung zum Technikrecht im November 2013, Baden-Baden 2015, S. 67.
  7. 7 Mariusz Flasiński, Introduction to Artificial Intelligence, Basel 2016, S. 236; Richard E. Susskind, Tomorrow’s Lawyers, An Introduction to Your Future, 2. Aufl., Oxford 2017, S. 185; Künstliche Intelligenz, Gipfelpapier, Entscheidungsunterstützung mit Künstlicher Intelligenz, Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, herausgegeben vom Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V., Berlin 2017, S. 29.
  8. 8 Dienst/Falke (Fn. 5), S. 1002.
  9. 9 Beck (Fn. 1), S. 176; Flasiński (Fn. 7), S. 233 f.; Günther (Fn. 2), S. 155; Jochen Hanisch, Zivilrechtliche Haftungskonzepte für Robotik, in: Eric Hilgendorf (Hrsg.), Robotik im Kontext von Recht und Moral, Baden-Baden 2014, S. 50; Kianička (Fn. 5), S. 57 f.; Mishkoff (Fn. 5), S. 5, 252; John Robert, Haftung für künstliche Intelligenz – Rechtliche Beurteilung des Einsatzes intelligenter Softwareagenten im E-Commerce, Dissertation, Hamburg 2007, S. 81.
  10. 10 Urs Freytag, Sicherheitsrechtliche Aspekte der Robotik, Sicherheit & Recht 2/2016, S. 111, 117; Amedeo Santosuosso/Barbara Bottalico, Autonomous Systems and the Law: Why Intelligence Matters, A European Perspective, in: Eric Hilgendorf/Uwe Seidel (Hrsg.), Robotics, Autonomics, and the Law, Legal issues arising from the Autonomics for Industry 4.0 Technology Programme of the German Federal Ministry for Economic Affairs and Energy, Baden-Baden 2017, S. 28.
  11. 11 Christian Neuhäuser, Künstliche Intelligenz und ihr moralischer Standpunkt, in: Susanne Beck (Hrsg.), Jenseits von Mensch und Maschine, Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-Baden 2012, S. 28, 32 ff.
  12. 12 Kianička (Fn. 5), S. 55.
  13. 13 Zech (Fn. 2), S. 171.
  14. 14 Amos Albert/Bernd Müller, Herausforderungen und Perspektiven für Märkte im Bereich kognitiver und robotischer Systeme, in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 29; Flasiński (Fn. 7), S. 232 f.; Dirk Helbing, Herausforderung «digitale Revolution», digma – Zeitschrift für Datenrecht und Informationssicherheit, 2015, S. 52 f.; Dirk Helbing/Bruno S. Frey/Gerd Gigerenzer/Ernst Hafen/Michael Hagner/Yvonne Hofstetter/Jeroen Van den Hoven/Roberto V. Zicari/Andrej Zwitter, Digitale Demokratie statt Datendiktatur, digma – Zeitschrift für Datenrecht und Informationssicherheit, 2015, S. 160 f.; Melinda F. Lohmann, Roboter als Wundertüten – eine zivil-rechtliche Haftungsanalyse, AJP, 2017, S. 152 ff.; Dario Stagno, Intelligente Agenten und das Recht: zur Verantwortlichkeit beim Einsatz von Robotern, Workshop am 15./16. Januar 2016 der Juristischen Fakultät Basel, Zeitschrift für juristische Weiterbildung und Praxis, 2016, S. 68 mit Verweis auf Herbert Zech; Zech (Fn. 2), S. 171.
  15. 15 Steve S. Lutzmann, Digitalisierung und Rechtssicherheit, Gesellschafts- und Kapitalmarktrecht, 2017, S. 383 f.; Santosuosso/Bottalico (Fn. 10), S. 31.
  16. 16 Beck (Fn. 1), S. 176 f.; dieselbe, Roboter und Cyborgs – erobern sie unsere Welt?, in: Dieselbe (Hrsg.), Jenseits von Mensch und Maschine, Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-Baden 2012, S. 14; Dienst/Falke (Fn. 5), S. 1003.
  17. 17 Europäisches Parlament, Plenarsitzungsdokument, Bericht, A8-0005/2017, mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik, 2015/2103(INL), Rechtsausschuss, 27. Januar 2017, S. 9.
  18. 18 Beck (Fn. 1), S. 178.
  19. 19 Susanne Beck, Der rechtliche Status autonomer Maschinen, AJP, 2017, S. 183 f.; dieselbe (Fn. 1), S. 183; Jonathan Erhardt/Martino Mona, Rechtsperson Roboter – Philosophische Grundlagen für den rechtlichen Umgang mit künstlicher Intelligenz, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 61; Gregor Fitzi, Roboter als «legale Personen» mit begrenzter Haftung. Eine soziologische Sicht., in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 380; Nadja Gross/Jacqueline Gressel, Entpersonalisierte Arbeitsverhältnisse als rechtliche Herausforderung – Wenn Roboter zu Kollegen und Vorgesetzten werden, Neue Zeitschrift für Arbeitsrecht, 2016, S. 995; Stagno (Fn. 14), S. 68 mit Verweis auf Zabel Benno; Axel Tschentscher, Basler Kommentar, Bundesverfassung, Basel 2015, N 8 zu Art. 10 BV.
  20. 20 Beck (Fn. 1), S. 178, 183; Günther (Fn. 2), S. 157; Jandach (Fn. 4), S. 5.
  21. 21 Jandach (Fn. 4), S. 5; Mishkoff (Fn. 5), S. 2, S. 4, S. 10; Richard E. Susskind, Expert Systems in Law, a jurisprudential inquiry, Oxford 1987, S. 7.
  22. 22 Mishkoff (Fn. 5), S. 10, 165.
  23. 23 Robert Siegler/Nancy Eisenberg/Judy De Loache/Jenny Saffran, in: Sabina Pauen (Hrsg.), Entwicklungspsychologie im Kindes- und Jugendalter, 4. Aufl., Berlin 2016, S. 105.
  24. 24 Malte-Christian Gruber, Rechtssubjekte und Teilrechtssubjekte des elektronischen Geschäftsverkehrs, in: Susanne Beck (Hrsg.), Jenseits von Mensch und Maschine, Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-Baden 2012, S. 159.
  25. 25 Günther (Fn. 2), S. 155 f.; Ruth Janal, Die deliktische Haftung beim Einsatz von Robotern – Lehren aus der Haftung für Sachen und Gehilfen, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 141, 150; Zech (Fn. 2), S. 187.
  26. 26 Günther (Fn. 2), S. 156; Zech (Fn. 2), S. 173.
  27. 27 Lisa Blechschmitt, Die straf- und zivilrechtliche Haftung des Arztes beim Einsatz roboterassistierter Chirurgie, Baden-Baden 2017, S. 32; Dienst/Falke (Fn. 5), S. 1002; Sylvain Métille/Nicolas Guyot, Le moment est venu de juridique aux robots, Plädoyer, 2015, S. 27; Zech (Fn. 2), S. 170.
  28. 28 Albert/Müller (Fn. 14), S. 45; Métille/Guyot (Fn. 27), S. 27; Gipfelpapier Künstliche Intelligenz (Fn. 7), S. 125.
  29. 29 Marcelo Dascal, Künstliche Intelligenz und Philosophie, in: Kai Buchholz/Shahid Rahman/Ingrid Weber (Hrsg.), Wege zur Vernunft, Philosophieren zwischen Tätigkeit und Reflexion, Frankfurt/Main 1999, S. 178; Kianička (Fn. 5), S. 66; Markwalder/Simmler (Fn. 1), S. 171 f.; Mishkoff (Fn. 5), S. 254; jeweils mit Hinweis auf «Turing-Test» von Alan Turin.
  30. 30 Wolfgang Kilian, Juristische Entscheidung und elektronische Datenverarbeitung, Methodenorientierte Vorstudie, Darmstadt 1974, S. 140; Zech (Fn. 2), S. 171.
  31. 31 Kianička (Fn. 5), S. 61.
  32. 32 Descartes René (1596-1650), Meditationes de prima philosophia, in qua Dei existentia et animae immortalitas demonstratur, 1641.
  33. 33 Flasiński (Fn. 7), S. 214 f.; Kianička (Fn. 5), S. 62; Mishkoff (Fn. 5), S. 7.
  34. 34 Dascal (Fn. 29), S. 170; Kilian (Fn. 30), S. 140; Markwalder/Simmler (Fn. 1), S. 171, 173; Mishkoff (Fn. 5), S. 7; Thomas Probst, Die Benutzung (teil-)autonomer Motorfahrzeuge im Strassenverkehr aus haftpflichtrechtlicher Sicht / I.–V., Strassenverkehrsrechts-Tagung 21.–22. Juni 2016, 2016, S. 1; René Rausenberger/Kristina Prenrecaj, Audit 4.0 – Digitale Wirtschaftsprüfung, Expert Focus, 2017, S. 779, 781.
  35. 35 Christian Armbrüster, Verantwortungsverlagerungen und Versicherungsschutz, Das Beispiel des automatisierten Fahrens, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 205 ff.; Blechschmitt (Fn. 27), S. 17, 23; Bruce G. Buchanan/Thomas E. Headrick, Understanding Artificial Intelligence, Some Speculation about Artificial Intelligence and Legal Reasoning, Stanford Law Review, Vol. 23, No. 1 (Nov., 1970), Stanford 1970, S. 40 ff.; Louis Burrus, Technologie et avocature: ROSS, Predictive Coding et Big Data, Revue de l’avocat, 2016, S. 327; Franca Contratto, Das Anlegerleitbild im Wandel der Zeiten, in: Rolf Sethe/Thorsten Hens/Hans Caspar Von der Crone/Rolf H. Weber (Hrsg.), SSFM – Schweizer Schriften zum Finanzmarktrecht Band/Nr. 108, Anlegerschutz im Finanzmarktrecht kontrovers diskutiert, Zürich 2013, S. 48; Martin Decker, Adaptive Robotik und Verantwortung, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 28 ff.; Gross/Gressel (Fn. 19), S. 990 ff.; Günther (Fn. 2), S. 155, 159, 162 f.; Jan-Philipp Günther, Quantensprung durch Roboter im Gesundheitsbereich, AJP, 2017, S. 265 f.; Dirk Hartung, Juristische Ausbildung in Zeiten der Digitalisierung, Anwaltsrevue, Das Praxismagazin des Schweizerischen Anwaltsverbandes, 2017, S. 257; Hartung (Fn. 4), S. 278 ff.; Sven Hötitzsch, Juristische Herausforderungen im Kontext von «Industrie 4.0» − Benötigt die vierte industrielle Revolution einen neuen Rechtsrahmen?, in: Eric Hilgendorf/Sven Hötitzsch (Hrsg.), Das Recht vor den Herausforderungen der modernen Technik, Beiträge der 1. Würzburger Tagung zum Technikrecht im November 2013, Baden-Baden 2015, S. 77, 85; Janal (Fn. 25), S. 141 f.; Rolf-Dieter Kargl, Rechtliche Implikationen bei einem automatisierten Vertragsabschluss – Machine to Machine (M2M), in: Jusletter IT 25. Februar 2016, S. 1 ff.; Minkyu Kim, Fahrerlose Transportsysteme: Gegenwärtige Lage und Rechtsprobleme autonomer Fahrzeuge in Korea, in: Eric Hilgendorf/Sven Hötitzsch (Hrsg.), Das Recht vor den Herausforderungen der modernen Technik, Beiträge der 1. Würzburger Tagung zum Technikrecht im November 2013, Baden-Baden 2015, S. 152; Peter Kurer, Wenn das Paradigma wechselt: Rechtsrisiken in der globalen Welt, GesKR – Gesellschafts- und Kapitalmarktrecht, 2015, S. 329, 334; Cordula Lötscher, Wenn das Auto den Laster nicht sieht, Verschiebung zivilrechtlicher Verantwortlichkeit aufgrund intelligenter Algorithmen?, in: Jusletter IT, 24. November 2016, S. 1 ff.; Lutzmann (Fn. 15), S. 383, 385; Thomas Puschmann/Rolf H. Weber, Neuerfindung des Finanzsektors?, SZW, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht, 2017, S. 79, 89; Quade, Digitale Rechtsabteilung: Und der Anwalt?, Anwaltsrevue, Das Praxismagazin des Schweizerischen Anwaltsverbandes, 2017, S. 281; Spranger/Wegmann, Öffentlich-rechtliche Dimensionen der Robotik, in: Susanne Beck (Hrsg.), Jenseits von Mensch und Maschine, Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-Baden 2012, S. 105 f., 116; Stagno (Fn. 14), S. 66; Jochen J. Steil/Stefan Krüger, Lernen und Sicherheit in Interaktion mit Robotern aus Maschinensicht, in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 51; Isabelle Wildhaber, Robotik am Arbeitsplatz: Robo-Kollegen und Robo-Bosse, AJP, 2017, S. 213 ff.; Zech (Fn. 2), S. 163, 165, 174; Bericht Europäisches Parlament (Fn. 17), S. 14 ff.; Gipfelpapier Künstliche Intelligenz (Fn. 7), S. 59 f.; Künstliche Intelligenz: Wenn Roboter Verträge schliessen, Informationsblatt, 29. August 2017, Noerr LLP, S. 1.
  36. 36 Jochen Hanisch, Zivilrechtliche Haftungskonzepte für Robotik, in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 114; Lohmann (Fn. 14), S. 152, 157; Spranger/Wegmann (Fn. 35), S. 105.
  37. 37 Lohmann (Fn. 14), S. 152, 157 f.; Uwe Seidel, Industry 4.0 and Law – Experiences from Autonomics, in: Eric Hilgendorf/Uwe Seidel (Hrsg.), Robotics, Autonomics, and the Law, Legal issues arising from the Autonomics for Industry 4.0 Technology Programme of the German Federal Ministry for Economic Affairs and Energy, Baden-Baden 2017, S. 25; Zech (Fn. 2), S. 189.
  38. 38 Zech (Fn. 2), S. 173, 189.
  39. 39 Malte-Christian Gruber, Zumutung und Zumutbarkeit von Verantwortung in Mensch-Maschine-Assoziationen, Ein Beitrag zur zivilrechtlichen Entwicklung der Roboterhaftung, in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 126.
  40. 40 Stefan Renggli/Patrick Balmer, Automatisierung der Buchhaltung, Expert Focus, 2017, S. 821; Santosuosso/Bottalico (Fn. 10), S. 27; Gerald Spindler, Roboter, Automation, künstliche Intelligenz, selbst-steuernde Kfz – Braucht das Recht neue Haftungskategorien?, in: CR 2015, S. 766.
  41. 41 Freytag (Fn. 10), S. 111, 119; Zech (Fn. 2), S. 169, 173.
  42. 42 Freytag (Fn. 10), S. 111, 118; Daniel M. Häusermann, Autonome Systeme im Rechtskleid der Kapitalgesellschaft, AJP, 2017, S. 204, 209; Mark Seibel, Abgrenzung der «allgemein anerkannten Regeln der Technik» vom «Stand der Technik», Neue Juristische Wochenschrift, 2013, S. 3000 ff.: «Stand von Wissenschaft und Technik», europarechtlich auch «best available techniques», mit Hinweis auf § 3 VI a – VI d BImSchG und abzugrenzen von «allgemein anerkannten Regeln der Technik» und «Stand der Technik»; Herbert Zech, Gefährdungshaftung und neue Technologien, Juristen Zeitung, 2013, S. 23; vgl. Art. 5 Abs. 1 lit. e PrHG sowie § 1 Abs. 2 Nr. 5 des ProdHaftG.
  43. 43 Freytag (Fn. 10), S. 111, 114; Seibel (Fn. 42), S. 3000.
  44. 44 Freytag (Fn. 10), S. 111, 119.
  45. 45 Kilian (Fn. 30), S. 149; Steil/Krüger (Fn. 35), S. 64; Robert (Fn. 9), S. 36 f.
  46. 46 Günther (Fn. 2), S. 163; Lohmann (Fn. 14), S. 152, 154.
  47. 47 Jandach (Fn. 4), S. 212; Kilian (Fn. 30), S. 149; Puschmann/Weber (Fn. 35), S. 79, 93.
  48. 48 Probst (Fn. 34), S. 12.
  49. 49 Sascha Briner, Die Revolution des Brokergeschäfts und deren Folgen, Haftung und Versicherung, Zürich 2017, S. 372, 378.
  50. 50 Informationsblatt Noerr LLP (Fn. 35), S. 3.
  51. 51 Kianička (Fn. 5), S. 62.
  52. 52 Beck (Fn. 16), S. 15; Informationsblatt Noerr LLP (Fn. 35), S. 2.
  53. 53 Beck (Fn. 1), S. 173, 175 ff.; dieselbe (Fn. 16), S. 10 ff.; Markwalder/Simmler (Fn. 1), S. 171 f.; Schmauks/Weber (Fn. 1), S. 194; Zech (Fn. 2), S. 194.
  54. 54 Beck (Fn. 1), S. 175 ff.; Dascal (Fn. 29), S. 162, 178; Günther (Fn. 2), S. 157.
  55. 55 Beck, (Fn. 1), S. 176 f., 182; dieselbe, Über Sinn und Unsinn von Statusfragen – zu Vor- und Nachteilen der Einführung einer elektronischen Person, in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 254.
  56. 56 Beck (Fn. 1), S. 177, 182.
  57. 57 Günther (Fn. 2), S. 156, 160.
  58. 58 Beck (Fn. 1), S. 176 f.
  59. 59 Bericht Europäisches Parlament (Fn. 17), S. 33 f.
  60. 60 Gross/Gressel (Fn. 19), S. 995.
  61. 61 Kurer (Fn. 35), S. 329 f., S. 333.
  62. 62 Gruber (Fn. 39), S. 136; Hanisch (Fn. 36), S. 109.
  63. 63 Freytag (Fn. 10), S. 111, 113, 115; Günther (Fn. 2), S. 169; Verantwortlichkeiten von IT-Herstellern, Nutzern und Intermediären, Studie im Auftrag des BSI durchgeführt von Prof. Dr. Gerald Spindler, Universität Göttingen, Bonn 2007, S. 65.
  64. 64 Gross/Gressel (Fn. 19), S. 995.
  65. 65 Briner (Fn. 49), S. 372, 376, 380; Seidel (Fn. 37), S. 18; Zech (Fn. 2), S. 182.
  66. 66 Elbert R. De Jong, Regulating Uncertain Risks in an Innovative Society: A Liability Law Perspective, in: Eric Hilgendorf/Jan-Philipp Günther (Hrsg.), Robotik und Gesetzgebung, Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden 2013, S. 179; Spranger/Wegmann (Fn. 35), S. 113, 115; Herbert Zech, Haftungsregeln als Instrument zur Steuerung von «emerging risks», in: Fuhrer Stephan (Hrsg.), Jahrbuch SGHVR 2016, Zürich 2016, S. 18.
  67. 67 Hanisch (Fn. 9), S. 58; Janal (Fn. 25), S. 155; Zech (Fn. 2), S. 179.
  68. 68 Briner (Fn. 49), S. 372, 375.
  69. 69 Bayern et al. (Fn. 4), S. 192, 200; Günter Karjoth, Ist auf unsere digitalen Assistenten Verlass?, digma – Zeitschrift für Datenrecht und Informationssicherheit, 2017, S. 122, 126; Kianička (Fn. 5), S. 8, 267; Rausenberger/Prenrecaj (Fn. 34), S. 779, 781.
  70. 70 Albert/Müller (Fn. 14), S. 29; Briner (Fn. 49), S. 372, 374; Helbing et al. (Fn. 14), S. 160 f.; Rausenberger/Prenrecaj (Fn. 34), S. 779, 781.
  71. 71 Jan Seffinga/Marco Grossi/Andreas Bachmann/Thierry Hediger, Blockchain in der Praxis, Expert Focus, 2017, S. 811 f.
  72. 72 Pierre-Yves Greber, La sécurité sociale face aux mutations actuelles du travail, Schweizerische Zeitschrift für Sozialversicherung und berufliche Vorsorge, 2000, S. 391, 396 f. mit Verweis auf Morin Pierre «la mutation du travail»; Martin Nay/Daniel Gwerder, Wie die digitale Transformation von KMU die Wirtschaftsprüfung verändert, Expert Focus, 2017, S. 784; Puschmann/Weber (Fn. 35), Neuerfindung des Finanzsektors?, SZW, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht, 2017, S. 79 ff.; Seffinga et al. (Fn. 71), S. 811 f.
  73. 73 Nay/Gwerder (Fn. 72), S. 784 f.; vgl. BGH, Urteil vom 13. Juni 2006 – VI ZR 323/04.
  74. 74 Seffinga et al. (Fn. 71), S. 811.
  75. 75 Mark Meuldijk/Toni Wattenhofer, Auswirkungen der Digitalisierung auf den Beruf des Wirtschaftsprüfers, Expert Focus, 2017, S. 766; Puschmann/Weber (Fn. 35), S. 79, 81, 83.
  76. 76 Freytag (Fn. 10), S. 111 ff., 117; Janal (Fn. 25), S. 155; Lohmann (Fn. 14), S. 152, 157 f., 162; Nay/Gwerder (Fn. 72), S. 784; Zech (Fn. 2), S. 179; Gipfelpapier Künstliche Intelligenz (Fn. 7), S. 125.
  77. 77 Briner (Fn. 49), S. 372, 375.
  78. 78 Freytag (Fn. 10), S. 111 f.; Eric Hilgendorf, Automated Driving and the Law, in: Eric Hilgendorf/Uwe Seidel (Hrsg.), Robotics, Autonomics, and the Law, Legal issues arising from the Autonomics for Industry 4.0 Technology Programme of the German Federal Ministry for Economic Affairs and Energy, Baden-Baden 2017, S. 189.
  79. 79 Hanisch (Fn. 9), S. 60.
  80. 80 Alfred Koller, OR AT Schweizerisches Obligationenrecht Allgemeiner Teil, 4. Aufl., Bern 2017, Rn. 54.89.
  81. 81 Robert (Fn. 9), S. 248; a.M.: Briner (Fn. 49), S. 372, 380.
  82. 82 Bayern et al. (Fn. 4), S. 192, 198; Beck (Fn. 19), S. 183 f.; Karjoth (Fn. 69), S. 122; Lohmann (Fn. 14), S. 152, 156; Puschmann/Weber (Fn. 35), S. 79, 83.
  83. 83 Freytag (Fn. 10), S. 111, 117; Helbing (Fn. 14), S. 21; Wildhaber (Fn. 35), S. 213, 222.
  84. 84 Robert (Fn. 9), S. 156.
  85. 85 Zech (Fn. 2), S. 172.
  86. 86 Wildhaber (Fn. 35), S. 213, 215.
  87. 87 Flasiński (Fn. 7), S. 232 f.; Zech (Fn. 2) S. 171, 175.
  88. 88 Leo Staub/Bruno Mascello/Nico Koch/Martin Bello/Matthias Lichtbau, Wirtschaftliche Trends in ausgewählten Branchen Deutschlands und ihre Auswirkungen auf das Wachstum von Anwaltskanzleien / I.–II., in: Leo Staub (Hrsg.), Law & Management Praxis Band/Nr. 4, Beiträge zu aktuellen Themen an der Schnittstelle zwischen Recht und Betriebswirtschaft II, Zürich 2016, S. 19 f.; Zech (Fn. 42), S. 21.
  89. 89 Staub et al. (Fn. 88), S. 19 f.
  90. 90 Freytag (Fn. 10), S. 111, 117; Hanisch (Fn. 36), S. 120.
  91. 91 Kianička (Fn. 5), S. 2, 59, 211.
  92. 92 Bayern et al. (Fn. 4), S. 192, 194 ff.; Freytag (Fn. 10), S. 111, 118; Kianička (Fn. 5), S. 63; Lohmann (Fn. 14), S. 152, 159 f.; Florina Melinda Müller, Roboter und Recht, AJP, 2014, S. 595, 602; Bruno Schmidlin, Das Schweizer Obligationenrecht 2020, Eine kritische Stellungnahme, in: Schweizerische Juristen-Zeitung, 2015, S. 25, 30 f.; Damian P. Stocker, Die Rechtsfähigkeit der Stockwerkeigentümergemeinschaft (StWEG), Wann muss die StWEG klagen bzw. beklagt werden und wann die Stockwerkeigentümer? / 3.–5., Weiterbildung Recht, Luzerner Tag des Stockwerkeigentums 2016, Tagung vom 22. November 2016 in Luzern, 2016, S. 201; Wildhaber (Fn. 35), S. 213, 215 f., 218.
  93. 93 Bayern et al. (Fn. 4), S. 192, 196; Briner (Fn. 49), S. 372, 376, 380; Freytag (Fn. 10), S. 111, 113 f., 116, 119; Häusermann (Fn. 42), S. 204, 210; Michael Isler, Meine Daten machen meinen Preis, digma – Zeitschrift für Datenrecht und Informationssicherheit, 2015, S. 18, 21; Lohmann (Fn. 14), S. 152, 155 ff.; Müller (Fn. 92), S. 595, 599, 601, 604; Thomas Probst, Das Recht im Spannungsfeld von Sprache, Geist, Gesellschaft, Wirtschaft und Technik: Gedanken zur Phänomenologie des Rechts, Zeitschrift für Schweizerisches Recht, 2017, S. 26 f.; Wildhaber (Fn. 35), S. 213, 216 f., 219, 223.
  94. 94 Freytag (Fn. 10), S. 111, 114, 116; Claire Huguenin/Reto M. Hilty in: Claire Huguenin/Reto M. Hilty (Hrsg.), Schweizer Obligationenrecht 2020, Zürich 2013, Einleitung vor Art. 1 ff., N 18 f., 45 ff.; Kianička (Fn. 5), S. 6 f.
  95. 95 Kianička (Fn. 5), S. 72.
  96. 96 Hanisch (Fn. 9), S. 39; Robert (Fn. 9), S. 249 f., 273, dieser lehnt deshalb eine analoge Anwendung des § 278 grundsätzlich ab, es sei denn, das Organisationsversagen des Geschäftsherrn sei im konkreten Fall einschlägig, da dann nicht das Verschulden der Hilfsperson ausschlaggebend sei.
  97. 97 Günther (Fn. 2), S. 163 f.
  98. 98 Andreas Furrer/Markus Müller-Chen, Obligationenrecht, Allgemeiner Teil, 3. Aufl., Zürich 2018, S. 365; Koller (Fn. 80), Rn. 54.110: «hypothetisches Verschulden» entgegen dem Wortlaut auch bei § 278 Satz 1 BGB.
  99. 99 Günther (Fn. 2), S. 165 ff.; Janal (Fn. 25), S. 151 f.; Informationsblatt Noerr LLP (Fn. 35), S. 2; Robert (Fn. 9), S. 273: «planwidrige Regelungslücke», S. 389.
  100. 100 Janal (Fn. 25), S. 152 m.w.H. sowie mit Verweis auf BGH, Urteil vom 14. Februar 1989 – VI ZR 121/88 und BGH, Urteil vom 16. Dezember 1953 – II ZR 41/53.
  101. 101 Dienst/Falke (Fn. 5), S. 1025 f.
  102. 102 Briner (Fn. 49), S. 372, 380; Freytag (Fn. 10), S. 111, 118.
  103. 103 Gross/Gressel (Fn. 19), S. 995.
  104. 104 Landgericht Münster, Urteil vom 28. September 2015 – 02 O 374/14; Oberlandesgericht Köln, Urteil vom 27. Januar 1994 – 1 U 52/93; BGH, Urteil vom 12. Februar 1963 – VI ZR 70/62.
  105. 105 Gross/Gressel (Fn. 19), S. 996.
  106. 106 Landgericht Münster, Urteil vom 28. September 2015 – 02 O 374/14; Oberlandesgericht Köln, Urteil vom 27. Januar 1994 – 1 U 52/93; BGH, Urteil vom 12. Februar 1963 – VI ZR 70/62; Hanisch (Fn. 36), S. 112; Robert (Fn. 9), S. 247, 272.
  107. 107 Dienst/Falke (Fn. 5), S. 1024; Robert (Fn. 9), S. 255, 257.
  108. 108 Bericht Europäisches Parlament (Fn. 17); Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions, Artificial Intelligence for Europe, Brussels, COM(2018) 237 final, 25. April 2018; Declaration Cooperation on Artificial Intelligence, Digital Day, 10. April 2018.
  109. 109 European Commission, Fact Sheet, A European approach on Artificial Intelligence, Questions and Answers, Brussels, 25. April 2018; Artificial Intelligence for Europe (Fn. 108), S. 2.
  110. 110 European Commission, Fact Sheet, A European approach on Artificial Intelligence (Fn. 109), S. 2.
  111. 111 Declaration Cooperation on Artificial Intelligence (Fn. 108), S. 4.
  112. 112 Declaration Cooperation on Artificial Intelligence (Fn. 108), S. 5.
  113. 113 European Commission, Fact Sheet, A European approach on Artificial Intelligence (Fn. 109), S. 1, 3.
  114. 114 Artificial Intelligence for Europe (Fn. 108), S. 14.
  115. 115 Artificial Intelligence for Europe (Fn. 108), S. 16.
  116. 116 Artificial Intelligence for Europe (Fn. 108), S. 17.
  117. 117 Artificial Intelligence for Europe (Fn. 108), S. 16, m.w.H.
  118. 118 European Commission, Fact Sheet, A European approach on Artificial Intelligence (Fn. 109), S. 3.
  119. 119 Artificial Intelligence for Europe (Fn. 108), S. 4.
  120. 120 European Commission, Fact Sheet, A European approach on Artificial Intelligence (Fn. 109), S. 2.
  121. 121 European Commission, Fact Sheet, A European approach on Artificial Intelligence (Fn. 109), S. 3.
  122. 122 Erhardt/Mona (Fn. 19), S. 72; Janal (Fn. 25), S. 142, 154, 157 f.
  123. 123 Gerhard Seher, Intelligente Agenten als «Personen» im Strafrecht?, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 48.
  124. 124 Günther (Fn. 2), S. 159; Robert (Fn. 9), S. 305; vgl. Art. 3 Abs. 1 PrHG.
  125. 125 Probst (Fn. 34), S. 5.
  126. 126 Probst (Fn. 34), S. 5.
  127. 127 Erhardt/Mona (Fn. 19), S. 72; Peter Gauch/Walter R. Schluep/Jörg Schmid/Susan Emmenegger, Schweizerisches Obligationenrecht Allgemeiner Teil, 10. Aufl., Zürich 2014, Rn. 2643; Sabine Gless, Strafrechtliche Verantwortung für hoch-automatisiertes Fahren, in: Sabine Gless/Kurt Seelmann (Hrsg.), Intelligente Agenten und das Recht, Baden-Baden 2016, S. 228; Günther (Fn. 2), S. 155 f.; Robert (Fn. 9), S. 251; Ingeborg Schwenzer, Schweizerisches Obligationenrecht, 7. Aufl., Bern 2016, Rn. 4.23.
  128. 128 Günther (Fn. 2), S. 156, 168; Zech (Fn. 42), S. 27.
  129. 129 Hanisch (Fn. 36), S. 116; Lohmann (Fn. 14), S. 152, 157; Seidel (Fn. 37), S. 17.
  130. 130 Beck (Fn. 1), S. 175; Markus Müller-Chen in: Claire Huguenin/Reto M. Hilty (Hrsg.), Schweizer Obligationenrecht 2020, Zürich 2013, Art. 119, N 5.
  131. 131 Furrer/Müller-Chen (Fn. 98), S. 365; Schwenzer (Fn. 127), Rn. 23.02.
  132. 132 Hanisch (Fn. 36), S. 114, 120; Leander D. Loacker, Durchsetzungsprobleme der Haftung für emerging risks am Beispiel der Beweisführung, in: Fuhrer Stephan (Hrsg.), Jahrbuch SGHVR 2016, Zürich 2016, S. 70; Schwenzer (Fn. 127), Rn. 23.22.
  133. 133 Freytag (Fn. 10), S. 111, 118; Zech (Fn. 42), S. 21, 24.
  134. 134 BGE 110 II 456 S. 460 E. 2; Schwenzer (Fn. 127), Rn. 23.02, 23.13; a.M.: Furrer/Müller-Chen (Fn. 98), S. 365; Martin Kessler in: Heinrich Honsell/Peter Nedim Vogt/Wolfgang Wiegand (Hrsg.), Basler Kommentar, Obligationenrecht I., Art. 1–529 OR, 6. Aufl., Basel 2015, Art. 55 N 1; Koller (Fn. 80), Rn. 54.110.
  135. 135 Loacker (Fn. 132), S. 70; Zech (Fn. 42), S. 29.
  136. 136 Gruber (Fn. 39), S. 137; Hanisch (Fn. 9), S. 36.
  137. 137 De Jong (Fn. 66), S. 163; Freytag (Fn. 10), S. 111, 118; Hötitzsch (Fn. 35), S. 81; Robert (Fn. 9), S. 284; Zech (Fn. 42), S. 21 f.; Zech (Fn. 66), S. 29.
  138. 138 Müller-Chen (Fn. 130), Art. 119, N 1; Zech (Fn. 42), S. 26, 28.
  139. 139 Zech (Fn. 42), S. 23; Zech (Fn. 66), S. 29; a.M.: Hanisch (Fn. 36), S. 116.
  140. 140 Walter Fellmann/Christoph Müller/Franz Werro, in: Claire Huguenin/Reto M. Hilty (Hrsg.), Schweizer Obligationenrecht 2020, Zürich 2013, Art. 58, N 2; Müller-Chen (Fn. 130), Art. 119, N 1; Zech (Fn. 42), S. 23 f.; BGE 110 II 456 S. 460 E. 2 f.
  141. 141 Freytag (Fn. 10), S. 111, 119.
  142. 142 Zech (Fn. 42), S. 29.
  143. 143 Müller-Chen (Fn. 130), Art. 119, N 5; Zech (Fn. 42), S. 22.
  144. 144 Gruber (Fn. 39), S. 155.
  145. 145 Gruber (Fn. 39), S. 155 f.; Robert (Fn. 9), S. 285.
  146. 146 Zech (Fn. 42), S. 26, 29; Zech (Fn. 66), S. 29.
  147. 147 Siehe BGE 131 III 61 S. 66 E. 2.3; Robert (Fn. 9), S. 283; Zech (Fn. 42), S. 28.
  148. 148 Freytag (Fn. 10), S. 111, 118 f.; Robert (Fn. 9), S. 352; Zech (Fn. 42), S. 27.
  149. 149 Zech (Fn. 42), S. 26, 29; Zech (Fn. 66), S. 34.
  150. 150 Freytag (Fn. 10), S. 111, 119, 121; Zech (Fn. 42), S. 25 f.; Zech (Fn. 66), S. 19.
  151. 151 Freytag (Fn. 10) S. 111, 119; Zech (Fn. 42), S. 23; Zech (Fn. 66), S. 31.
  152. 152 Gruber (Fn. 39), S. 156; Zech (Fn. 42), S. 23, 26.
  153. 153 Bernhard Stehle, Präjudizienbuch OR, Die Rechtsprechung des Bundesgerichts (1875-2015), 9. Aufl., Bern 2016, S. 37 mit Verweis auf Art. 5 Abs. 2 ZGB.
  154. 154 Zech (Fn. 42), S. 27.
  155. 155 Freytag (Fn. 10), S. 111, 118.
  156. 156 Briner (Fn. 49), S. 372, 380; Freytag (Fn. 10), S. 111, 118.
  157. 157 Beck (Fn. 19), S. 183, 186, 189; BSK BV-Tschentscher (Fn. 19), N 8 zu Art. 10 BV.
  158. 158 Kianička (Fn. 5), S. 61 ff.
  159. 159 Fellmann/Müller/Werro (Fn. 140), Art. 58, N 1, 6.
  160. 160 Roland Brehm in: Heinz Hausheer (Hrsg.), Berner Kommentar, Kommentar zum schweizerischen Privatrecht, Das Obligationenrecht, Allgemeine Bestimmungen, Die Folgen der Nichterfüllung, Art. 97-109 OR, Bern 2000, Art. 55 N 40a; Freytag (Fn. 10), S. 111, 119; Koller (Fn. 80), Rn. 54.111; Schwenzer (Fn. 127), Rn. 23.11a; Rolf H. Weber in: Heinz Hausheer (Hrsg.), Berner Kommentar, Kommentar zum schweizerischen Privatrecht, Das Obligationenrecht, Allgemeine Bestimmungen, Die Folgen der Nichterfüllung, Art. 97–109 OR, Bern 2000, Art. 101 N 134 f.
  161. 161 Gross/Gressel (Fn. 19), S. 991; Janal (Fn. 25), S. 150; Kianička (Fn. 5), S. 62.
  162. 162 Gerald Spindler, Zivilrechtliche Fragen beim Einsatz von Robotern, in: Eric Hilgendorf (Hrsg.), Robotik im Kontext von Recht und Moral, Baden-Baden 2014, S. 79; vgl. BGH, Urteil vom 21. Januar 2010 – III ZR 147/09.
  163. 163 Janal (Fn. 25), S. 141.
  164. 164 Janal (Fn. 25), S. 142.
  165. 165 Dienst/Falke (Fn. 5), S. 1014, mit Verweis auf BGH, Urteil vom 7. November 2001 – VIII ZR 13/01; vgl. Art. 54 OR.
  166. 166 Kianička (Fn. 5), S. 53.
  167. 167 Janal (Fn. 25), S. 156.
  168. 168 Beck (Fn. 19), 183, 189; dieselbe (Fn. 16), S. 16; Lohmann (Fn. 14), S. 152, 162.
  169. 169 Kianička (Fn. 5), S. 64; a.M.: Freytag (Fn. 10), S. 111, 118.
  170. 170 Beck (Fn. 19), S. 183, 189 mit Verweis auf Art. 19 GG; BGE 95 II 481 sowie Art. 52 ff. ZGB.
  171. 171 Kianička (Fn. 5), S. 71; Métille/Guyot (Fn. 27), S. 27.
  172. 172 Gauch et al. (Fn. 127), Rn. 3018; Lohmann (Fn. 14), S. 152, 155.
  173. 173 Beck (Fn. 19), S. 183, 190.
  174. 174 Beck (Fn. 19), S. 183, 190; Meuldijk/Wattenhofer (Fn. 75), S. 766.
  175. 175 Bayern et al. (Fn. 4), S. 192, 194, 196; Häusermann (Fn. 42), S. 204 f.
  176. 176 Bayern et al. (Fn. 4), S. 192, 194, 196 f., mit Verweis auf die sog. «Keinmanngesellschaft», sowie mit Verweis auf Art. 120 HRegV und Art. 84 ZGB.
  177. 177 Urteil des BVerfG vom 12. Januar 2016 – 1 BvR 3102/13.
  178. 178 Bayern et al. (Fn. 4), S. 192, 198 mit Verweis auf das Urteil des BVerfG vom 12. Januar 2016 – 1 BvR 3102/13 (im Ergebnis zwar verneinend, siehe aber anschaulich Begründung).
  179. 179 BGE 139 III 24 S. 26 E. 3.2.
  180. 180 Häusermann (Fn. 42), S. 204, 210 mit Verweis auf BGE 139 III 24; Urteil des Bundesgerichts 4A_626/2013 vom 8. April 2014 E. 5.1.
  181. 181 Günther (Fn. 2), S. 169.
  182. 182 Albert/Müller (Fn. 14), S. 47; Isler (Fn. 93), S. 18; Lohmann (Fn. 14), S. 152, 157, 161 m.w.H.; Nay/Gwerder (Fn. 72), S. 784, 788; vgl. BGH, Urteil vom 17. März 1981 – VI ZR 191/79.
  183. 183 Nay/Gwerder (Fn. 72), S. 784, 788.
  184. 184 Rausenberger/Prenrecaj (Fn. 34), S. 779, 781 f.
  185. 185 Rausenberger/Prenrecaj (Fn. 34), S. 779, 782.
  186. 186 Stefan Burschka, Technik, Der Schutz komplexer Infrastrukturen, digma – Zeitschrift für Datenrecht und Informationssicherheit, 2004, S. 130 f.
  187. 187 Burschka (Fn. 186), S. 130, 132; Freytag (Fn. 10), S. 111, 118.
  188. 188 Martin Werner, Datenschutz in ortsbasierten Diensten, digma – Zeitschrift für Datenrecht und Informationssicherheit, 2011, S. 54 f.
  189. 189 Seffinga et al. (Fn. 71), S. 811, 819.
  190. 190 Freytag (Fn. 10), S. 111 f.; Quade (Fn. 35), S. 281 f.; Klaus Spremann, Die Informationsrevolution: Informatik, Globalisierung und Souveränität / Informationstechnologie und Finanzmärkte, Finanzmärkte im Banne von Big Data, 2012, S. 26; Entscheid der Eidgenössischen Rekurskommission für Forschungsförderung vom 8. November 1993.
  191. 191 Günther (Fn. 35), S. 265 f. mit Verweis auf Landolt Hardy.
  192. 192 Helbing (Fn. 14), S. 52 f.; Kurer (Fn. 35), S. 329 ff.; Markwalder/Simmler (Fn. 1), S. 171, 182.
  193. 193 Probst (Fn. 34), S. 6.
  194. 194 Meuldijk/Wattenhofer (Fn. 75), S. 766, 769, 772; Nay/Gwerder (Fn. 72), S. 784, 788.
  195. 195 Freytag (Fn. 10), S. 111, 115; Rausenberger/Prenrecaj (Fn. 34), S. 779 f.
  196. 196 Huguenin/Hilty (Fn. 94), Einleitung vor Art. 1 ff., N 33; Robert (Fn. 9), S. 273.
  197. 197 Beck (Fn. 55), S. 254; Hanisch (Fn. 9), S. 53; Spranger/Wegmann (Fn. 35), S. 118.
  198. 198 Rausenberger/Prenrecaj (Fn. 34), S. 779, 782.
  199. 199 Lutzmann (Fn. 15), S. 383; Puschmann/Weber (Fn. 35), S. 79, 83; Rausenberger/Prenrecaj (Fn. 34), S. 779, 783.
  200. 200 Kurer (Fn. 35), S. 329, 334.
  201. 201 Huguenin/Hilty (Fn. 94), Einleitung vor Art. 1 ff., N 4.
  202. 202 Postulate 13.3217 vom 21. März 2013 und 13.3226 vom 21. März 2013; Medienmitteilung des EJPD vom 31. Januar 2018 (https://www.admin.ch/gov/de/start/dokumentation/medienmitteilungen.msg-id-69649.html, alle Websites aufgerufen am 8. April 2018).
  203. 203 Lohmann (Fn. 14), S. 152, 161; Zech (Fn. 66), S. 32 f.
  204. 204 Medienmitteilung des EJPD vom 31. Januar 2018 (Fn. 202).
  205. 205 Medienmitteilung des EJPD vom 21. Januar 2009 (https://www.bj.admin.ch/bj/de/home/aktuell/news/2009/ref_2009-01-21.html).
  206. 206 Kianička (Fn. 5), S. 8 mit Verweis auf die Medienmitteilung des EJPD vom 9. November 2005 (https://www.admin.ch/gov/de/start/dokumentation/medienmitteilungen.msg-id-24191.html).
  207. 207 Melinda F. Lohmann, Ein europäisches Roboterrecht – überfällig oder überflüssig?, ZRP, 2017, S. 171.
  208. 208 Hilgendorf (Fn. 78), S. 173.
  209. 209 Beck (Fn. 16), S. 17; Kurer (Fn. 35), S. 329, 335; Lutzmann (Fn. 15), S. 383.
  210. 210 Lutzmann (Fn. 15), S. 383, 385 f.; Puschmann/Weber (Fn. 35), S. 79, 94.