Jusletter IT

L’emploi de l’intelligence artificielle dans le domaine des CorpTech

  • Authors: Fabian Teichmann / Léonard Gerber
  • Category of articles: Beitrag
  • Region: Switzerland, EU
  • Field of law: Artificial intelligence
  • DOI: 10.38023/57e87d3d-a582-46fd-bdcf-3664fbc429db
  • Citation: Fabian Teichmann / Léonard Gerber, L’emploi de l’intelligence artificielle dans le domaine des CorpTech, in: Jusletter IT 25 February 2021
This article illustrates recent trends of artificial intelligence in the corporate field. In a context of labor automation, AI applications are flourishing over the years. AI applications are being implemented at the level of management, human ressources and even directorial functions, notably since the nomination of an AI-algorithm in a hongkongese venture capital fund in 2014. Optimism in IA applications should nevertheless be restrained by the awareness of it’s technical as well as legal boundaries. Advanced knowledge about the potential and boundaries of AI should guide the legislator in his regulatory approach.

Inhaltsverzeichnis

  • I. Introduction
  • II. Aspects techniques
  • III. Initiatives CorpTech
  • a. Limites techniques
  • b. Limites juridiques
  • IV. Perspectives de l’IA

I.

Introduction ^

[1]

Le monde académique en matière de droit commercial fait actuellement l’éloge de l’engagement de l’intelligence artificielle (ci-après IA) dans les comités directeurs des entreprises et des robot-directeurs.1 Il est essentiellement attribué deux avantages compétitifs à l’IA face aux directeurs humains dans la direction des sociétés.2 Si d’une part, l’IA permettrait un traitement plus efficace des données historiques associés à une entreprises, il leur est surtout attribué la capacité de remplacer les directeurs dans les tâches considérées comme trop exigeantes pour les êtres humains en offrant des décisions plus optimisées sur la base de ces données.3

[2]

Cet article décrit brièvement l’aspect technique de l’intelligence artificielle (II), avant de présenter des initiatives privées d’entreprises appliquant l’IA dans le domaine décisionnel, des ressources humaines et de la compliance (III). Il défend également que l’optimisme pour les CorpTech doit être tempéré par une prise de conscience de la part des directeurs des limites actuelles de la technologie. Ces limites sont essentiellement de deux ordres, à savoir un ordre technique d’une part (IV), ainsi qu’un ordre juridique d’autre part (V). Il sera enfin plus particulièrement question de l’admissibilité d’un robot au comité directeur en droit suisse (V), avant de conclure (VI).

II.

Aspects techniques ^

[3]

Au vu des développements actuels en matière d’IA et de machine learning, le rôle de l’être humain et des travailleurs est profondément remis en question notamment dans un contexte d’automatisation des tâches et du travail. C’est précisément le but des CorpTech de déterminer comment engager les nouvelles technologies dans un cadre sociétal (en anglais Corporate Technologies).4 En ce qui concerne l’intelligence artificielle, il était prévisible que des sociétés s’interrogent également sur l’engagement de l’IA auprès du management voire même auprès des comités directeurs ou conseil d’administration.5 Des auteurs comme Möslein parlent de robot-directeurs destinés par exemple à épauler les directeurs dans la gestion des sociétés et la prise de décision.6 Avant de comprendre les avantages et les limites des robot-directeurs, il est important de traiter de l’intelligence artificielle et de ses trois catégories clés.

[4]

S’agissant de la notion d’intelligence artificielle, aucune définition ne fait actuellement consensus en raison de la multitude de publications et de définitions employées dans la littérature.7 Dérivé de la définition historique d’Alan Turing, on peut néanmoins considérer que le développement d’algorithmes dont l’objectif consiste à répliquer le mode de pensée d’un expert humain relève du domaine de l’intelligence artificielle.8 Il peut ainsi s’agir de la reconnaissance et la résolution de tâches de la vie quotidienne à l’aide d’algorithmes.9 La littérature recense essentiellement trois types d’intelligence artificielle, à savoir l’IA étroite, l’IA générale ainsi que la super intelligence.10

[5]

L’IA étroite regroupe les algorithmes ayant pour objectif de traiter d’une tâche particulière donnée, mais s’avérant incapable de s’adapter à de nouveaux environnements ou contextes.11 Il en va ainsi par exemple, d’une calculatrice ou du programme d’échec développé par IBM Deep Blue. Au contraire, l’IA générale regroupe les systèmes à même de résoudre différents types de problèmes et capable de raisonner en s’adaptant à différents environnements et contextes, sans interventions humaines au même titre que le ferait un expert humain.12 La super intelligence quant à elle comprend les systèmes pouvant dépasser les êtres humains en termes de créativité scientifique, de jugement, de prudence et de compétences sociales.13 L’apprentissage par la machine ou machine learning se décrit comme la génération algorithmique de connaissances à travers le traitement des données tirées de l’expérience.14 En d’autres termes, la machine analyse elle-même les inputs et les outputs pour faire ses propres corrélations et équations et optimiser son processus décisionnel.15

[6]

En ce qui concerne les robot-directeurs, Möslein recense trois types d’IA selon le degré de supervision du robot par un être humain et de l’allocation du pouvoir de décision entre la machine et le superviseur humain.16 Dans l’IA assisté, la machine offre une recommandation de vote qui lui est consacrée, alors que le pouvoir de décision reste auprès du superviseur humain.17 Dans l’IA augmentée, le superviseur et la machine partagent le pouvoir de décision et apprenne des feedbacks des uns des autres.18 Dans l’IA autonome la machine prend toutes les décisions en raison de la quantité trop volumineuse de données traitées pour le superviseur soit en raison de la confiance conférée en l’IA.19

[7]

Essentiellement, les robot-directeurs offrent une solution aux défauts inhérents des humains et de leurs décisions dans un cadre sociétal.20 D’une part, l’IA serait en mesure de remplacer les humains dans les tâches considérées comme trop difficiles pour eux.21 L’emploi de robot-directeurs permet également d’effacer les risques de comportement opportuniste de la part des directeurs.22 D’autre part, l’IA a de meilleures capacités à traiter de large base de données historiques permettant d’offrir des recommandations de vote optimisées basées sur des données historiques de l’entreprise.23 Certaines entreprises privées l’ont compris et engagent des robot-directeurs auprès de leur management pour épauler la gestion et la prise de décision, voire pour des décisions de transactions et d’investissement.24

III.

Initiatives CorpTech ^

[8]

Certains auteurs soutiennent la possibilité d’offrir une place de directeur à des membres IA au sein d’un comité directeur.25 En 2014, Deep Knowledge Venture, un fond basé à Hong-Kong, a nommé un robot-directeur nommé VITAL (Validating Investment Tool for Advancing Life Sciences) auprès de son conseil d’administration à titre de « membre du conseil avec statut d’observateur ».26 L’algorithme développé pouvait émettre un vote sur les décisions de transactions de la société. VITAL a été nommé pour ses capacités d’automatiser les procédures de due diligence ainsi qu’à analyser des données historiques de manière à déceler des tendances d’investissements.

[9]

Parallèlement à la fonction de directeur, le futur de l’IA demeure surtout dans le soutien des fonctions directoriales. C’est ainsi que Hsuan-Tien Lin, chief data scientist auprès d’Appier, une société de technologie basée à Taiwan, a déclaré que « l’IA est progressivement employée pour soutenir les décisions du management dans une multitude de secteur ».27 Il indique également que « tous les domaines du management comprend des données. L’IA peut soutenir la prise de décisions basée sur ces données dans le but d’aider les directeurs humains à décider quelles actions entreprendre pour atteindre leurs objectifs ».

[10]

À titre d’exemple, en 2016, la société finlandaise cotée en bourse Tieto a également nommé un algorithme IA nommé Alicia T dans son leadership team.28 Le rôle d’Alicia T est d’assister son équipe dans les décisions liées aux données et d’émettre de nouvelles idées sur la base de leurs données. L’algorithme est dôté d’un système de conversation permettant de lui poser des questions dans un langage naturel, dans un style similaire à Siri ou à Cortana. Le robot peut émettre des votes et sert également au développement de technologie d’interfaces relationnels de Tieto.29

[11]

Un autre domaine dans lequel les sociétés engagent des algorithmes d’IA constitue notamment les ressources humaines et le recrutement.30 L’emploi d’IA lors du recrutement de nouveaux collaborateurs sert principalement à prendre des décisions dénuées de tout préjugé humain.31 Les grandes entreprises recourent de plus en plus souvent à des algorithmes pour sélectionner des candidats, tendances venant également s’installer en Suisse.32 Le rôle de l’IA s’étend au traitement des données liées à la voix et à l’image du candidat, de l’analyse des émotions et du comportement et des gestes du candidat.33 Un exemple symbolique à cet égard, constitue le robot humanoïde Sophia développé par la société Hanson Robotics en collaboration avec la société mère de Google, Alphabet ainsi que SingularityNET.34 Sophia pose des questions aux candidats et mesure les réactions physiologiques d’un candidat. Le robot a pour vocation de servir d’expert objectif des candidats aux postes d’Hanson Robotics.35 Par la suite, les directeurs reçoivent les recommandations de Sophia par rapport aux candidatures interviewées, avant que ceux-ci statuent sur la suite du recrutement.

[12]

Enfin, l’IA joue également un rôle clé dans la digitalisation du management de la compliance légale.36 Pour assurer la rectitude d’un processus, par exemple la commande d’une pièce, l’émission du bon de commande, la réception de la pièce, le contrôle de livraison et le règlement de la facture, les auditeurs au sein d’une entreprise doivent prélever un échantillon de dossiers choisis et déterminer la conformité avec le processus standardisé.37 L’emploi de l’IA permet de tester ces processus dans leur intégralité et à moindre coût.38 De plus, les transgressions de compliance peuvent être écartées de façon préventive par l’IA ou signalées rapidement lors de leur découverte.39 Par le biais de machine learning, l’IA peut également utiliser les résultats comme modèles pour améliorer son propre processus de détection.40 C’est ainsi que des banques et des assurances peuvent par exemple analyser de gigantesques volumes de transactions de paiement et déceler des anomalies comme des indices de blanchiment d’argent ou de fraudes en temps réel à l’aide de système de détection des fraudes.41

a.

Limites techniques ^

[13]

Plusieurs critiques sont néanmoins adressées concernant les limites des robot-directeurs et empêchant partiellement la démocratisation auprès des comités directeurs des sociétés.42 Il est important de relever que malgré les avantages techniques offerts par l’intelligence artificielle, leurs recommandations de décisions requièrent suffisamment de données historiques sur lesquelles l’IA peut se baser.43 En d’autres termes, la précision et la rigueur des décisions dépendent elles-mêmes de la précision et du volume de données disponibles à l’entreprise.44 Or, il manque le plus souvent aux PME les ressources nécessaires pour obtenir de telles bases de données, respectivement celles-ci n’ont pas leurs propres données historiques nécessaires dans leur système.45 D’un autre côté, les grandes entreprises seront réticentes quant à partager ces données avec des concurrents potentiels.46

[14]

D’autre part, même à supposer que ces données empiriques soient disponibles à l’entreprise, celles-ci ne peuvent pas s’adapter aux situations nouvelles et inédites que réservent le futur.47 Partant se baser sur les décisions d’un robot-directeur nécessite forcément un certain degré de spéculation sur les évènements futurs et les conséquences.48 C’est une des raisons ayant poussé le fond hongkongais de nommer VITAL en tant que membre du conseil d’administration avec statut d’observateur sans pouvoir de décision.49

b.

Limites juridiques ^

[15]

Les limites juridiques de l’engagement de robot-directeurs auprès de comités directeurs tiennent principalement à l’absence de la personnalité juridique.50 Essentiellement, deux problèmes juridiques surgissent à cet égard. D’une part, les stratégies légales du droit commercial ne sont pas adaptées aux robots-directeurs, d’autre part le droit suisse actuel ne permet pas l’engagement d’IA autonome en qualité d’associé.51

[16]

Les stratégies légales employées par le droit commercial s’adressent spécifiquement aux êtres humains dans le but de réduire les coûts d’agence.52 En tenant compte de la relation agent-principal, la loi apporte un cadre de règles destiné à encourager ou à décourager les directeurs lors de la gestion de l’entreprise.53 Il en va ainsi par exemple, des clauses de responsabilité civile des administrateurs, du pouvoir de fixer ou limiter les rémunérations des administrateurs, ainsi que la responsabilité limitée aux actifs de la société.54 Ces normes légales visent à aligner les intérêts des administrateurs avec les intérêts des actionnaires lors de la prise de décision. Un robot-directeur dépourvu de capacité légale et donc du pouvoir de disposer de biens ne sera pas sensible au système d’incitation légal.55 À titre d’exemple, un robot-directeur ne pourra pas être tenu responsable d’un dommage causé en raison de ses décisions, à défaut de pouvoir posséder un patrimoine et de jouir de la personnalité juridique. Il est toutefois possible de programmer l’AI de manière à renforcer sa propension aux risques ou son aversion aux pertes, ainsi que pour se conformer à la loi.56

[17]

D’autre part, le droit suisse ne permet pas de nommer un robot-directeur à la tête d’une société. S’agissant d’une société simple, autant les personnes physiques que les personnes morales peuvent devenir membres au sens de l’art. 530 CO.57 Cependant, une société simple ne peut devenir membre d’une autre société simple à défaut de détenir la personnalité juridique et de pouvoir se lier juridiquement à des tiers en son propre nom.58 Le même raisonnement est applicable aux robot-directeurs, dépourvus de la personnalité juridique.59 S’agissant d’une société anonyme, seuls des personnes physiques peuvent endosser la qualité d’administrateur au conseil d’administration (art. 707 III CO a contrario).60 Les travaux préparatoires liés à la révision datée du 2014 du droit de la société anonyme prévoyaient expressément que seules des personnes physiques peuvent entrer dans le conseil d’administration d’une SA en raison de la responsabilité personnelle des membres pouvant être engagée par une action en responsabilité.61 Par conséquent, un algorithme d’IA ne peut pas devenir membre d’une société simple ni faire partie du conseil d’administration d’une société anonyme. C’est donc uniquement en qualité d’IA assisté que les robot-directeurs peuvent être engagés pour épauler les membres d’une société de droit suisse.62

IV.

Perspectives de l’IA ^

[18]

Les applications de l’IA fleurissent d’année en année et viennent même remplacer substantiellement l’être humain dans de plus en plus de domaines dans un contexte général d’automation du travail. Le cadre légal général sera de plus en plus souvent confronté aux nouveaux challenges de la technologie, par exemple l’interdiction de la discrimination en lien avec les algorithmes de recrutement.63 On peut encore imaginer le devoir de diligence des directeurs ainsi que les normes de transparence lors de l’engagement d’IA assisté et la délégation de fonctions auprès d’un conseil d’administration.64 Se pose également la question de la protection des données personnelles, par exemple lors de l’emploi de l’IA dans le recrutement de nouveaux candidats.65

[19]

Concrètement, quatre scénarios différents sont envisageables du point de vue du législateur. Une approche de laissez-faire, comme adoptée aux États-Unis à l’égard d’internet sous l’administration Clinton permet aux autorités de prendre le temps d’observer et de gagner de l’expérience sur les abus liés à l’application des nouvelles technologies. Une deuxième approche consiste à appliquer le cadre légal général aux problèmes posés par les nouvelles technologies. Il s’agit de l’approche que le Conseil fédéral a adopté envers la technologie des registres distribués et les jetons devant entrer en vigueur le 1er août 2021 suite à la période consultative.66 Une troisième approche consisterait à laisser l’industrie privée s’autoréguler. Une dernière approche, moins opportune à notre avis, consisterait à règlementer spécifiquement les applications de l’IA. Cette approche est moins opportune car elle risque de freiner le développement technologique et l’innovation de la part du monde scientifique qui devrait au contraire servir d’avantage compétitif à la Suisse. Elle s’oppose également au principe de la neutralité technologique. Dans tous les cas, les applications d’IA ont encore de beaux jours devant elles qu’elles fassent l’objet ou non d’une réglementation de la part de l’État.


Auteur: Fabian Teichmann, Teichmann International (Schweiz) AG

Co-auteur: Léonard Gerber, Teichmann International (Schweiz) AG

  1. 1 Pour un article détaillé voir Möslein Florian, Robots in the Boardroom: Artificial Intelligence and Corporate Law, dans; Woodrow Barfield et Pagallo Ugo (Éd.), Research Handbook on the Law of Artificial Intelligence, Cheltenham (Royaume-Uni) et Northampton (États-Unis) 2018, p. 649–670, p. 649.
  2. 2 EnriquesLuca/ZetzscheDirk, « Corporate Technologies and the Tech Nirvana Fallacy », 2020, Hasting Law Journal, vol. 72 N. 1, p. 55–98, p. 73.
  3. 3 Idem.
  4. 4 Pour un article détaillé voir Enriques/Zetzsche, p. 59ss.
  5. 5 Voir par exemple, Mark Fenwick/Wulf A. Kaal/Erik P. M. Vermeulen, « The ‹ Unmediated › and ‹ Tech-driven › Corporate Governance of Today’s Winning Companies », 2020, New York University Journal of Law & Business, p. 76–121, p. 89. Stremitzer Alexander/Merane Jakob, « Künstliche Intelligenz – Rechtliche Leitplanken und neue Haftungsrisiken », 2020, RR-VR, vol. 6, p. 5–7. p. 6; Enriques/Zetzsche, p. 70ss.; Möslein, p. 1ss.;
  6. 6 Möslein, p. 1ss.
  7. 7 Voir par exemple, Gilliéron Philippe, La transformation numérique du monde du droit, Lausanne 2019, p. 119. Voir également Bartuschka Wolfram, « Künstliche Intelligenz, Chatbots, Robot Process Automation – neue Technologie als Fluch oder Segen für gute Compliance? », 2019, Compliance Berater, p. 340–345, p. 340. Bennett Moses Lyria, Artificial Intelligence in the Courts, Legal Academia and Legal Practice: Understanding the Implications », 2017, Australian Law Journal, vol. 91 N. 7, p. 561–574, p. 561; Fábián Luca, Handels- und Wirtschaftsrecht / Schutzfähigkeit und Schutzbedürfnis KI-generierter Erfindungen, dans: Molin-Kränzlin/Schneuwly/Stojanovic, Digitalisierung – Gesellschaft – Recht, 1ère éd., Zürich 2019/2020, p. 283–304, p. 284.
  8. 8 Turing M. Alan, « Computing Machinery and Intelligence », 1950, Mind, vol. 59 N. 236, p. 433–460, p. 433; Voir également Gilliéron, p. 119 ainsi que Bennett Moses, p. 563.
  9. 9 Bartuschka, p. 340.
  10. 10 Pour un article détaillé voir Pearlman Russ, « Recognizing Artificial Intelligence (AI) as authors and Inventors under U.S. Intellectual Property Law », 2018, Richmond Journal of Law and Technology, vol. 24 N. 2, p. 1–38, p. 10.
  11. 11 Gilliéron, p. 120.
  12. 12 Gilliéron, p. 120; Pearlman, p. 10.
  13. 13 Voir Pearlman, p. 10.
  14. 14 Bartuschka, p. 340.
  15. 15 Idem.
  16. 16 Möslein, p. 657.
  17. 17 Voir par exemple, Maxim Tokmakov, « Corporate Governance Modernization: Legal Trends and Challenges », 2019, SHS Web of Conferences, vol. 71, p. 1–4, p. 3, voir également Möslein, p. 657.
  18. 18 Möslein, p. 657.
  19. 19 Tokmakov, p. 3, Möslein, p. 657s.
  20. 20 Enriques/Zetzsche, p. 73; Bayern Shawn/Burri Thomas/Grant Thomas Dale/Häusermann Daniel M./Möslein Florian/Williams Richard, « Gesellschaftsrecht und autonome Systeme im Rechtsvergleich », 2017, AJP, p. 192–203, p. 200; Stremitzer/Merane, p. 6
  21. 21 Enriques/Zetzsche, p. 73.
  22. 22 Hamdani Assaf/Hashai Niron/Kandel Eugene/Yafeh Yishaw, « Technological Progress and the Future of the Corporation », 2018, Journal of the British Academy, vol. 6 N. 1, p 215–245, p. 229; Enriques/Zetzsche, p. 73.
  23. 23 Enriques/Zetzsche, p. 73.
  24. 24 Infra. III.
  25. 25 Voir par exemple, Hamdani/Hashai/Kandel/Yafeh, p. 230; Enriques/Zetzsche, p. 78; Möslein, p. 672. Bayern/Burri/Grant/Häusermann/Möslein/Williams, p. 195.
  26. 26 Möslein, p. 649; Voir également Wile R., A venture Capital Firm Just Named an Algorithm to ist Board of Directors, 2014, Business Insider of 13 Mai 2014.
  27. 27 Burridge Nicky, « Artificial intelligence gets a seat in the boardroom », 2017, 10 mai 2017, disponible sous le lien suivant: https://asia.nikkei.com/Business/Artificial-intelligence-gets-a-seat-in-the-boardroom (08.01.2021).
  28. 28 Jessica Diktonius, « Tieto the first Nordic company to appoint Artificial Intelligence to the leadership team oft he new data-driven businesses unit », 2016, tieto Evry, disponible sous le lien suivant: https://news.cision.com/tieto/r/tieto-the-first-nordic-company-to-appoint-artificial-intelligence-to-the-leadership-team-of-the-new-,c2101571 (08.01.2021).
  29. 29 Peyton Antony, « Alicia key to Tieto’s AI leadership, 2016, Fintech Futures daté du 19 octobre 2016, disponible sous le lien suivant: https://www.fintechfutures.com/2016/10/alicia-key-to-tietos-ai-leadership-team/ (08.01.2021).
  30. 30 Pour un article détaillé voir Wildhaber Isabelle, « Robotik am Arbeitsplatz: Robo-Kollegen und Robo-Bosse », AJP 2017, p. 213–224, p. 214.
  31. 31 Daniela Herdes, « Datenschutzrechtliche Herausforderungen beim Einsatz von KI im Bewerbungsverfahren », CB 2020, p. 95–99, p. 95.
  32. 32 Wildhaber, p. 224.
  33. 33 Sebastian Conrad, « Künstliche Intelligenz – Die Risiken für den Datenschutz », 2017, Datenschutz und Datensicherheit, vol. 41, p. 740–744, p. 742.
  34. 34 Pagallo Ugo, « Vital, Sophia, and Co.- The Quest for the Legal Personhood of Robots », 2018, Information, vol. 9 N. 9, p. 1–11, p. 3. Il s’agit également de la première application d’IA ayant reçu la nationalité d’un pays, à savoir celle de l’Arabie Saoudite en 2017.
  35. 35 Wildhaber, p. 224.
  36. 36 Pour un article spécialisé voir Dominique Hoffmann, « Compliance-Automatisierung zur Erhöhung des Regelkonformität », 2018, CB, p. 237–239, p. 238.
  37. 37 François Paychère, « Da mihi. factum, dabo tibi jus », 2018, Justice – Justiz – Giustizia, vol. 4., par. 13 et 14, Bartuschka, p. 345.
  38. 38 Paychère, par. 14.
  39. 39 Pour un article détaillé voir par exemple Bartuschka, p. 341.
  40. 40 Bartuschka, p. 342.
  41. 41 Voir par exemple le communiqué aux médias du 8 mai 2018 de SIX Payment Services, « L’intelligence artificielle aide les commerçants à gérer les coûts de la fraude » , disponible sous le lien suivant: https://www.six-group.com/fr/newsroom/media-releases/2018/20180502-Fraugster.html (19.01.2021), voir également Bartuschka, p. 343ss.
  42. 42 Bayern/Burri/Grant/Häusermann/Möslein/Williams, p. 195; Enriques/Zetzsche, p. 78; Möslein, p. 662ss.
  43. 43 Bennett Moses, p. 564.
  44. 44 Idem.
  45. 45 Pour un article détaillé voir Christian Marcon, « Les PME croient-elles aux données massives (big data) ?, Revue Cossi: Communication, organisation, société du savoir et information, Groupe de recherche international en information, communication et documentation durables, 2018, p. 37ss, Enriques/Zetzsche, p. 81.
  46. 46 Marcon, p. 37ss, Enriques/Zetzsche, p. 81.
  47. 47 Pour un article détaillé voir Thomas Hoeren, « Thesen zum Verhältnis von Big Data und Datenqualität », MultiMedia und Recht, p. 8–11, p. 11, Philipp Hacker, « A Legal Framework for AI Training Data », 2021, Law, Innovation and Technology, vol. 13, p. 1–31, p. 3, voir également, Enriques/Zetzsche, p. 84s.
  48. 48 Hacker, p. 19, voir également Enriques/Zetzsche, p. 84s.
  49. 49 Möslein, p. 663.
  50. 50 Merane/Stremitzer, p. 6; Bayern/Burri/Grant/Häusermann/Möslein/Williams, p. 200; Möslein, p. 664.
  51. 51 Bayern/Burri/Grant/Häusermann/Möslein/Williams, p. 200; Möslein, p. 665; Enriques/Zetzsche, p. 84s.
  52. 52 Möslein, p. 665.
  53. 53 Hallevy Gabriel, Liability for crimes Involving Artificial Intelligence Systems, Springer, Kyriat Ono (Israel) 2014, p. 185–227, p. 212ss.
  54. 54 Hallevy, p. 212ss.
  55. 55 Möslein, p. 666.
  56. 56 Eidenmüller Horst, « The Rise of Robots and the Law of Humans », 2017, Zeitschrift für europäisches Privatrecht (ZEuP), vol. 25 N. 4, p. 765–777, p. 777.
  57. 57 Handschin Lukas, dans: Honsell/Vogt/Watter, BSK-OR II ad Art. 530 N 3.
  58. 58 Idem.
  59. 59 Bayern/Burri/Grant/Häusermann/Möslein/Williams, p. 200ss.
  60. 60 Wernli Martin/Rizzi Marco A., dans: Honsell/Vogt/Watter, BSK-OR II ad Art. 707 N 15 et 15a.
  61. 61 Voir Message du Conseil fédéral concernant la modification du code des obligations (Droit de la société anonyme), du 23 novembre 2016, publié à la FF 2017 353, 513.
  62. 62 Pour un article détaillé sur les devoirs de diligence liés à la délégation de tâches à l’AI voir Möslein, p. 659ss ainsi que les références citées.
  63. 63 Voir par exemple, Wildhaber, p. 216ss.
  64. 64 Voir Möslein, p. 666ss.
  65. 65 Pour un article détaillé voir Wildhaber, p. 213ss.
  66. 66 Voir Message relatif à la loi fédérale sur l’adaptation du droit fédéral aux développements de la technologie des registres électroniques distribués du 27 novembre 2019, FF 2020 223, p. 223 et 230.