L'intelligence artificielle en tant que personne juridique ?

03.08.2023

L'intelligence artificielle sert de plus en plus souvent d'aide à la décision. Mais qui porte la responsabilité de ses décisions et des actions qui en découlent ? C'est ce qu'étudie Christoph Ammon de l'Institut de droit pénal et de criminologie de l'Université de Berne.

Monika Kugemann

Lire l'article uniAKTUELL original ici.

Christoph Ammon lit un livre
Christoph Ammon estime qu'avec le développement rapide de l'IA, de nombreux aspects de la responsabilité juridique de la technologie et de l'homme doivent être repensés (© CAIM, Université de Berne)

Quel est le sujet de votre recherche ?

Fondamentalement, il s'agit de savoir dans quelle mesure l'interaction entre l'homme et la machine est déplacée par la technologie actuelle. Jusqu'à présent, celle-ci se déroulait dans un rapport sujet-objet clair : Les machines nous aident à accomplir des tâches plus rapidement, plus efficacement ou de meilleure qualité - comme dans le cas d'une perceuse. Désormais, nous évoluons vers une constellation dans laquelle la capacité de décision humaine est transférée ou déléguée aux machines. Avec ma recherche, je souhaite contribuer à aiguiser les sens sur ce qui se passe actuellement sur le plan technologique et sur la nécessité absolue d'une réglementation juridique afin d'orienter cette évolution dans des voies socialement acceptables.

De quelles décisions parlons-nous ici ?

Dans le cas de grandes quantités de données, comme c'est par exemple le cas dans la médecine numérisée, l'intelligence artificielle (IA) peut être utilisée pour prendre la décision d'une manière d'agir. Elle peut par exemple indiquer un diagnostic concret ou une manière précise d'effectuer un acte médical. La technique chirurgicale fait également appel à des systèmes intelligents de plus en plus autonomes. La question est donc de savoir ce qui relève encore de la responsabilité de l'homme et ce qui relève de la responsabilité de la machine.

Qu'est-ce qui, en fin de compte, relève encore de la responsabilité de l'homme - et de la machine ?

Christoph Ammon

Pourquoi est-ce un sujet difficile, surtout en médecine ?

En matière d'autorisation, la technologie médicale est déjà largement réglementée : Lorsqu'une solution est mise sur le marché, elle doit être au moins aussi bonne qu'un professionnel de la santé en termes de sensibilité et de spécificité. Si, par exemple, un médecin utilise cette technologie, cela limite sa capacité de décision dans la mesure où elle sait que, statistiquement, l'outil est plus précis qu'elle. Cela l'empêche éventuellement de s'écarter de sa recommandation. Dans les faits, on assiste donc à un déplacement de l'action de l'homme vers le produit médical. Mais juridiquement, c'est le médecin qui porte la responsabilité.

Pourquoi est-ce un problème ?

Si quelque chose tourne mal, il existe déjà aujourd'hui le droit de la responsabilité du fait des produits, qui permet de rendre les entreprises responsables en cas de défaut d'un produit. Mais lorsque des réseaux neuronaux, dont nous ne comprenons pas le fonctionnement interne, prennent des décisions, nous avons un problème avec le recours au fabricant. Car il est difficile de savoir ce qui a provoqué l'erreur. Un jeu de données erroné a-t-il été utilisé pour l'entraînement, l'IA a-t-elle été mal calibrée ou toute l'entreprise est-elle responsable ? Seules des applications d'IA parfaitement traçables devraient-elles pouvoir être utilisées dans de tels domaines ?

Nous devons tenir compte des évolutions technologiques d'un point de vue juridique.

Christoph Ammon

Quelle serait, selon vous, la solution la plus judicieuse ?

Il serait envisageable de définir l'IA comme une personne juridique fonctionnelle. On aurait alors un sujet de droit qui serait responsable au premier chef et que l'on pourrait poursuivre en droit civil. Par exemple par le biais d'une solution d'assurance financée par toutes les parties concernées : le fabricant, l'utilisateur ou un fonds de responsabilité qui serait alimenté au préalable. Cela aurait également un effet de régulation, car l'IA à haut risque ne serait plus utilisable sur le plan économique. La question de savoir si cela serait judicieux par rapport à l'actuelle "approche basée sur le risque" de l'UE avec son AI-Act fait partie de mon travail. Toutefois, je ne souhaite pas répondre en premier lieu à la question de la responsabilité civile, mais à la question fondamentale d'un éventuel statut de personne pour l'IA - éventuellement même pour la responsabilité pénale.

Comment évaluez-vous la situation actuelle ?

L'évolution technologique crée aujourd'hui des entités qui peuvent agir de manière juridiquement pertinente. En 2017 déjà, le Parlement européen avait proposé de définir les outils qui effectuent des actions de manière autonome comme des e-personnes. Mais à l'époque, cette idée s'était heurtée à un fort rejet, car beaucoup avaient flairé l'anthropomorphisme, c'est-à-dire le transfert de caractéristiques humaines sur des machines. Mais au moins la technologie actuelle n'a pas de volonté. C'est pourquoi les analogies, si elles existent, doivent plutôt être faites avec les personnes morales "artificielles" existantes, à savoir la SA ou la SARL. Mais nous devons mener une discussion de fond sur la manière dont nous voulons délimiter ce champ très ouvert.

Quels sont les principaux défis ?

Globalement, il s'agit également de questions politiques difficiles à séparer des questions juridiques. De nombreux problèmes se posent actuellement en matière de droit d'auteur et de droit de la propriété intellectuelle : Une IA peut-elle être elle-même l'auteur d'une création intellectuelle ? Qu'en est-il des droits d'auteur des personnes dont les œuvres ont été utilisées pour l'entraînement ou l'apport de l'IA ? Faut-il par exemple une sorte de "filigrane" dans les jeux de données pour distinguer ce qui provient d'une machine de ce qui provient d'un être humain ? Nous devons tenir compte de ces évolutions technologiques d'un point de vue juridique. Il s'agit également d'instaurer la confiance dans un monde où la fiction et la vérité se confondent.


À PROPOS DE LA PERSONNE

Christoph Ammon a étudié le droit aux universités de Fribourg, de Berne et à l'Université de Colombie-Britannique à Vancouver. Après sa formation d'avocat à Berne, Christoph est retourné à l'université de Berne fin 2020 en tant que doctorant, afin de se baser sur les résultats de son travail de master. En 2024, il prévoit un séjour de recherche d'un an à l'Université de Californie, Berkeley.

chevron-down