Künstliche Intelligenz als Rechtsperson?

03.08.2023

Künstliche Intelligenz dient immer häufiger als Entscheidungshilfe. Doch wer trägt für ihre Entscheidungen und darauf folgende Handlungen die Verantwortung? Das untersucht Christoph Ammon vom Institut für Strafrecht und Kriminologie der Uni Bern.

Monika Kugemann

Lesen Sie den originalen uniAKTUELL-Artikel hier.

Christoph Ammon liest ein Buch
Christoph Ammon findet, dass mit der rasanten Entwicklung von KI viele Aspekte der Rechts-verantwortlichkeit von Technologie und Mensch überdacht werden müssen (© CAIM, Universität Bern)

Worum geht es in Ihrer Forschung?

Grundsätzlich geht es um die Frage, inwiefern sich die Interaktion von Mensch und Maschine durch die aktuelle Technologie verschiebt. Bisher fand diese in einem klaren Subjekt-Objekt-Verhältnis statt: Maschinen helfen uns, Aufgaben schneller, effizienter oder qualitativ besser zu erfüllen – wie etwa im Falle eines Bohrers. Nun entwickeln wir uns hin zu einer Konstellation, in der die menschliche Entscheidungsfähigkeit an Maschinen übertragen oder delegiert wird. Mit meiner Forschung möchte ich einen Beitrag dazu leisten, die Sinne dafür zu schärfen, was hier gerade technologisch passiert und dafür, dass eine rechtliche Regulierung unbedingt notwendig ist, um diese Entwicklung in gesellschaftlich verträgliche Bahnen zu lenken.

Von welchen Entscheidungen sprechen wir hier?

Bei grossen Datenmengen, wie sie beispielsweise in der digitalisierten Medizin üblich sind, kann Küntliche Intelligenz (KI) eingesetzt werden, um den Entscheid für eine Handlungsweise zu treffen. So kann sie etwa auf eine konkrete Diagnose hinweisen oder auf einen bestimmten Weg, wie eine medizinische Handlung durchgeführt werden soll. Auch in der Operationstechnik kommen zunehmend intelligente Systeme zum Einsatz, die immer selbständiger agieren können. Die Frage ist also vermehrt: Was verantwortet letztlich noch der Mensch – und was die Maschine?

Was verantwortet letztlich noch der Mensch – und was die Maschine?

Christoph Ammon

Wieso ist das gerade in der Medizin ein schwieriges Thema?

In der Zulassung ist die Medizinaltechnik schon breit reguliert: Wenn eine Lösung auf den Markt kommt, muss sie in Bezug auf Sensitivität und Spezifität mindestens so gut wie eine Fachperson sein. Setzt beispielsweise eine Ärztin diese Technologie ein, schränkt das ihre Entscheidungsfähigkeit insofern ein, dass sie weiss: statistisch gesehen ist das Tool genauer als sie. Das hemmt sie möglicherweise, von dessen Empfehlung abzuweichen. Faktisch findet also eine Handlungsverschiebung vom Menschen zum Medizinalprodukt statt. Aber rechtlich trägt die Ärztin die Verantwortung.

Warum ist das ein Problem?

Geht etwas schief, gibt es heute schon das Produkthaftpflichtrecht, welches ermöglicht, Unternehmen bei einem Produktfehler haftbar zu machen. Aber wenn Neuronale Netzwerke, deren interne Wirkungswiese wir nicht verstehen, entscheiden, dann haben wir ein Problem mit dem Durchgriff zum Hersteller. Denn es ist unklar, wodurch es zum Fehler kam. Wurde ein falscher Datensatz zum Training verwendet, die KI falsch kalibriert oder ist das ganze Unternehmen haftbar? Sollten nur vollkommen nachvollziehbare KI-Anwendungen in solchen Bereichen eingesetzt werden können?

Wir müssen den technologischen Entwicklungen aus juristischer Sicht Rechnung tragen.

Christoph Ammon

Was wäre aus Ihrer Sicht die sinnvollste Lösung?

Denkbar wäre hier, die KI als funktionale Rechtperson zu definieren. Dann hätte man ein Rechtssubjekt, das primär haftet und das man zivilrechtlich belangen könnte. Etwa durch eine Versicherungslösung, finanziert durch alle Beteiligten: Hersteller, Nutzer oder einen Haftungsfonds, auf den zuvor eingezahlt wird. Das hätte auch einen Regulierungseffekt, denn Hochrisiko-KI würde wirtschaftlich nicht mehr einsetzbar. Ob dies in Abgrenzung zum aktuellen „risk-based approach“ der EU mit ihrem AI-Act sinnvoll wäre, ist Teil meiner Arbeit. Allerdings möchte ich nicht primär die zivilrechtliche Haftungsfrage beantworten, sondern die grundlegende Frage nach einem möglichen Personenstatus für KI – allenfalls sogar für strafrechtliche Verantwortlichkeit.

Wie schätzten Sie das aktuell ein?

Die technologische Entwicklung schafft heute Entitäten, die rechtserheblich handeln können. Bereits 2017 hatte das Europäische Parlament einmal vorgeschlagen, Tools, die selbständig Handlungen vollführen, als e-Person zu definieren. Das stiess damals aber noch auf grosse Ablehnung, weil viele Anthropomorphismus witterten, also die Übertragung menschlicher Eigenschaften auf Maschinen. Aber zumindest die aktuelle Technologie hat keinen Willen. Deshalb sind Analogien, wenn überhaupt, eher zu den bestehenden „künstlichen“ juristischen Personen zu ziehen also der AG oder GmbH. Wir müssen aber eine Grundsatzdiskussion darüber führen, wie wir dieses sehr offene Feld abstecken wollen.

Was sind denn die zentralen Herausforderungen?

Insgesamt geht es auch um politische Fragen, die schwer von rechtlichen zu trennen sind. Viele Probleme tauchen aktuell beim Urheberrecht und Immaterialgüter-Recht auf: Kann eine KI selbst Urheberin einer geistigen Schöpfung sein? Was ist mit den Urheberrechten der Personen, deren Werke für das Training oder den Input der KI genutzt wurden? Braucht es etwa eine Art „Wasserzeichen“ in Datensätzen, um zu unterscheiden, was von einer Maschine stammt und was von einem Menschen? Wir müssen diesen technologischen Entwicklungen aus rechtlicher Sicht Rechnung tragen. Es geht dabei auch darum, Vertrauen zu schaffen in einer Welt, in der Fiktion und Wahrheit verschwimmen.


ZUR PERSON

Christoph Ammon studierte an den Universitäten Freiburg, Bern und der University of British Columbia in Vancouver Rechtswissenschaften. Nach seiner Anwaltsausbildung in Bern, kehrte Christoph Ende 2020 als Doktorand an die Uni Bern zurück, um auf den Ergebnissen seiner Masterarbeit aufzubauen. 2024 plant er einen einjährigen Forschungsaufenthalt an der University of California, Berkeley.

chevron-down