Stummel Künstliche Intelligenz und rechtliche Identität – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Künstliche Intelligenz und rechtliche Identität

mm

Veröffentlicht

 on

In diesem Artikel geht es um die Frage der Zuerkennung des Status eines Rechtssubjekts der Künstlichen Intelligenz (KI), insbesondere auf der Grundlage des Zivilrechts. Rechtsidentität wird hier als ein in den Begriff der Rechtsfähigkeit integrierter Begriff definiert; Dies bedeutet jedoch nicht, dass moralische Subjektivität dasselbe ist wie moralische Persönlichkeit. Die rechtliche Identität ist ein komplexes Attribut, das für bestimmte Subjekte erkannt oder anderen zugeordnet werden kann.

Ich glaube, dass dieses Attribut abgestuft, diskret, diskontinuierlich, vielfältig und veränderbar ist. Dies bedeutet, dass es mehr oder weniger Elemente unterschiedlicher Art (z. B. Pflichten, Rechte, Kompetenzen usw.) enthalten kann, die in den meisten Fällen vom Gesetzgeber hinzugefügt oder entfernt werden können; Die Ausnahme bilden Menschenrechte, die nach allgemeiner Meinung nicht entzogen werden dürfen.

Heutzutage steht die Menschheit vor einer Zeit des gesellschaftlichen Wandels, der mit der Ersetzung eines technologischen Modus durch einen anderen einhergeht; „intelligente“ Maschinen und Software lernen recht schnell; Künstliche Intelligenzsysteme sind zunehmend in der Lage, Menschen in vielen Tätigkeiten zu ersetzen. Eines der Probleme, die sich aufgrund der Verbesserung der Technologien der künstlichen Intelligenz immer häufiger stellen, ist die Anerkennung künstlicher intelligenter Systeme als Rechtssubjekte, da sie das Niveau erreicht haben, vollständig autonome Entscheidungen zu treffen und möglicherweise einen „subjektiven Willen“ zu manifestieren. Dieses Problem wurde hypothetisch im 20. Jahrhundert aufgeworfen. Im 21. Jahrhundert entwickelt sich die wissenschaftliche Debatte stetig weiter und erreicht mit jeder Einführung neuer Modelle künstlicher Intelligenz in die Praxis das andere Extrem, etwa mit dem Erscheinen selbstfahrender Autos auf der Straße oder der Präsentation von Robotern mit einer neuen Reihe von Funktionen Funktionen.

Die rechtliche Frage der Bestimmung des Status der künstlichen Intelligenz ist allgemeiner theoretischer Natur und beruht auf der objektiven Unmöglichkeit, alle möglichen Ergebnisse der Entwicklung neuer Modelle der künstlichen Intelligenz vorherzusagen. Systeme der künstlichen Intelligenz (KI-Systeme) sind jedoch bereits tatsächlich Teilnehmer an bestimmten gesellschaftlichen Beziehungen, was die Festlegung von „Benchmarks“ erfordert, d Vorhersage der Entwicklung der Beziehungen zwischen künstlichen Intelligenzsystemen in der Zukunft.

Die im Titel des Artikels erwähnte Frage nach der angeblichen Identität künstlicher Intelligenz als Forschungsgegenstand betrifft sicherlich nicht alle Systeme der künstlichen Intelligenz, darunter auch viele „elektronische Assistenten“, die nicht den Anspruch erheben, juristische Personen zu sein. Ihr Funktionsumfang ist begrenzt und sie stellen eine begrenzte (schwache) künstliche Intelligenz dar. Wir sprechen vielmehr von „Smart Machines“ (cyber-physischen intelligenten Systemen) und generativen Modellen virtueller intelligenter Systeme, die sich immer mehr einer allgemeinen (leistungsstarken) künstlichen Intelligenz annähern, die mit der menschlichen Intelligenz vergleichbar ist und diese in Zukunft sogar übertreffen wird.

Bis 2023 wird die Frage der Schaffung starker künstlicher Intelligenz durch multimodale neuronale Netze wie z ChatGPT, DALL-e, und andere, deren intellektuelle Fähigkeiten durch die Erhöhung der Anzahl von Parametern (Wahrnehmungsmodalitäten, einschließlich solcher, die für Menschen nicht zugänglich sind) sowie durch die Verwendung großer Datenmengen für das Training verbessert werden, die Menschen physisch nicht verarbeiten können. Beispielsweise können multimodale generative Modelle neuronaler Netze solche Bilder, literarischen und wissenschaftlichen Texte erzeugen, dass nicht immer unterschieden werden kann, ob sie von einem menschlichen oder einem künstlichen Intelligenzsystem erstellt wurden.

IT-Experten heben zwei qualitative Sprünge hervor: einen Geschwindigkeitssprung (die Häufigkeit des Auftauchens brandneuer Modelle), der nun in Monaten statt in Jahren gemessen wird, und einen Volatilitätssprung (die Unfähigkeit, genau vorherzusagen, was in diesem Bereich passieren könnte). künstliche Intelligenz sogar bis Ende des Jahres). Das ChatGPT-3-Modell (die dritte Generation des Verarbeitung natürlicher Sprache Algorithmus von OpenAI) wurde 2020 eingeführt und konnte Text verarbeiten, während das vom Hersteller im März 4 eingeführte Modell der nächsten Generation, ChatGPT-2023, nicht nur mit Texten, sondern auch mit Bildern „arbeiten“ kann, und das Modell der nächsten Generation ist es auch lernen und noch mehr können.

Noch vor einigen Jahren ging man davon aus, dass der erwartete Moment der technologischen Singularität, wenn die Entwicklung von Maschinen praktisch unkontrollierbar und irreversibel wird und die menschliche Zivilisation dramatisch verändert, zumindest in einigen Jahrzehnten eintreten wird, doch heutzutage glauben immer mehr Forscher, dass er eintreten kann viel schneller. Dies impliziert die Entstehung einer sogenannten starken künstlichen Intelligenz, die mit der menschlichen Intelligenz vergleichbare Fähigkeiten aufweisen und in der Lage sein wird, ein ähnliches oder sogar breiteres Spektrum an Aufgaben zu lösen. Im Gegensatz zu schwacher künstlicher Intelligenz verfügt eine starke KI über Bewusstsein. Eine der wesentlichen Voraussetzungen für die Entstehung von Bewusstsein in intelligenten Systemen ist jedoch die Fähigkeit, multimodales Verhalten auszuführen und Daten aus verschiedenen Sinnesmodalitäten (Text, Bild, Video, Ton usw.) zu integrieren. ), Informationen unterschiedlicher Modalitäten mit der Realität „verknüpfen“ und vollständige, ganzheitliche „Weltmetaphern“ schaffen, die dem Menschen innewohnen.

Im März 2023 unterzeichneten mehr als tausend Forscher, IT-Experten und Unternehmer im Bereich der künstlichen Intelligenz einen Offener Brief veröffentlicht auf der Website des Future of Life Institute, ein amerikanisches Forschungszentrum, das sich auf die Untersuchung existenzieller Risiken für die Menschheit spezialisiert hat. Der Brief fordert, das Training neuer generativer multimodaler neuronaler Netzwerkmodelle auszusetzen, da das Fehlen einheitlicher Sicherheitsprotokolle und das Rechtsvakuum die Risiken erheblich erhöhen, da die Geschwindigkeit der KI-Entwicklung aufgrund der „ChatGPT-Revolution“ dramatisch zugenommen hat. Es wurde auch festgestellt, dass Modelle der künstlichen Intelligenz ungeklärte Fähigkeiten entwickelt haben, die von ihren Entwicklern nicht beabsichtigt waren, und dass der Anteil solcher Fähigkeiten wahrscheinlich schrittweise zunehmen wird. Darüber hinaus wird eine solche technologische Revolution die Entwicklung intelligenter Geräte, die weit verbreitet sein werden, dramatisch vorantreiben, und neue Generationen, moderne Kinder, die in ständiger Kommunikation mit Assistenten der künstlichen Intelligenz aufgewachsen sind, werden sich stark von früheren Generationen unterscheiden.

Ist es möglich, die Entwicklung künstlicher Intelligenz zu behindern, damit sich die Menschheit an neue Bedingungen anpassen kann? Theoretisch ist dies der Fall, wenn alle Staaten dies durch nationale Gesetzgebung ermöglichen. Werden sie das tun? Basierend auf den veröffentlichten nationalen Strategien wird dies nicht der Fall sein; im Gegenteil, jeder Staat strebt danach, den Wettbewerb zu gewinnen (um die Führung zu behalten oder den Abstand zu verringern).

Die Fähigkeiten der künstlichen Intelligenz ziehen Unternehmer an, daher investieren Unternehmen stark in neue Entwicklungen, wobei der Erfolg jedes neuen Modells den Prozess vorantreibt. Die jährlichen Investitionen nehmen zu, wenn man sowohl private als auch staatliche Investitionen in die Entwicklung berücksichtigt; Der globale Markt für KI-Lösungen wird auf Hunderte Milliarden Dollar geschätzt. Nach Prognosen, insbesondere denen der Resolution „Über künstliche Intelligenz im digitalen Zeitalter“ des Europäischen Parlaments vom 3. Mai 2022, wird der Beitrag künstlicher Intelligenz zur Weltwirtschaft bis 11 2030 Billionen Euro überschreiten.

Praxisorientiertes Wirtschaften führt zur Implementierung von Technologien der Künstlichen Intelligenz in allen Wirtschaftszweigen. Künstliche Intelligenz wird sowohl in der mineralgewinnenden als auch in der verarbeitenden Industrie (Metallurgie, Kraftstoff- und Chemieindustrie, Maschinenbau, Metallverarbeitung usw.) eingesetzt. Es wird eingesetzt, um die Effizienz entwickelter Produkte vorherzusagen, Montagelinien zu automatisieren, Ausschuss zu reduzieren, die Logistik zu verbessern und Ausfallzeiten zu verhindern.

Der Einsatz künstlicher Intelligenz im Transportwesen umfasst sowohl autonome Fahrzeuge und Routenoptimierung durch die Vorhersage von Verkehrsströmen als auch die Gewährleistung der Sicherheit durch die Vermeidung gefährlicher Situationen. Die Zulassung selbstfahrender Autos auf öffentlichen Straßen ist Gegenstand intensiver Debatten in Parlamenten auf der ganzen Welt.

Im Bankwesen haben künstliche Intelligenzsysteme den Menschen bei der Beurteilung der Kreditwürdigkeit von Kreditnehmern fast vollständig ersetzt; Sie werden zunehmend zur Entwicklung neuer Bankprodukte und zur Erhöhung der Sicherheit von Bankgeschäften eingesetzt.

Technologien der künstlichen Intelligenz erobern nicht nur die Wirtschaft, sondern auch den sozialen Bereich: Gesundheitswesen, Bildung und Beschäftigung. Der Einsatz künstlicher Intelligenz in der Medizin ermöglicht eine bessere Diagnostik, die Entwicklung neuer Medikamente und robotergestützte Operationen; Im Bildungsbereich ermöglicht es personalisierten Unterricht sowie eine automatisierte Bewertung der Fachkenntnisse von Schülern und Lehrern.

Aufgrund des exponentiellen Wachstums der Plattformbeschäftigung verändert sich die Beschäftigung heute zunehmend. Nach Angaben der Internationalen Arbeitsorganisation nimmt der Anteil der Menschen, die über digitale Beschäftigungsplattformen arbeiten, die durch künstliche Intelligenz erweitert werden, weltweit stetig zu. Plattformbeschäftigung ist nicht die einzige Komponente der Arbeitstransformation; Auch der zunehmende Grad der Robotisierung in der Produktion hat erhebliche Auswirkungen. Nach Angaben der International Federation of Robotics nimmt die Zahl der Industrieroboter weltweit weiter zu, wobei das schnellste Tempo der Robotisierung in Asien zu beobachten ist, vor allem in China und Japan.

Tatsächlich sind die Möglichkeiten der künstlichen Intelligenz zur Analyse von Daten, die für das Produktionsmanagement, diagnostische Analysen und Prognosen verwendet werden, für Regierungen von großem Interesse. Künstliche Intelligenz wird in der öffentlichen Verwaltung eingesetzt. Heutzutage werden die Bemühungen intensiviert, digitale Plattformen für öffentliche Dienstleistungen zu schaffen und viele Prozesse im Zusammenhang mit der Entscheidungsfindung staatlicher Behörden zu automatisieren.

Die Begriffe „künstliche Persönlichkeit“ und „künstliche Sozialität“ werden im öffentlichen Diskurs häufiger erwähnt; Dies zeigt, dass sich die Entwicklung und Implementierung intelligenter Systeme von einem rein technischen Bereich hin zur Erforschung verschiedener Möglichkeiten ihrer Integration in humanitäre und soziokulturelle Aktivitäten verlagert hat.

Vor diesem Hintergrund kann festgestellt werden, dass künstliche Intelligenz immer tiefer in das Leben der Menschen eindringt. Die Präsenz künstlicher Intelligenzsysteme in unserem Leben wird in den kommenden Jahren immer deutlicher werden; sie wird sowohl im Arbeitsumfeld als auch im öffentlichen Raum, im Dienstleistungssektor und zu Hause zunehmen. Künstliche Intelligenz wird durch die intelligente Automatisierung verschiedener Prozesse zunehmend effizientere Ergebnisse liefern und so neue Möglichkeiten schaffen und neue Bedrohungen für Einzelpersonen, Gemeinschaften und Staaten darstellen.

Mit zunehmendem intellektuellen Niveau werden KI-Systeme unweigerlich zu einem integralen Bestandteil der Gesellschaft; Die Menschen müssen mit ihnen koexistieren. Eine solche Symbiose wird die Zusammenarbeit zwischen Menschen und „intelligenten“ Maschinen beinhalten, was laut dem Nobelpreisträger J. Stiglitz zu einer Transformation der Zivilisation führen wird (Stiglitz, 2017). Auch heute noch, so einige Anwälte, „sollte das Gesetz zur Verbesserung des menschlichen Wohlergehens nicht zwischen den Aktivitäten von Menschen und denen künstlicher Intelligenz unterscheiden, wenn Menschen und künstliche Intelligenz dieselben Aufgaben erfüllen“ (Abbott, 2020). Es sollte auch berücksichtigt werden, dass die Entwicklung humanoider Roboter, deren Physiologie der des Menschen immer ähnlicher wird, unter anderem dazu führen wird, dass sie Geschlechterrollen als Partner in der Gesellschaft wahrnehmen (Karnouskos, 2022).

Staaten müssen ihre Gesetzgebung an veränderte gesellschaftliche Verhältnisse anpassen: Weltweit nimmt die Zahl der Gesetze, die die Beziehungen zwischen Systemen der künstlichen Intelligenz regeln sollen, rasant zu. Laut dem AI Index Report 2023 der Stanford University wurde 2016 zwar nur ein Gesetz verabschiedet, 12 waren es jedoch 2018, 18 2021 und 37 2022. Dies veranlasste die Vereinten Nationen, eine Position zur Ethik festzulegen Einsatz künstlicher Intelligenz auf globaler Ebene. Im September 2022 wurde ein Dokument veröffentlicht, das die Grundsätze des ethischen Einsatzes künstlicher Intelligenz enthielt und auf den ein Jahr zuvor von der UNESCO-Generalkonferenz verabschiedeten Empfehlungen zur Ethik künstlicher Intelligenz basierte. Das Tempo der Entwicklung und Implementierung von Technologien der künstlichen Intelligenz liegt jedoch weit über dem Tempo relevanter Gesetzesänderungen.

Grundbegriffe der Rechtsfähigkeit Künstlicher Intelligenz

Betrachtet man die Konzepte einer potenziellen Gewährung von Rechtsfähigkeit an intellektuelle Systeme, sollte man sich darüber im Klaren sein, dass die Umsetzung eines dieser Ansätze eine grundlegende Rekonstruktion der bestehenden allgemeinen Rechtstheorie und Änderungen einer Reihe von Bestimmungen in bestimmten Rechtsgebieten erfordern wird. Es sollte betont werden, dass Befürworter unterschiedlicher Ansichten häufig den Begriff „elektronische Person“ verwenden. Die Verwendung dieses Begriffs ermöglicht es daher nicht, zu bestimmen, welches Konzept der Autor des Werks vertritt, ohne das Werk selbst zu lesen.

Der radikalste und in wissenschaftlichen Kreisen offensichtlich am wenigsten populäre Ansatz ist das Konzept der individuellen Rechtsfähigkeit künstlicher Intelligenz. Befürworter dieses Ansatzes vertreten die Idee der „vollständigen Inklusivität“ (extremer Inklusivismus), was bedeutet, dass KI-Systemen ein rechtlicher Status zuerkannt wird, der dem des Menschen ähnelt, und dass sie ihre eigenen Interessen aufgrund ihrer sozialen Bedeutung oder sozialen Bedeutung anerkennen (Mulgan, 2019). Inhalt (soziale Valenz). Letzteres ist darauf zurückzuführen, dass „die physische Verkörperung des Roboters dazu führt, dass Menschen dieses sich bewegende Objekt so behandeln, als ob es lebendig wäre.“ Dies wird noch deutlicher, wenn der Roboter anthropomorphe Eigenschaften aufweist, da die Ähnlichkeit mit dem menschlichen Körper die Menschen dazu bringt, Emotionen, Gefühle von Freude, Schmerz und Fürsorge sowie den Wunsch, Beziehungen aufzubauen, zu projizieren“ (Avila Negri, 2021). Die Projektion menschlicher Emotionen auf unbelebte Objekte ist nicht neu und reicht bis in die Menschheitsgeschichte zurück, doch wenn sie auf Roboter angewendet wird, bringt sie zahlreiche Implikationen mit sich (Balkin, 2015).

Als Voraussetzungen für die gerichtliche Bestätigung dieser Stelle werden in der Regel folgende genannt:

– KI-Systeme erreichen ein Niveau, das mit den kognitiven Funktionen des Menschen vergleichbar ist;

– Erhöhung des Ähnlichkeitsgrads zwischen Robotern und Menschen;

– Menschlichkeit, Schutz intelligenter Systeme vor potenziellem „Leiden“.

Wie die Liste der zwingenden Anforderungen zeigt, weisen alle einen hohen Grad an Theoretisierung und subjektiver Bewertung auf. Der Trend zur Schaffung anthropomorpher Roboter (Androiden) wird insbesondere durch die alltäglichen psychologischen und sozialen Bedürfnisse von Menschen vorangetrieben, die sich in der „Gesellschaft“ ihnen ähnlicher Subjekte wohl fühlen. Einige moderne Roboter weisen aufgrund der von ihnen ausgeführten Funktionen andere einschränkende Eigenschaften auf; Dazu gehören „wiederverwendbare“ Kurierroboter, bei denen eine robuste Konstruktion und eine effiziente Gewichtsverteilung im Vordergrund stehen. In diesem Fall kommt die letzte dieser Voraussetzungen ins Spiel, da im menschlichen Geist emotionale Bindungen zu Robotern entstehen, ähnlich den emotionalen Bindungen zwischen einem Haustier und seinem Besitzer (Grin, 2018).

Die Idee der „vollständigen Einbeziehung“ des rechtlichen Status von KI-Systemen und Menschen spiegelt sich in den Arbeiten einiger Rechtswissenschaftler wider. Da die Bestimmungen der Verfassung und der Fachgesetze keine rechtliche Definition der Persönlichkeit enthalten, lässt der Begriff „Persönlichkeit“ im verfassungsrechtlichen und rechtlichen Sinne theoretisch eine weitreichende Auslegung zu. In diesem Fall würden zu den Personen alle Personen zählen, die über Intelligenz verfügen und deren kognitive Fähigkeiten als ausreichend entwickelt gelten. Laut AV Nechkin besteht die Logik dieses Ansatzes darin, dass der wesentliche Unterschied zwischen Menschen und anderen Lebewesen in ihrer einzigartigen hochentwickelten Intelligenz liegt (Nechkin, 2020). Die Anerkennung der Rechte künstlicher Intelligenzsysteme scheint der nächste Schritt in der Entwicklung des Rechtssystems zu sein, das die rechtliche Anerkennung schrittweise auf zuvor diskriminierte Menschen ausdehnt und heute auch Nicht-Menschen Zugang gewährt (Hellers, 2021).

Wenn KI-Systemen ein solcher rechtlicher Status zuerkannt wird, halten es die Befürworter dieses Ansatzes für angemessen, solchen Systemen nicht wörtliche Bürgerrechte in ihrer etablierten verfassungsrechtlichen und rechtlichen Auslegung zuzuerkennen, sondern deren Analoga und bestimmte Bürgerrechte mit einigen Abweichungen. Diese Position basiert auf objektiven biologischen Unterschieden zwischen Menschen und Robotern. Beispielsweise macht es keinen Sinn, einem KI-System das Recht auf Leben anzuerkennen, da es nicht im biologischen Sinne lebt. Die Rechte, Freiheiten und Pflichten künstlicher Intelligenzsysteme sollten im Vergleich zu den Rechten der Bürger zweitrangig sein; Diese Bestimmung stellt den abgeleiteten Charakter künstlicher Intelligenz als menschliche Schöpfung im rechtlichen Sinne fest.

Zu den potenziellen verfassungsmäßigen Rechten und Freiheiten künstlicher intelligenter Systeme gehören das Recht auf Freiheit, das Recht auf Selbstverbesserung (Lernen und Selbstlernen), das Recht auf Privatsphäre (Schutz der Software vor willkürlichen Eingriffen Dritter), die Meinungsfreiheit, Freiheit der Kreativität, Anerkennung des Urheberrechts von KI-Systemen und eingeschränkter Eigentumsrechte. Auch spezifische Rechte der künstlichen Intelligenz können aufgeführt werden, etwa das Recht auf Zugang zu einer Stromquelle.

Was die Aufgaben künstlicher Intelligenzsysteme betrifft, wird vorgeschlagen, die drei bekannten Gesetze der Robotik, die von I. Asimov formuliert wurden, in der Verfassung zu festigen: Einer Person keinen Schaden zufügen und Schaden durch ihre eigene Untätigkeit verhindern; allen Befehlen einer Person Folge zu leisten, mit Ausnahme derjenigen, die darauf abzielen, einer anderen Person Schaden zuzufügen; auf ihre eigene Sicherheit achten, mit Ausnahme der beiden vorherigen Fälle (Naumov und Arkhipov, 2017). In diesem Fall werden die Regeln des Zivil- und Verwaltungsrechts einige andere Pflichten widerspiegeln.

Das Konzept der individuellen Rechtsfähigkeit künstlicher Intelligenz hat aus mehreren Gründen nur sehr geringe Chancen auf Legitimation.

Erstens ist das Kriterium für die Anerkennung der Rechtsfähigkeit, das auf dem Vorhandensein von Bewusstsein und Selbstbewusstsein beruht, abstrakt; Es ermöglicht zahlreiche Straftaten und Rechtsmissbrauch und provoziert soziale und politische Probleme als zusätzlichen Grund für die Schichtung der Gesellschaft. Diese Idee wurde im Detail in der Arbeit von S. Chopra und L. White entwickelt, die argumentierten, dass Bewusstsein und Selbstbewusstsein keine notwendige und/oder ausreichende Bedingung für die Anerkennung von KI-Systemen als Rechtssubjekt sind. In der Rechtswirklichkeit wird vollkommen bewussten Personen, zum Beispiel Kindern (oder Sklaven im römischen Recht), die Rechtsfähigkeit entzogen oder eingeschränkt. Gleichzeitig bleiben Personen mit schweren psychischen Störungen, einschließlich solcher, die für handlungsunfähig erklärt wurden oder im Koma liegen usw., mit einer objektiven Unfähigkeit, bei Bewusstsein zu sein, im ersten Fall Rechtssubjekte (wenn auch in begrenzter Form) und im zweiten Fall Sie verfügen über die gleiche volle Rechtsfähigkeit, ohne dass sich ihr Rechtsstatus wesentlich ändert. Die potenzielle Konsolidierung des genannten Kriteriums des Bewusstseins und der Selbsterkenntnis wird es ermöglichen, Bürgern willkürlich die Rechtsfähigkeit zu entziehen.

Zweitens werden Systeme der künstlichen Intelligenz ihre Rechte und Pflichten nicht im etablierten Rechtssinn ausüben können, da sie auf der Grundlage eines zuvor geschriebenen Programms arbeiten und rechtlich bedeutsame Entscheidungen auf der subjektiven, moralischen Entscheidung einer Person basieren sollten (Morhat, 2018b). , ihr direkter Ausdruck des Willens. Alle moralischen Einstellungen, Gefühle und Wünsche einer solchen „Person“ leiten sich von der menschlichen Intelligenz ab (Uzhov, 2017). Die Autonomie künstlicher Intelligenzsysteme im Sinne ihrer Fähigkeit, selbstständig Entscheidungen zu treffen und umzusetzen, ohne äußere anthropogene Kontrolle oder gezielte menschliche Einflussnahme (Musina, 2023), ist nicht umfassend. Heutzutage ist künstliche Intelligenz nur noch in der Lage, „quasi-autonome Entscheidungen“ zu treffen, die irgendwie auf den Vorstellungen und moralischen Einstellungen der Menschen basieren. In dieser Hinsicht kann nur die „Aktionsoperation“ eines KI-Systems berücksichtigt werden, ohne die Fähigkeit, eine echte moralische Bewertung des Verhaltens künstlicher Intelligenz vorzunehmen (Petiev, 2022).

Drittens führt die Anerkennung der individuellen Rechtsfähigkeit künstlicher Intelligenz (insbesondere in Form ihrer Gleichsetzung mit dem Status einer natürlichen Person) zu einer destruktiven Veränderung der seit dem römischen Recht entstandenen etablierten Rechtsordnung und Rechtstraditionen wirft eine Reihe grundsätzlich unlösbarer philosophischer und rechtlicher Fragen im Bereich der Menschenrechte auf. Das Recht als System sozialer Normen und als soziales Phänomen wurde unter Berücksichtigung der menschlichen Fähigkeiten und zur Wahrung menschlicher Interessen geschaffen. Das etablierte anthropozentrische System normativer Bestimmungen, der internationale Konsens über das Konzept der inneren Rechte, wird im Falle der Etablierung eines Ansatzes des „extremen Inklusivismus“ als rechtlich und faktisch ungültig angesehen (Dremlyuga & Dremlyuga, 2019). Daher stellt die Gewährung des Status einer juristischen Person für KI-Systeme, insbesondere „intelligente“ Roboter, möglicherweise keine Lösung bestehender Probleme dar, sondern eine Büchse der Pandora, die soziale und politische Widersprüche verschärft (Solaiman, 2017).

Ein weiterer Punkt ist, dass in den Arbeiten der Befürworter dieses Konzepts meist nur Roboter erwähnt werden, also cyber-physische Systeme der künstlichen Intelligenz, die mit Menschen in der physischen Welt interagieren, während virtuelle Systeme ausgeschlossen sind, obwohl starke künstliche Intelligenz, falls sie auftaucht, dies tun wird auch in virtueller Form verkörpert werden.

Basierend auf den oben genannten Argumenten sollte das Konzept der individuellen Rechtsfähigkeit eines künstlichen Intelligenzsystems nach der aktuellen Rechtsordnung als rechtlich unmöglich angesehen werden.

Das Konzept der kollektiven Persönlichkeit im Hinblick auf künstliche intelligente Systeme hat bei Befürwortern der Zulässigkeit einer solchen Rechtsfähigkeit erhebliche Unterstützung gefunden. Der Hauptvorteil dieses Ansatzes besteht darin, dass er abstrakte Konzepte und Werturteile (Bewusstsein, Selbstbewusstsein, Rationalität, Moral usw.) aus der juristischen Arbeit ausschließt. Der Ansatz basiert auf der Anwendung juristischer Fiktion auf künstliche Intelligenz.

Was juristische Personen betrifft, gibt es bereits „fortschrittliche Regulierungsmethoden, die angepasst werden können, um das Dilemma des rechtlichen Status künstlicher Intelligenz zu lösen“ (Hárs, 2022).

Dieses Konzept impliziert nicht, dass KI-Systemen tatsächlich die Rechtsfähigkeit einer natürlichen Person zuerkannt wird, sondern ist lediglich eine Erweiterung der bestehenden Institution juristischer Personen, was die Schaffung einer neuen Kategorie juristischer Personen mit der Bezeichnung kybernetische „elektronische Organismen“ nahelegt. Dieser Ansatz macht es angemessener, eine juristische Person zu betrachten, die nicht dem modernen engen Konzept entspricht, insbesondere der Verpflichtung, bürgerliche Rechte zu erwerben und auszuüben, zivilrechtliche Verbindlichkeiten zu tragen und im eigenen Namen Kläger und Beklagter vor Gericht zu sein ), jedoch im weiteren Sinne, der eine juristische Person als jede andere Struktur als eine natürliche Person darstellt, die mit Rechten und Pflichten in der gesetzlich vorgesehenen Form ausgestattet ist. Befürworter dieses Ansatzes schlagen daher vor, eine juristische Person als Subjekt (ideale Entität) nach römischem Recht zu betrachten.

Die Ähnlichkeit zwischen Systemen der künstlichen Intelligenz und juristischen Personen zeigt sich in der Art und Weise, wie ihnen Rechtsfähigkeit verliehen wird – durch die obligatorische staatliche Registrierung juristischer Personen. Erst nach Bestehen des vorgeschriebenen Registrierungsverfahrens erhält eine juristische Person Rechtsstatus und Rechtsfähigkeit, dh sie wird zum Rechtssubjekt. Dieses Modell führt Diskussionen über die Rechtsfähigkeit von KI-Systemen im Rechtsbereich und schließt die Anerkennung der Rechtsfähigkeit aus anderen (außergesetzlichen) Gründen ohne interne Voraussetzungen aus, während eine Person von Geburt an als Rechtssubjekt anerkannt wird.

Der Vorteil dieses Konzepts besteht in der Ausweitung der Verpflichtung zur Eintragung von Informationen in die entsprechenden staatlichen Register, ähnlich dem staatlichen Register juristischer Personen, als Voraussetzung für die Gewährung der Rechtsfähigkeit auf künstliche intelligente Systeme. Diese Methode implementiert eine wichtige Funktion der Systematisierung aller juristischen Personen und der Schaffung einer einzigen Datenbank, die sowohl für die Kontrolle und Überwachung durch staatliche Behörden (z. B. im Bereich der Besteuerung) als auch für potenzielle Gegenparteien solcher Unternehmen erforderlich ist.

Der Umfang der Rechte juristischer Personen ist in jeder Gerichtsbarkeit in der Regel geringer als der von natürlichen Personen; Daher ist die Verwendung dieser Struktur zur Gewährung der Rechtsfähigkeit für künstliche Intelligenz nicht mit der Gewährung einer Reihe von Rechten verbunden, die von den Befürwortern des vorherigen Konzepts vorgeschlagen wurden.

Bei der Anwendung der Legal-Fiction-Technik auf juristische Personen wird davon ausgegangen, dass die Handlungen einer juristischen Person von einer Vereinigung natürlicher Personen begleitet werden, die ihren „Willen“ bilden und ihren „Willen“ durch die Leitungsorgane der juristischen Person ausüben.

Mit anderen Worten handelt es sich bei juristischen Personen um künstliche (abstrakte) Einheiten, die die Interessen natürlicher Personen befriedigen sollen, die als ihre Gründer fungierten oder sie kontrollierten. Ebenso werden künstliche intelligente Systeme geschaffen, um die Bedürfnisse bestimmter Personen – Entwickler, Betreiber, Eigentümer – zu erfüllen. Eine natürliche Person, die KI-Systeme nutzt oder programmiert, orientiert sich an ihren eigenen Interessen, die dieses System in der äußeren Umgebung vertritt.

Bei der theoretischen Beurteilung eines solchen Regulierungsmodells sollte man nicht vergessen, dass eine vollständige Analogie zwischen den Positionen juristischer Personen und KI-Systemen unmöglich ist. Wie oben erwähnt, werden alle rechtlich bedeutsamen Handlungen juristischer Personen von natürlichen Personen begleitet, die diese Entscheidungen unmittelbar treffen. Der Wille einer juristischen Person wird immer durch den Willen natürlicher Personen bestimmt und vollständig kontrolliert. Somit können juristische Personen nicht ohne den Willen natürlicher Personen agieren. Bei KI-Systemen besteht bereits ein objektives Problem ihrer Autonomie, d. h. der Fähigkeit, ab dem Moment der direkten Schaffung eines solchen Systems Entscheidungen ohne das Eingreifen einer natürlichen Person zu treffen.

Angesichts der inhärenten Einschränkungen der oben besprochenen Konzepte bietet eine große Anzahl von Forschern ihre eigenen Ansätze zur Auseinandersetzung mit dem rechtlichen Status künstlicher intelligenter Systeme an. Herkömmlicherweise lassen sie sich auf verschiedene Variationen des Konzepts der „gradienten Rechtsfähigkeit“ zurückführen, so der Forscher DM Mocanu von der Universität Leuven, der einen eingeschränkten oder teilweisen Rechtsstatus und die Rechtsfähigkeit von KI-Systemen mit einem Vorbehalt impliziert: die Der Begriff „Gradient“ wird verwendet, weil es nicht nur darum geht, bestimmte Rechte und Pflichten in den Rechtsstatus aufzunehmen oder nicht aufzunehmen, sondern auch darum, eine Reihe solcher Rechte und Pflichten mit einer Mindestschwelle zu bilden und nur diese Rechtsfähigkeit anzuerkennen für bestimmte Zwecke. Dann können die beiden Haupttypen dieses Konzepts Ansätze umfassen, die Folgendes rechtfertigen:

1) KI-Systemen einen besonderen Rechtsstatus zu verleihen und „elektronische Personen“ als völlig neue Kategorie von Rechtssubjekten in die Rechtsordnung einzubeziehen;

2) Gewährung einer eingeschränkten Rechtsstellung und Rechtsfähigkeit von KI-Systemen im Rahmen des zivilrechtlichen Rechtsverkehrs durch Einführung der Kategorie „elektronische Agenten“.

Die Positionen der Befürworter unterschiedlicher Ansätze innerhalb dieses Konzepts können übereinstimmen, da es keine ontologischen Gründe dafür gibt, künstliche Intelligenz als Rechtssubjekt zu betrachten; In bestimmten Fällen gibt es jedoch bereits funktionale Gründe, Systeme der künstlichen Intelligenz mit bestimmten Rechten und Pflichten auszustatten, was sich „als der beste Weg erweist, die individuellen und öffentlichen Interessen zu fördern, die gesetzlich geschützt werden sollten“, indem diesen Systemen „begrenzt und eng“ zugestanden wird „Formen juristischer Personen“.

Die Gewährung einer besonderen Rechtsstellung für Systeme der künstlichen Intelligenz durch die Schaffung eines eigenen Rechtsinstituts der „elektronischen Personen“ hat einen erheblichen Vorteil bei der detaillierten Erläuterung und Regelung der entstehenden Beziehungen:

– zwischen juristischen Personen und natürlichen Personen und KI-Systemen;

– zwischen KI-Systemen und ihren Entwicklern (Betreiber, Eigentümer);

– zwischen einem Dritten und KI-Systemen im zivilrechtlichen Rechtsverkehr.

In diesem rechtlichen Rahmen wird das System der künstlichen Intelligenz getrennt von seinem Entwickler, Eigentümer oder Betreiber gesteuert und verwaltet. Bei der Definition des Konzepts der „elektronischen Person“ konzentriert sich PM Morkhat auf die Anwendung der oben genannten Methode der juristischen Fiktion und die funktionale Ausrichtung eines bestimmten Modells künstlicher Intelligenz: „elektronische Person“ ist ein technisches und rechtliches Bild (das weist einige Merkmale einer juristischen Fiktion sowie einer juristischen Person auf), die eine bedingt spezifische Rechtsfähigkeit eines Systems künstlicher Intelligenz widerspiegelt und umsetzt, die sich je nach beabsichtigter Funktion bzw. Zweck und Fähigkeiten unterscheidet.

Ähnlich wie beim Konzept der Kollektivpersonen in Bezug auf KI-Systeme geht es bei diesem Ansatz um die Führung spezieller Register „elektronischer Personen“. Eine detaillierte und klare Beschreibung der Rechte und Pflichten „elektronischer Personen“ ist die Grundlage für die weitere Kontrolle durch den Staat und den Eigentümer solcher KI-Systeme. Ein klar definierter Kompetenzbereich, ein engerer Rechtsstatus und die Rechtsfähigkeit von „elektronischen Personen“ stellen sicher, dass diese „Person“ aufgrund potenziell unabhängiger Entscheidungsfindung und ständigem Selbstlernen nicht über ihr Programm hinausgeht.

Dieser Ansatz impliziert, dass künstlicher Intelligenz, die in der Phase ihrer Entstehung geistiges Eigentum von Softwareentwicklern ist, nach entsprechender Zertifizierung und staatlicher Registrierung zwar die Rechte einer juristischen Person, jedoch der Rechtsstatus und die Rechtsfähigkeit einer „elektronischen Person“ zuerkannt werden können ” bleibt erhalten.

Die Einführung einer grundsätzlich neuen Institution der bestehenden Rechtsordnung wird gravierende rechtliche Konsequenzen haben und eine umfassende Gesetzesreform zumindest im Verfassungs- und Zivilrecht erfordern. Forscher weisen zu Recht darauf hin, dass bei der Übernahme des Konzepts einer „elektronischen Person“ angesichts der Schwierigkeiten bei der Einführung neuer Personen in die Gesetzgebung Vorsicht geboten ist, da die Ausweitung des Konzepts „Person“ im rechtlichen Sinne möglicherweise zu Einschränkungen führen kann die Rechte und berechtigten Interessen bestehender Rechtssubjekte (Bryson et al., 2017). Es scheint unmöglich, diese Aspekte zu berücksichtigen, da die Rechtsfähigkeit natürlicher Personen, juristischer Personen und Körperschaften des öffentlichen Rechts das Ergebnis einer jahrhundertelangen Entwicklung der Staats- und Rechtstheorie ist.

Der zweite Ansatz innerhalb des Konzepts der Gradienten-Rechtsfähigkeit ist das Rechtskonzept der „elektronischen Agenten“, das vor allem mit der weit verbreiteten Nutzung von KI-Systemen als Kommunikationsmittel zwischen Gegenparteien und als Werkzeuge für den Online-Handel zusammenhängt. Dieser Ansatz kann als Kompromiss bezeichnet werden, da er die Unmöglichkeit einräumt, KI-Systemen den Status vollwertiger Rechtssubjekte zu verleihen und gleichzeitig bestimmte (gesellschaftlich bedeutsame) Rechte und Pflichten für künstliche Intelligenz festzulegen. Mit anderen Worten: Das Konzept der „elektronischen Agenten“ legalisiert die Quasisubjektivität künstlicher Intelligenz. Unter dem Begriff „Quasi-Rechtssubjekt“ ist ein bestimmtes Rechtsphänomen zu verstehen, bei dem bestimmte Elemente der Rechtsfähigkeit auf offizieller oder doktrinärer Ebene anerkannt werden, die Feststellung des Status eines vollwertigen Rechtssubjekts jedoch nicht möglich ist.

Befürworter dieses Ansatzes betonen die funktionalen Merkmale von KI-Systemen, die es ihnen ermöglichen, sowohl als passives Werkzeug als auch als aktiver Teilnehmer an Rechtsbeziehungen zu fungieren und potenziell in der Lage zu sein, eigenständig rechtlich bedeutsame Verträge für den Systeminhaber zu generieren. Daher können KI-Systeme bedingt im Rahmen von Agenturbeziehungen betrachtet werden. Bei der Erstellung (oder Registrierung) eines KI-Systems schließt der Initiator der Aktivität „elektronischer Agent“ mit ihm einen quasi einseitigen Handelsvertretervertrag ab, wodurch dem „elektronischen Agenten“ eine Reihe von Befugnissen eingeräumt werden, die er ausüben kann Rechtshandlungen durchführen, die für den Auftraggeber von Bedeutung sind.

Quellen:

  • R. McLay, „Managing the Rise of Artificial Intelligence“, 2018
  • Bertolini A. und Episcopo F., 2022, „Roboter und KI als Rechtssubjekte?“ Entflechtung der ontologischen und funktionalen Perspektive“
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). „Künstliche Persönlichkeit in der sozialen und politischen Kommunikation. Künstliche Gesellschaften“
  • „Besonderheiten der Labordiagnostik des Sanfilippo-A-Syndroms“ NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, „Ist die Rechtsfähigkeit künstlicher Intelligenz möglich?“ Arbeiten zum Thema geistiges Eigentum“
  • Ladenkov, N. Ye., 2021, „Modelle zur Gewährung der Rechtsfähigkeit an künstliche Intelligenz“
  • Bertolini, A. und Episcopo, F., 2021, „Der Bericht der Expertengruppe zur Haftung für künstliche Intelligenz und andere neue digitale Technologien: eine kritische Bewertung“
  • Morkhat, PM, 2018, „Zur Frage der rechtlichen Definition des Begriffs künstliche Intelligenz“

Anton Vokrug ist ein IT-Unternehmer, Denker und KI-Forscher, der ursprünglich aus der Ukraine stammt. Kürzlich hat er eines seiner IT-Unternehmen erfolgreich verkauft. Derzeit ist er als Partner und Blockchain Business Advisor bei tätig Dexola.com.