Roboter und Mensch geben sich die Faust
„Wir brauchen jetzt Robotergesetze!“ (Bild: Andrey Popov - stock.adobe.com)

Ratgeber Notebook & Computer „Wir brauchen jetzt Robotergesetze!“

Eine ältere Dame hat sich einen Robo-Dog gekauft, der ihr viel Freude bereitet. Sie kann ihn streicheln, mit ihm spazieren gehen und ihn abends in sein Körbchen bringen. Doch eines Tages rast ihr kleiner Roboterfreund unversehens vom Gehweg auf die Straße. Ein Auto weicht aus und kracht gegen den nächsten Baum. Der Neuwagen des Nachbarn ist Schrott. Und nun?

Der Fall ist gar nicht weit hergeholt. Sony hat gerade erst auf der Consumer Electronics Show (CES) seine neueste Version von Roboterhund Aibo präsentiert. Zentrales Verkaufsargument: Der elektronische Hund für rund 1.800 Dollar handelt autonom, zeigt völlig unterschiedliche Reaktionen und erweckt ganz den Eindruck eines lebendigen Wesens. Wenn aus Spaß allerdings Ernst wird, hat Aibos menschlicher Besitzer ein Problem. Und das gilt für viele Maschinen in unserer Umgebung, die von Tag zu Tag intelligenter und autonomer werden. Wer haftet für sie? Mit Fragen wie dieser beschäftigt sich Professor Hans-Hermann Dirksen, Experte für digitales Recht in Deutschland.

Herr Prof. Dirksen, wer trägt die Verantwortung für den Robo-Dog?

Das Beispiel zeigt, wie autonom handelnde Maschinen und künstliche Intelligenz ganz neue Fragen für unser Rechtssystem aufwerfen. Die Verantwortung für Maschinen liegt normalerweise neben dem Hersteller, der für sein Produkt haftet, vor allem beim Nutzer. Verletzt der autonom handelnde Roboter fremde Rechtsgüter, stellt sich die Frage: Hat der Nutzer alle Sorgfaltsanforderungen eingehalten? Das zu beurteilen wird immer schwieriger, gerade bei autonom, also eigenverantwortlich handelnden Maschinen.

Der Fall scheint doch aber eindeutig: Die alte Dame hätte besser auf den Hund aufpassen müssen.

Schadensersatz gibt es bei uns nur, wenn ein Verschulden festgestellt wird. In der Konsequenz müsste man entweder dem Softwareentwickler nachweisen, dass er bei der Programmierung die erforderliche Sorgfalt außer Acht gelassen hat, dass eine solche Situation auftreten kann. Oder eben dem Nutzer, dass er falsch gehandelt hat. Was aber ist, wenn man das nicht nachweisen kann? Wenn keine Schuld festgestellt werden kann? Der Nutzer vertraut schließlich darauf, dass die autonom handelnde Maschine funktioniert. Mangels Verschuldens haftet der Nutzer in solchen Fällen nicht. Dann könnte es passieren, dass der Nachbar leer ausgeht, der durch moderne Technik geschädigt wurde. Und das darf meiner Ansicht nach nicht sein.

3 Geräte schützen, nur für 2 zahlen!

Beim Komplettschutz 3 für 2 versichern Sie drei Geräte und erhalten den günstigsten Einzeltarif – bei gleichen Leistungen – kostenfrei.

  • Geräte auswählen
  • Komponenten hinzufügen
  • Geld sparen
Ein humanoider Roboter tippt auf ein Datenhologramm
Gesetze für Roboter (Bild: phonlamaiphoto - stock.adobe.com)

Was wäre Ihrer Meinung nach eine mögliche Abhilfe?

Wenn Maschinen einen Grad von Autonomie erreichen, der es unmöglich macht, bei Fragen der Haftung ohne Weiteres auf Hersteller, Programmierer, Verkäufer oder Anwender zurückzugreifen, wird es problematisch. Ein Ansatzpunkt wäre, dass man in solchen Fällen vom Prinzip der Verschuldenshaftung abweicht und auch hier eine Gefährdungshaftung einführt, ähnlich wie bei der Autohaftpflicht oder bei Flugzeugen: Das Produkt als solches wird als so riskant eingestuft, dass seine Nutzung immer eine Gefährdung darstellt. Diese Unterscheidung – Gefährdung statt Verschulden – könnte auch für automatisierte oder automatische Technik vom Gesetzgeber definiert werden. Allerdings muss man auch fragen, was wir als gefährlich definieren. Ist Autonomie eine Gefahr? Dann ist auch jeder Mensch gefährlich.

Treiben wir es auf die Spitze. Was ist, wenn ein Mensch mit einem automatisch gesteuerten Rollator unterwegs ist, der autonom ausweicht und dabei einen Unfall mit schweren Körperverletzungen verursacht? Wer trägt dann die Verantwortung?

Auch dieser Fall zeigt die Schwierigkeit des Themas. Was ist, wenn der Fahrer möglicherweise dement ist und den Rollator gar nicht selbst hätte steuern können? Und was, wenn dem Konstrukteur des Rollators oder dem Programmierer der Navi-Software kein Vorwurf zu machen ist? Genau um solche Fälle geht es mir. Kein Hersteller kann mehr bei eigenständig handelnden Maschinen alle Eventualitäten miteinkalkulieren.

Und was passiert, wenn zwei autonom fahrende Autos zusammenstoßen? Wer muss dann haften?

Dann wird die Sache noch unübersichtlicher. Wird Programmierer eins oder Programmierer zwei haftbar gemacht? Oder beide? Wer hat hier wen gefährdet? Wenn sich Verantwortlichkeiten nicht aufklären lassen, wird bereits heute eine Schadensaufteilung vorgenommen. Aber was ist, wenn beide das nicht voraussehen konnten und es trotzdem einen Schaden gab? Wenn ein Computer aus vielen Tausend Optionen auswählt, können wir oft nicht mehr voraussehen, welche Konsequenzen sein Handeln haben kann. Und je autonomer die Geräte handeln, desto schwieriger wird das. Daher halte ich es auf jeden Fall für notwendig, schleunigst Haftung und Verantwortlichkeiten in Robotergesetzen kategorisch zu definieren.

Rechtssicherheit ist wichtig – sowohl für Bürger als auch für Unternehmen. Das EU-Parlament hat im Februar 2017 einen Katalog an Regelungen vorgeschlagen, um das Roboterrecht auf solide Füße zu stellen. Herrscht nun Klarheit?

Da denke ich immer gleich an Science-Fiction-Autor Isaac Asimov und seine drei Robotergesetze: „Ein Roboter darf nie ein menschliches Wesen verletzen, ein Roboter muss den Befehlen des Menschen gehorchen und er muss seine eigene Existenz beschützen.“ Das war 1942 in einem Roman. Es ist kein wirkliches Gesetz. Obwohl seitdem technisch extrem viel passiert ist, haben wir prinzipiell keinerlei Grundlage, auch nicht mit den EU-Richtlinien. Und obwohl Roboter uns vermeintlich immer mehr Handlungen abnehmen. Maschinenroboter in der Autoindustrie gibt es ja etwa schon lange, aber die können im Allgemeinen nichts eigenständig entscheiden. Autonomes Fahren und Pflegeroboter kommen neu hinzu. Und bald auch Roboter, die eigene Handlungen jenseits ihrer Programmierung entwickeln. Die Gesetze von Asimov reichen jedenfalls nicht aus, um die Vielfalt der neuen künstlichen Intelligenz zu strukturieren.

Humanoider Roboter "Pepper"
Brauchen wir Robotergesetze? (Bild: chingyunsong - stock.adobe.com)

Für wie weit fortgeschritten und für wie risikoreich halten Sie denn den aktuellen Stand der Robotik?

Viele Roboter oder Systeme mit künstlicher Intelligenz tun bislang vor allem das, was man ihnen einprogrammiert hat. Sie sind eher dienstbare Geister mit Teilautomatisierung. Heberoboter etwa, die beim Transport von Patienten helfen, oder Roboter, die Essen ausfahren. Aber man wundert sich, wie schnell diese Grenze überschritten werden kann. Facebook etwa hat zwei Roboter programmiert, die sich eigentlich nur gegenseitig etwas verkaufen und dafür eine gerechte Struktur finden sollten. Der Versuch wurde sofort abgebrochen, als sie plötzlich eine eigene Sprache entwickelten, die die menschlichen Programmierer nicht mehr verstehen konnten.

Wenn diese beiden Roboter beschlossen hätten, gemeinsam ein diktatorisches Land atomar zu vernichten und dafür das Pentagon zu hacken – hätte Facebook-Gründer Mark Zuckerberg dann dafür haften müssen?

Ich weiß nicht, ob solche radikalen Dinge überhaupt in ihren Handlungsoptionen enthalten waren. Aber können Maschinen jemals eine eigene Ethik entwickeln? Wahrscheinlich nicht, die Software wird immer auf der Grundlage der ihr vorgegebenen ethischen Normen handeln. Wenn ein Mörder seinem Opfer ein Messer in den Bauch sticht oder ein Chirurg bei einer OP den Bauch aufschneidet, ist das vom Grundsatz her die gleiche Handlung, nur die Motivation ist grundverschieden. Können Roboter das auch unterscheiden und bewerten?

Roboter oder Maschinen, die von Software gesteuert werden, handeln doch aber strikt rational. Das tun sicher nicht alle Menschen.

Na ja, was ist schon rational? So hart das auch klingt: Der Pflegeroboter könnte ja wirklich aufgrund einer ethischen Überlegung entscheiden, die Seniorin verhungern zu lassen, weil sie nach seiner Berechnung für das Sozialsystem zu teuer ist. Das will doch niemand. Und soll ein autonomer Krankenwagen bei Rot über die Ampel fahren, damit der Patient schneller ins Krankenhaus kommt? Da scheint uns der Rechtsbruch doch okay zu sein. Genau deshalb brauchen wir eben Roboterregeln. Ethik und Logik, denen Roboter folgen sollen, müssen klar festgelegt werden.

Haben Sie persönlich Angst vor einer Zukunft mit autonomen Maschinen?

Nein, für Schwarzmalerei sehe ich keinen Grund. Die Möglichkeiten und positiven Effekte werden gegenüber möglichen Problemen weit überwiegen. Autonomes Fahren wird das Leben vieler Menschen bewahren, Operationsroboter werden Leben retten, Pflegroboter den Pflegenotstand begrenzen. Aber je autonomer alles wird, desto mehr müssen wir schauen, dass uns der Fortschritt nicht aus der Hand gleitet. Wir müssen regeln, wie viel Autonomie wir dem Roboter überhaupt zubilligen wollen. Denken Sie an die „Matrix“-Trilogie, in der das Computerprogramm Mr. Smith sich selbstständig macht und sogar die Maschinen die Kontrolle darüber verloren haben. Aber mit den Menschen gemeinsam bekommen sie das am Ende wieder in den Griff. Das ist doch ein schöner Ausblick.