Roboter im Knast?
Ein autonomer Bot der Künstlerinnen „!Mediengruppe Bitnik“ bestellte zufällig gefakte Jeans, Ecstasy und ungarische Pässe im Darknet. Die Schweizer Polizei nahm es gelassen. Aber wer ist eigentlich für Roboter, die gegen Gesetze verstoßen, verantwortlich?
Ein autonomer Bot der Künstlerinnen „!Mediengruppe Bitnik“ bestellte zufällig gefakte Jeans, Ecstasy und ungarische Pässe im Darknet. Die Schweizer Polizei nahm es gelassen. Aber wer ist eigentlich für Roboter, die gegen Gesetze verstoßen, verantwortlich?
Schon lange versprechen uns Wissenschaft und Science-Fiction Roboter mit Bewusstsein. Seit den 60er Jahren sind Utopien und Dystopien der künstlichen Intelligenz immer wieder Thema. Autonome Maschinen ohne Bewusstsein kommen bereits heute im Alltag und in technischen Arbeitsprozessen zum Einsatz: Sie bauen unsere Autos zusammen, spielen Fußball-Weltmeisterinnenschaften, mähen Rasen, saugen Wohnungen, putzen Schwimmbäder und besuchen den Mars. Aber auch in der Arbeit mit Menschen erlangen sie immer mehr Bedeutung: In Dubai sollen ab 2017 Roboterpolizistinnen zum Einsatz kommen. In Japan werden schon seit 2009 Pflegeroboter getestet, die Patientinnen selbstständig waschen, aus dem Rollstuhl heben und ins Bett legen. Doch was passiert, wenn der Roboter einen Fehler macht? Wenn er eine Patientin fallen lässt und sich diese verletzt?
ERROR. Nachdem Maschinen nicht verklagt werden können, stellt sich die Frage, ob im Schadensfall die Herstellerin oder die Besitzerin des Roboters die Schuld tragen soll. Die aktuellen Roboter sind zwar ohne Bewusstsein, aber lernfähig, entwickeln sich weiter, übermitteln die Daten der Patientinnen und schlagen im Notfall Alarm. Nehmen wir an, über die Jahre lernt der Roboter, dass Schnarchen harmlos ist. Doch dann hat eine Patientin einen Erstickungsanfall. Die Maschine interpretiert das als Schnarchen, die Patientin stirbt. Wer trägt die Konsequenzen?
Dietmar Dietrich forscht an der Technischen Universität Wien zu künstlicher Intelligenz und sagt, dass die Haftungsfrage eindeutig sei: „Selbstverständlich haftet der/die HerstellerIn nach europäischem Rechtsstandard, denn der Computer hat kein Bewusstsein. Er kann also seine Handlungen nicht reflektieren." Von 1992 bis 2003 war in Deutschland bei Hüftoperationen ein Roboter im Einsatz. Als er Hüftknochen zu tief ausfräste, wurde er vom Markt genommen. Der Hersteller Integrated Surgical Systems (ISS) haftete dafür. Juristisch ausgedrückt sind Roboter Produkte im Sinne des Produkthaftungsgesetzes und die Herstellerin haftet verschuldensunabhängig, wenn das Produkt fehlerhaft ist. Anders sieht es zum Beispiel beim Navigationsgerät aus. Wenn eine dieses in eine Sackgasse oder Einbahnstraße führt, so hat die Fahrerin die Wahl der Anweisung zu folgen oder nicht. Das Bewusstsein und damit die Verantwortung liegen bei ihr.
Aber wie ist das mit autonomen Robotern? Vor kurzem ist ein Audi die 900 Kilometer lange Strecke vom Silicon Valley nach Las Vegas größtenteils alleine gefahren, Nürnbergs U-Bahn fährt auf zwei Linien bereits fahrerinnenlos. Fehlfunktionen von Robotern könnten hier erheblichen Schaden anrichten und der Gesundheit oder dem Eigentum von Menschen schaden.
CYBORG? Diese neuen Umstände erfordern eine Reflexion der Beziehung von Robotern und Menschen zum Gesetz. Dabei muss es nicht unbedingt um das Erlassen eines komplett neuen Rechts für Roboter gehen. „Gesetze brauchen wir in unserer Gesellschaft nur für Wesen, denen Bewusstsein zugesprochen werden kann. Roboter von heute sind Maschinen und haben nichts Menschliches an sich, auch wenn sie manchmal so aussehen und manche Bewegungen dem Menschen ähnlich sind“, führt Dietrich aus.
Vielmehr geht es um offene Fragen bezüglich der Anwendung geltender Gesetze sowie unter Umständen eine Ergänzung in den jeweiligen Rechts- gebieten. Dabei gibt es eine zentrale Schwierigkeit: Die Ursache für die Fehlfunktion eines Roboters ist häufig schwer festzustellen. Forscherinnen liefern die Erkenntnisse über die notwendige Programmierung für den Pflegeroboter, Programmiererinnen bestimmen den Rahmen an Daten, der durch die „Erziehung“ der Roboterbesitzerin erweitert wird. So trägt die Nutzerin zu dem Informationsstand und den Entscheidungsprozessen der Maschine bei, indem sie etwa den Alarm beim Schnarchen als Fehlalarm ausgibt. Soweit die Eigenständigkeit der Maschinen bei der Entscheidungsfindung als zunehmend bezeichnet werden kann, wird das Gesetz strapaziert werden. Es sei ohne Zweifel erforderlich, das geltende Recht auf seine Anwendbarkeit auf Roboter hin zu prüfen, da das Gesetz Lücken auf- weist und keine lernenden Roboter abdeckt, meint Susanne Beck, die an der Universität Würzburg zu juristischen Fragen zum Zusammenleben von Robotern und Menschen forscht. In ihren Augen steht die Diskussion zur Robotik erst am Anfang und wird sich in den nächsten Jahren noch vertiefen.
SUPER INTELLIGENT ROBOT. Amerikanische Forscherinnen wie Michio Kako prognostizieren, dass die Intelligenz der Maschinen jene des Menschen zwischen 2030 und 2070 überschreiten werde, während andere wie Dietmar Dietrich und Markus Vincze von der TU Wien glauben, Roboter mit Bewusstsein lägen noch in weiter Zukunft. Vincze sieht deshalb keinen Handlungsbedarf für eine Bearbeitung des österreichischen Rechts: „Asimovs Gesetze sollten gelten.“ Isaac Asimovs Robotergesetze bilden den Hintergrund seiner Kurzgeschichte „Runaround“ aus 1942 und prägen seitdem die Auffassung davon, was und wie ein Roboter sein sollte. Diese lauten: Ein Roboter darf kein menschliches Wesen verletzen. Er muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel 1 kollidieren, und er muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder 2 kollidiert.
Beck geht einen Schritt weiter. So sollte auch bei Robotern diskutiert werden, ob sie Empfängerinnen rechtlicher Mitteilungen sein könnten. Es sei zumindest denkbar, dass Roboter deren Inhalt und Bedeutung in gewissem Sinn verstehen und demgemäß handeln könnten. Das spräche dafür, Roboter in Zukunft bei einem Zusprechen von Pflichten und Rechten auch als direkte Ansprechpartnerin zu wählen, so Beck.
Clara Heinrich studiert Politikwissenschaft an der Universität Wien.