Roboter vor Gericht

Susanne Beck im Gespräch mit Dieter Kassel · 22.04.2010
Wer trägt die Verantwortung, wenn Roboter Fehler machen? Zu dieser Frage forschen Juristen und Informatiker an der Universität Würzburg. Bislang sei ungewiss, "ob wir tatsächlich völlig neue Gesetze brauchen", erklärt Wissenschaftlerin Susanne Beck.
Dieter Kassel: Michael Engel über Maschinen, die Fehler machen können, und die Frage, wer an diesen Fehlern dann Schuld sein soll. An der Universität Würzburg versucht das Forschungsprojekt "Robotik und Recht" diese und ähnliche Fragen zu klären, nach Antworten zu suchen. Das Projekt ist angesiedelt am Lehrstuhl für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik. Dort arbeiten Juristen und Informatiker gemeinsam an diesem Projekt. Menschen wie zum Beispiel die Juristin Susanne Beck, die ich jetzt in unserem Studio in Würzburg begrüßen kann. Schönen guten Tag, Frau Beck!

Susanne Beck: Ja, guten Tag!

Kassel: Fangen wir doch mit diesem Roboter an, mit dem auch gerade der kleine Bericht begann. Wenn jetzt dieser Roboter, weil er, wie er ja kann, wir haben das gelernt, einem Hindernis ausweicht, ein Regal umwirft, das Regel verletzt jemanden. Wer ist denn da juristisch gesehen im Moment daran Schuld?

Beck: Ja, auch im Moment ist diese Frage noch nicht eindeutig geklärt. Also es ist sicher der Hersteller, der Programmierer Schuld. Das Problem bei Robotern ist aber auch, dass sie ja Informationen dazulernen und vom Nutzer auch mit Informationen gefüttert werden. Wenn der Fehler daran liegt, dass diese Informationen falsch sind, dann kann auch der Nutzer des Roboters Schuld sein.

Kassel: Wer wäre in dem Fall der Nutzer? Bei dem Roboter wäre es wahrscheinlich der Baumarkt, der ihn beschäftigt.

Beck: Genau.

Kassel: Das Beispiel, das wir am Schluss gehört haben, mit der Sensortechnik beim Einparken wirkt simpler im Moment, und im Moment sagen auch die Hersteller solcher Geräte, Schuld ist immer der Fahrer, weil der jederzeit eingreifen kann. Wenn er es nicht tut, ist er Schuld. Aber könnte sich nicht auch das in Zukunft mal ändern, wenn wir so perfekte Sensoren haben, dass die auch so viel schneller sind als Menschen, dass ein Jurist irgendwann die Frage stellen, klären muss, konnte der Mensch überhaupt noch eingreifen?

Beck: Der Sinn von solchen Maschinen soll ja auch irgendwann werden, dass der Mensch sich darauf verlassen kann - kann er dann dafür verantwortlich gemacht werden, wenn er das nicht tut?

Kassel: Was würde es aber bedeuten, wenn man irgendwann den Punkt erreicht, der Programmierer ist nicht mehr verantwortlich zu machen, der Besitzer oder der das Gerät einsetzt, ist nicht dafür verantwortlich zu machen, der, der dem Gerät begegnet und eventuell einen Unfall erleidet, ist nicht verantwortlich zu machen. Stellt sich die einfache Frage: Wer denn dann?

Beck: Und die ist gar nicht so einfach, diese Frage. Also natürlich versuchen wir nicht in unserem Projekt rauszufinden, dass letztlich die Roboter verantwortlich sind, das ist vielleicht eine Frage, die uns in paar Jahrzehnten beschäftigen könnte. Es stellen sich einfach völlig neue Herausforderungen für den Begriff Verantwortlichkeit, und die versuchen wir zu diskutieren. Man könnte überlegen, das Problem über Versicherungen bis zu einem gewissen Grade zu regeln, das wäre eine pragmatische Lösung dieses Problems.

Kassel: Das wäre die Haftungsfrage. Stellt sich natürlich bei strafrechtlicher Verfolgung auch immer die Frage, wie sorgen wir für Vermeidung. Könnte es Teil einer entsprechenden Gesetzgebung sein, dass jemand, der einen Roboter oder eine Maschine einsetzt, auch rechtlich verpflichtet ist, für Wartung, für Ähnliches zu sorgen, sodass man die Schuld auch über die Frage klärt, wie sehr hat jemand dazu beigetragen, einen solchen Unfall zu vermeiden?

Beck: Das ist ja auch bereits jetzt bei Produkten der Fall, dass man natürlich in gewissem Maß dafür verantwortlich ist, und diese Verantwortlichkeit besteht natürlich bei Robotern weiter. Allerdings wird es eben auch dem Menschen, der dafür verantwortlich ist, nicht möglich sein, wirklich alle Entscheidungen oder Handlungen des Roboters vorhersehen zu können. Und eben gerade da ist eine Lücke, die bei anderen Maschinen nicht auftaucht. Und in dieser Lücke versuchen wir Antworten zu finden in unserem Projekt.

Kassel: Im Gespräch im Deutschlandradio Kultur ist Susanne Beck. Sie ist wissenschaftliche Mitarbeiterin beim Projekt "Robotik und Recht" der Universität Würzburg. Neue wissenschaftliche Entwicklungen werfen neue Fragen auf, haben Sie gesagt. Nehmen wir noch mal ein Beispiel, das vielleicht nicht jeder kennt und wo ich das noch sehr viel komplizierter finde. Es gibt nicht nur Herzschrittmacher, sondern es gibt inzwischen auch ein Gerät, das man durchaus als Hirnschrittmacher bezeichnen kann. Das wird zum Beispiel eingesetzt bei Parkinson-Kranken, es gibt auch testweise Einsätze bei Depressionskranken, und man hat inzwischen festgestellt, dass bei einigen betroffenen Personen dieser Hirnschrittmacher den Sexualtrieb verändern kann, er kann ihn verstärken. Denkbar ist also, dass dieses Gerät im Gehirn dafür verantwortlich sein könnte, ich bin hier sehr vorsichtig, dass so ein Mensch zum Beispiel eine Vergewaltigung durchführt. Wer wäre dann Schuld? Das Gerät, der Mensch, der Arzt, der es verschrieben hat?

Beck: Also der Arzt, der es verschrieben hat, denke ich, ist sicher nicht Schuld, der müsste natürlich den Patienten hinreichend aufklären über die möglichen Risiken. Das Problem bei diesen Hirnschrittmachern ist, dass wir die Risiken aktuell auch noch gar nicht abschätzen können, also was eine elektrische Strömung bewirken, die das Hirn eines Menschen beeinflussen, kann man einfach nicht für die nächsten Jahre vorhersehen. Man hat auch mit diesen Entwicklungen gar nicht gerechnet, man hat die diese Geräte ja für Parkinson-Patienten erfunden. Die haben zum Beispiel auch Depressionen gesenkt, sie hatten also auch durchaus positive nicht vorhersehbare Effekte. Aber auf jeden Fall muss man diskutieren, ob die Schuld des Patienten oder des Handelnden zumindest zu reduzieren ist aufgrund dieses Geräts.

Kassel: Wird das auch ein Thema sein in Zukunft – Ihr Projekt ist ja auf mehrere Jahre angelegt, und ich finde, das ist schon ein grundsätzlicher Unterschied, ob wir über Maschinen reden, die Menschen begegnen können, die ihnen helfen oder auch nicht, oder Maschinen wie bei diesem Hirnschrittmacher, die einen Teil des Menschen ja regelrecht werden.

Beck: Also wir werden zwei Bereiche in diesem Projekt haben, beide sind ja auch interdisziplinär eingewoben, und wir werden andere Wissenschaftler aus anderen Bereichen mit einschließen. Und dazu gehört einmal diese sehr praktischen Fragen der aktuellen Robotik. Die Roboterforscher und -hersteller sind auch dringend auf diese Fragen oder die Beantwortung dieser Fragen angewiesen, weil im Moment ist es so, dass die fehlende rechtliche Regelung die Technik eher behindert. Also unser, die Intention unseres Projektes ist auch gar nicht, die Technik irgendwie einzuschränken, sondern sie juristisch zu begleiten. Das ist der eine Teil. Der andere Teil ist eben eine Auseinandersetzung mit diesen Mensch-Maschine-Verbindungen, und man muss in diesem Bereich natürlich auch diskutieren, ob es Entwicklungen gibt, die wir irgendwann nicht mehr wollen, und Szenarien, wo wir sagen, da ist vielleicht die Gesellschaft dagegen. Und dann muss man natürlich auch überlegen, ob man die verhindern kann.

Kassel: Was für Szenarien könnten das sein?

Beck: Ja, das fängt schon ganz banal an bei der Frage, ob man in einen Menschen einen Computerchip einbauen soll, in dem seine ganzen Daten gespeichert sind. Das wäre ein einfaches Beispiel. Wollen wir so was, wollen wir diese Daten in einem Computerchip in unserem Körper haben. Dann wird im Bereich der Nanotechnologie diskutiert, ob man Nanobots im Körper einsetzen könnte. Und es gibt schon etwas gewagte Science-Fiction-Szenarien von Soldaten, die von Gehirn zu Gehirn kommunizieren, die mit Gehirn Waffen steuern können. Und da könnte man natürlich durchaus überlegen, ist das Zukunftsvision, die die Gesellschaft befürwortet oder eher befürchtet.

Kassel: Wie ist denn eigentlich die Rezeption Ihrer Arbeit bei den Leuten, die es betrifft? Eine Gruppe haben Sie schon erwähnt, und da finde ich das auch sehr logisch, das sind Hersteller von Lösungen, die mit Robotik zu tun haben, die natürlich rechtliche Klarheit wollen. Kommen wir wieder zu den Sensoren beim Einparken, da will der Autohersteller natürlich wissen, ob er nachher zahlt, wenn was kaputtgeht oder nicht. Das ist einfach nachvollziehbar. Wie sehen es denn die Juristen. Ist denen überwiegend bewusst, dass wir vielleicht auch wirklich neue Gesetze brauchen, oder sagen die eher, na ja, das kann mit den alten Gesetzen schon noch irgendwie fassen?

Beck: Also ich denke, bisher oft so gewesen, dass wenn wir, wenn man das Projekt erwähnt hat, erst mal irgendwie erstaunen. Das ist ja irgendwie immer so, dass man denkt, oje, das ist aber noch sehr Science-Fiction. Aber je mehr man darüber berichtet, wie aktuell die Fragen schon sind, desto mehr Interesse wächst auch. Und ich denke, dann wächst auch ein Bewusstsein, dass unsere alten Regelungen nur bedingt geeignet sind. Die Maschinen, die eben bisher davon erfasst sind, sind eben nicht genau dasselbe wie Roboter, und da gibt es einfach Unterschiede. Wir wissen auch noch gar nicht, wir sind ja auch erst am Anfang des Projekts, ob wir tatsächlich völlig neue Gesetze brauchen oder ob wir die alten bis zu einem gewissen Maß abwenden können und eben nur einige Lücken mit neuen Gesetzen schließen müssen, und das wird sich erst im Laufe des Projekts zeigen. Aber ich denke, es wächst schon Bewusstsein, dass die alten Regelungen nur bedingt geeignet sind.

Kassel: Nun haben wir beide gesagt, das ist zum Teil noch Science-Fiction, und Sie wollen sich in dem Projekt mit dem beschäftigen, mit dem man sich sinnvollerweise jetzt auch schon beschäftigen kann und sollte. Trotzdem zum Schluss: Haftung ist das eine, Strafe ja das andere – können Sie sich vorstellen, dass wir in 20, 30 Jahren in den Gerichtssälen Roboter haben, die da auf der Anklagebank sitzen und dann vielleicht, Robotergefängnisse braucht man nicht, aber das Abschalten als juristisch legitime Strafe?

Beck: Also es gibt die sehr gewagte These, dass wir 2050 sogar schon Roboter heiraten werden. Das wäre ja an sich vielleicht auch schon eine Strafe für die Roboter. Nein, also in dem Sinne eines Strafrechts kann ich mir das nicht vorstellen, zumindest noch nicht. Wie gesagt, in ein paar Jahrzehnten kann man das sich vielleicht überlegen. Also letztlich ist es eine Entscheidung der Gesellschaft, wem sie Rechte und Pflichten zuspricht. Und irgendwann kann es durchaus sein, dass zumindest die Gesellschaft vor die Entscheidung gestellt wird, wie gehen wir Robotern um, die doch sehr autonom entscheiden können, die in vielerlei Hinsicht Menschen ähneln, und dann kann es durchaus sein, dass die irgendwann auch im Gericht vor dem Strafrichter stehen.

Kassel: Darüber reden wir dann in 20 Jahren, und dann sind Sie vielleicht Leiterin des Forschungsprojektes Robotik und Familienrecht. Aber so weit sind wir noch nicht.

Beck: Nein.

Kassel: Herzlichen Dank! Das war Susanne Beck. Sie ist wissenschaftliche Mitarbeiterin des aktuellen Forschungsprojekts "Robotik und Recht" an der Universität Würzburg, wo man sich die Frage stellt, wenn Roboter, die immer mehr auch selbstständige Entscheidungen treffen können, eine falsche Entscheidung treffen, wer ist dann daran eigentlich Schuld.