Werden die Roboter unsere Welt besser machen?

17.7.2018, 15:06 Uhr
Werden die Roboter unsere Welt besser machen?

Herr Professor Hilgendorf, der Rasenmäher fährt selbstständig durch den Garten, der Computer merkt sich meine Vorlieben und im Krankenhaus operieren Roboter sogar. Was genau ist ein Roboter?

Eric Hilgendorf: Die Gemeinsamkeit aller genannten Geräte ist, dass sie autonom agieren und in gewissem Maße unabhängig von menschlicher Kontrolle sind. Sie sind in der Lage, bestimmte Situationen intelligent zu bewältigen. Wenn das der Fall ist, sprechen wir von künstlicher Intelligenz. Es gibt keine feste Definition für Roboter. Man muss jeweils prüfen: Welche Eigenschaft trifft zu?

Im Grunde aber sind Roboter Maschinen. Warum soll für sie ein anderes Recht gelten?

Hilgendorf: Es gilt kein anderes Gesetz, aber es entstehen besondere juristische Fragen. Wenn eine Maschine einen Menschen verletzt, steht häufig noch ein Mensch dahinter. Roboter sind demgegenüber eine neue Kategorie von Akteuren. Kann man sie zur Verantwortung ziehen?

Hätten Sie ein Beispiel?

Hilgendorf: Ein Fall aus Aschaffenburg. Vor einigen Jahren hat dort ein 60-Jähriger beim Autofahren einen Schlaganfall erlitten. Er verriss das Steuer und normalerweise wäre sein Auto in der Böschung zum Stehen gekommen. Aber der Spurhalte-Assistent hat das Fahrzeug zurück auf die Straße gebracht, wo es mit hoher Geschwindigkeit in den nächsten Ort fuhr und eine junge Frau und ihr Kind tötete. Der Fahrer hat schwer verletzt überlebt.

Tragisch. Welche Schlüsse ziehen Sie als Jurist daraus?

Hilgendorf: Zivilrechtlich ist die Situation wenig kompliziert: Es geht um Schadenersatz, den trägt die Haftpflichtversicherung. Anders sieht die strafrechtliche Seite aus: Wer ist – im moralischen Sinne – dafür verantwortlich? Das Auto kann keine Verantwortung tragen. Der Fahrer selbst ist mehr Opfer als Täter. Und der Hersteller hätte das Fahrzeug nach damaligem Stand der Technik nicht besser machen können. Der Unfall war also sozusagen Schicksal.

Ihre Forschungsstelle wurde 2010 gegründet. Was haben Sie schon erreichen können?

Hilgendorf: Wir haben zum Beispiel ein Grünbuch – also Empfehlungen – zur Regelung der Robotik mitverfasst, das Anfang 2017 in die EU-Gesetzgebungsdiskussion eingeflossen ist. In einem Projekt der Deutschen Forschungsgemeinschaft DFG zu "Robotik und Recht" haben wir Handreichungen für Unternehmen entwickelt. Ganz aktuell bin ich in ein Experten-Gremium der EU berufen worden, das die Rahmenbedingungen für künstliche Intelligenz und Robotik klären soll. Ganz nah an der Praxis ist zudem unser Kompetenz-Zentrum "Digitalisierung und Recht", das mittelständischen Firmen in Nordbayern Unterstützung anbietet. Unsere Webseite www.zdr-mainfranken.de bietet dazu alle Information.

Der technische Fortschritt geht mit Siebenmeilen-Schritten voran. Kann das Recht da überhaupt mithalten?

Hilgendorf: Eigentlich schon, weil Rechtsregeln so abstrakt formuliert sind, dass sie auch für die neueste Technik gelten. "Wer einen Menschen verletzt, ist dafür verantwortlich" – das gilt für Menschen wie für Maschinen, unabhängig von der Neuheit des Produkts. Es würde auch für ein reines Roboter-Auto greifen, das über der Straße schwebt. Im Strafrecht führt es jedoch immer wieder zu Irritationen, wenn Gesetze in bestimmten Fällen nicht greifen, obwohl die Bevölkerung das Gefühl hat, "man müsste doch . . .".

Die Deutschen wollen für alle Wechselfälle des Lebens gewappnet sein . . .

Hilgendorf: Das stimmt, in Deutschland gibt es eine große Affinität zum Gedanken des Schadenausgleichs. In Italien, Spanien oder auch Großbritannien denkt man anders darüber. Dort ist es normal, auch mal auf einem Schaden sitzenzubleiben.

Auf welchen Feldern forschen Sie?

Hilgendorf: Robotik kommt fast überall vor. Denken Sie an die Industrierobotik autonomer Fertigungsstraßen, die man vielleicht im Fernsehen schon mal gesehen hat. An die Automobilindustrie, die beim Einsatz von autonomen Systemen weltweit am weitesten fortgeschritten ist. Oder der medizinische Bereich. Roboter werden bei Operationen eingesetzt, aber auch in der Pflege – wobei hier ethische Fragen auftauchen. Außerdem Service-Robotik und Unterhaltungsindustrie: Was bedeutet es, wenn sich ein Teddy den Gewohnheiten eines Kindes anpassen kann? Oder Smart Cities, Städte also, die Verkehr und Versorgung über intelligente Netzwerke organisieren und steuern. Wobei ein Strafjurist wie ich immer die erhöhte Angreifbarkeit im Auge hat. Das ist ein Problem. Die Ausfallsicherheit muss gewährleistet sein.

Gibt es außer der technischen Seite eine weitere?

Hilgendorf: Ein zweites Beispiel ist Tay. Ein Sprachbot, den Microsoft entwickelt hatte und 2016 per Twitter in die Öffentlichkeit brachte. Versprochen hatte man sich, dass Nutzer mit dem selbst lernenden System nette Gespräche führen können – etwa im Altenheim, im Kindergarten oder auch im Kaufhaus. Man musste Tay schon nach wenigen Stunden vom Netz nehmen: Er fing an, anzügliche und beleidigende Texte über Twitter zu senden, und verbreitete Hass und Hetze. Angenommen, nach einer solchen Beschimpfung erleidet jemand einen Nervenzusammenbruch: Wer ist dann verantwortlich?

Vieles, was Sie schildern, klingt wie Science-Fiction. Taugt die Literatur auch als Vorbild für die Lösung juristischer Probleme?

Hilgendorf: Die Verschmelzung menschlicher und künstlicher Intelligenz ist ein großes Thema in der Science-Fiction. Man kann sich in der Tat viele Anregungen holen, weil die Autoren das Feld gründlich durchdacht haben. Ihre Schlussfolgerungen sind nicht immer zutreffend, aber sie entwerfen einen Möglichkeitsraum, um Gefahren und Chancen zu denken. Besonders interessant ist Ian Banks mit seiner Reihe der "Culture"-Romane. In seiner Zukunftswelt übernimmt künstliche Intelligenz die Steuerung der ganzen menschlichen Gesellschaft und wendet sie zum Guten. Auf die Frage, warum die Maschinen das tun, lautet die Antwort: "Aus Respekt gegenüber unseren Schöpfern". Ein sehr schönes Bild.

Sind Sie nicht eher ein Skeptiker? Sie haben in einem früheren Interview einmal gesagt: "Ich glaube nicht, dass Maschinen zu dem Grad von Grausamkeit und Rücksichtslosigkeit fähig sind wie Menschen."

Hilgendorf: Dahinter steckt eine positive Aussage. Eine so starke Emotionalität wie von Menschen wird man bei Maschinen ausschließen können, im Guten wie im Bösen. Vielleicht werden manche lieber mit Maschinen zusammenarbeiten als mit Menschen.

Gilt das auch für Drohnen im Militäreinsatz?

Hilgendorf: Ich würde nicht sagen, dass sie grausam sind. Sie sind neutral. Die Verantwortung lastet auf dem, der die Maschine und ihre Programmierung gestaltet hat.

Glauben Sie dann, dass Roboter unsere Welt besser machen?

Hilgendorf: Schwierig und auf jeden Fall eine Herausforderung, aber denkbar ist es. Es ist im Interesse der Menschheit, wenn wir eine lebenswerte Zukunft haben wollen.

Z"Lebenslang für einen Roboter?", Vortrag und Diskussion mit Prof. Dr. Dr. Eric Hilgendorf, 18. Juli, 16 bis 17 Uhr, Karl-Bröger-Zentrum, Karl-Bröger-Straße 9, Eingang Celtisstraße, der Eintritt ist frei.

Keine Kommentare