Trust in Human-Robot Interaction – On the Validity of the Trust Principle in Negligence Liability in Switzerland (PhD Project)

Janneke de Snaijer

PhD Project by

Janneke de Snaijer

Assistentin / Doktorandin

In recent years, robots have gone from being a fantasy to an integral part of our everyday lives. The “robolution” is progressing steadily. Robots have already been assisting human surgeons in operations for several years, while driver assistance systems have become more common in supporting drivers. An increasingly important point of discussion in the age of digitalization with machine learning and artificial intelligence is the question of liability. Robots are now much better at assisting humans, but when harm results from a human-robot interaction, it can be very difficult to trace which of the two made the mistake: the robot or the human?

This dissertation is devoted to the prerequisites for the applicability of the principle of trust to human-robot interactions under Swiss criminal law. According to this principle, the correct behavior of others may be trusted in the case of human interaction based on the division of labor. It is questionable whether this principle could also be applied to human-robot interaction, with the consequence that humans – under certain circumstances – may trust the robot to function correctly. The problem is that, according to current understanding, the responsibility for the use of a tool lies entirely with the human user, whereas in the case of work-sharing interactions between several people, the areas of responsibility are assumed to be divisible, resulting in various individual responsibilities for one’s own area of work. An argument against transferring the principle of trust to situation in which humans and robots interact is the possibility of a liability gap, since under current law the robot itself would, in the event of damage occurring, not be liable, resulting in an increased risk for the manufacturer. This is supported by the fact that a demarcation of areas of responsibility would simplify the specification of the duties of care and the user would have legal certainty about his liability in each case. Swiss law does not have any special provisions on the negligence liability of users of robots. This could be problematic: The more independent the robots become, the more difficult it will be to attribute the behavior to the users. For this reason, as an initial step, this thesis highlights selected relevant points of negligence liability.

The thesis answers the question of the possible applicability of the trust principle to human-robot interaction to mitigate the criminal negligence liability of users. The introduction is followed by relevant definitions and presentation of criminal negligence liability in Switzerland, with the main issues in human-robot interactions and the principle of trust as a possible limitation of negligence liability presented. Trust in human-robot interactions raises the issue of user responsibility and the possible extension of the trust principle to robots. This is followed by the findings and proposed solutions, with and an outlook given, which deals, among other things, with the consequences and obligations that a human being faces after a robot has issued a warning. This is relevant because one could attempt to solve the assignment of responsibility by having the assistance system warn the user once it has detected an irregularity, thus giving rise to the question: Would the human have to listen carefully to the machine or, if necessary, check it?

Das Vertrauen in human-robot interaction – Zur Geltung des Vertrauensgrundsatzes bei strafrechtlicher Fahrlässigkeit

In den letzten Jahren wurden Roboter von einer Fantasievorstellung zum festen Bestandteil unseres Alltags. Die „Robolution“ schreitet stetig voran. Bereits seit mehreren Jahren assistieren Roboter menschlichen Ärzten bei Operationen und Fahrassistenzsysteme unterstützen Lenker. Ein immer wichtigerer Diskussionspunkt im Zeitalter der Digitalisierung mit machine learning und artificial intelligence ist die Frage der Haftung. Roboter können nun den Menschen sehr viel besser zur Hand gehen, aber wenn durch eine human-robot-interaction ein Schaden entsteht, kann es sehr schwierig sein, nachzuvollziehen, wer von beiden den Fehler gemacht hat: der Roboter oder der Mensch?

Diese Dissertation widmet sich den Voraussetzungen der Anwendbarkeit des Vertrauensgrundsatzes auf das Zusammenwirken von Mensch und Roboter nach Schweizer Strafrecht. Nach diesem Grundsatz darf bei arbeitsteiligem Zusammenwirken von Menschen auf das korrekte Verhalten der anderen vertraut werden. Fraglich ist, ob sich dieser Grundsatz auch auf human-robot interaction anwenden liesse mit der Konsequenz, dass Menschen – unter bestimmten Umständen – auf ein korrektes Funktionieren des Roboters vertrauen dürfen. Das Problem ist, dass nach heutigem Verständnis die Verantwortung bei der Benutzung eines Werkzeuges gänzlich beim menschlichen Nutzer liegt, während man bei arbeitsteiligem Zusammenwirken zwischen mehreren Menschen von einer Teilbarkeit der Verantwortungsbereiche ausgeht, wodurch verschiedene Einzelverantwortungen auf den eigenen Arbeitsbereich entstehen. Gegen eine Übertragung des Vertrauensgrundsatzes auf die Situation, in der Mensch und Roboter zusammenwirken, spricht die Möglichkeit einer Haftungslücke, da der Roboter nach geltendem Recht bei einem Schadensfall nicht selbst haftbar wäre und der Hersteller ein erhöhtes Risiko hätte. Dafür spricht, dass eine Abgrenzung von Verantwortungsbereichen die Konkretisierung der Sorgfaltspflichten vereinfachen würde und der Nutzer jeweils Rechtssicherheit über seine Haftung hätte. Das schweizerische Recht kennt zur Fahrlässigkeitshaftung der Nutzer von Robotern keine besonderen Bestimmungen. Dies kann problematisch sein: Denn je eigenständiger die Roboter werden, desto schwieriger wird es das Verhalten den Nutzern zuzurechnen. Aus diesem Grund beleuchtet diese Arbeit in einem ersten Schritt ausgewählte relevante Punkte der Fahrlässigkeitshaftung.

Die Arbeit beantwortet die Frage nach der möglichen Anwendbarkeit des Vertrauensgrundsatzes auf human-robot-interaction zur Entschärfung der strafrechtlichen Fahrlässigkeitshaftung von Nutzern in sechs Teilen: Auf die Einleitung folgen die relevanten Begriffsbestimmungen. Im Anschluss werden die Darstellung der strafrechtlichen Fahrlässigkeitshaftung in der Schweiz, wobei die wichtigsten Punkte bei der human-robot interaction vorgestellt werden, und der Vertrauensgrundsatz als Einschränkungsmöglichkeit der Fahrlässigkeitshaftung erläutert. Das Vertrauen bei der human-robot interaction behandelt die Verantwortung der Nutzer und die mögliche Ausweitung des Vertrauensgrundsatzes auf Roboter. Schlussendlich folgen das Ergebnis und Lösungsvorschläge und ein Ausblick, welcher unter anderem die Folgen und Pflichten eines Menschen nach erfolgter Warnmeldung eines Roboters behandelt, denn teilweise könnte man die Zuordnung der Verantwortung dadurch versuchen zu lösen, dass das Assistenzsystem den Nutzer warnt, wenn es eine Unregelmässigkeit erkannt hat. Müsste der Mensch also aufmerksam auf die Maschine hören oder diese allenfalls überprüfen?