Grenzen strafrechtlicher Haftung für KI-Systeme
Sorgfaltspflichten beim Einsatz von Künstlicher Intelligenz zur Geldwäschereiprävention
Der Chatbot ChatGPT rückte Künstliche Intelligenz (KI) ins Bewusstsein der Öffentlichkeit. KI verspricht aber nicht nur, Texte besser zu schreiben oder besser zu codieren. Auch für diverse Prozesse in Unternehmen versprechen KI-Systeme, bestimmte Aufgaben besser und effizienter zu erledigen, als dies bisher von Menschen getan wurde. Dies gilt insbesondere im Bereich der Geldwäschereiprävention: Gegenüber bisher eingesetzten regelbasierten Systemen versprechen KI-Systeme signifikante Verbesserungen bei der Erkennung verdächtiger Transaktionen und einen markanten Effizienzgewinn. KI-Systeme bringen aber nicht nur Vorteile, sondern bergen auch neue Risiken: Einerseits sind sie für die Anwendenden meist eine Blackbox, deren maschinelle Entscheidungsfindung weder ex ante noch ex post umfänglich nachvollziehbar ist. Andererseits können auch KI-Systemen Fehler unterlaufen. Besonders schwerwiegend sind Fehler, die strafrechtlich relevant sind: Erkennt etwa das System eine verdächtige Transaktion nicht, kann eine Bank oder ein Wertpapierhaus strafrechtlich verfolgt werden.
Anders als bspw. in Luxemburg, ist in der Schweiz derzeit nicht vorgesehen, KI-Systeme für den Einsatz in Banken zu zertifizieren. Und während sich die Geschäftsführerin bei strafrechtlich relevanten Fehlern von Mitarbeitenden durch das Einhalten bestimmter Sorgfaltspflichten entlasten kann, ist derzeit unklar, welche Sorgfalt die Geschäftsführerin beim Einsatz von KI-Systemen zu beachten hat. Das Strafbarkeitsrisiko liegt daher scheinbar uneingeschränkt bei der Bank, die ein KI-System einsetzt und könnte sie davon abhalten, solche Systeme in der Praxis einzusetzen. Eine solche de facto-Einsatzhürde steht aber im Widerspruch zum Wunsch des Gesetzgebers nach Effizienzsteigerung und Digitalisierung im Bankensektor.
Ziel des Dissertationsprojekts von Lea Bachmann MLaw, das von Prof. Dr. Sabine Gless betreut wird, ist erstens die strafrechtliche Verantwortlichkeit von Geschäftsführern und Unternehmen, die KI-Systeme einsetzen, im Schweizer Recht zu analysieren. Zweitens sollen auf der Grundlage dieser Analyse Grenzen definiert werden, indem Sorgfaltspflichten für den Einsatz von KI-Systemen ausgearbeitet werden. Darin soll neben den Erkenntnissen aus der Rechtsanalyse ein Vergleich mit der Herangehensweise in Luxemburg bzgl. des Einsatzes von KI-Systemen zur Geldwäschereiprävention eingehen.
Die Bedeutung des Projekts geht über den Bereich der Geldwäschereibekämpfung hinaus: Auch bei KI-Systemen zum Lieferketten-Monitoring, autonomen Tradingbots oder bei Fonds, die von KI-Systemen verwaltet werden, stellt sich die Frage, welchen Sorgfaltspflichten Geschäftsführer und Unternehmen bei deren Einsatz nachzukommen haben, um auf der einen Seite strafrechtlich relevante Erfolge durch ihre Systeme möglichst zu verhindern, auf der anderen Seite aber bei (unvermeidbaren) Fehlern ihrer Systeme keiner Erfolgshaftung ausgesetzt zu sein.
Die Formulierung von Sorgfaltspflichten für den Einsatz von KI-Systemen im Unternehmen (ähnlich wie bei der strafrechtlichen Geschäftsherrenhaftung für Mitarbeitende) soll eine Lücke in der strafrechtlichen Haftungsregelung schliessen. Diese Sorgfaltspflichten könnten damit nicht nur Rechtsunsicherheiten beim Einsatz von KI-Systemen im Transaktionsmonitoring beseitigen, sondern könnten überall dort Anwendung finden, wo KI-Systeme in Unternehmen eingesetzt werden.
Finanziert wird das Forschungsprojekt vom Schweizerischen Nationalfonds durch ein Doc.CH-Stipendium. Hier geht es zur Projektseite.