Immaterialgüterrechtlicher Schutz vor Adversarial Attacks

Privatrechtliche Schutzperspektiven für Machine Learning Systeme

Die Anwendung von Systemen des maschinellen Lernens (Machine Learning) im Bereich der Objekterkennung und Objektklassifizierung – etwa zur Erfassung von Verkehrsschildern in autonomen Fahrzeugen – hat in den vergangenen Jahren bedeutende Fortschritte erzielt. Diese Entwicklung ermöglicht den Einsatz von entsprechenden Systemen in zahlreichen Bereichen, die schon bald den Lebensalltag prägen werden. Damit einhergehend kommt es jedoch zu neuen Gefahrenpotentialen, die nicht unterschätzt werden sollten. So wird in den Computerwissenschaften seit einiger Zeit von Ansätzen berichtet, die darauf abzielen, die Funktionsweise solcher Systeme zu torpedieren. Die Rede ist insbesondere von sog. "Adversarial Attacks".

Solche "Angriffe" erfolgen durch den Einsatz sog. "Adversarial Examples", die eingesetzt werden, um Klassifikationsergebnisse fehlzuleiten. Hierfür werden bestimmte Signale gezielt manipuliert, sodass ein Objekt (z.B. ein Strassenverkehrsschild) falsch erkannt wird. Diese Manipulationen, deren Einsatz unter anderem in der Bild-, Text- und Spracherkennung bekannt ist, sind in vielen Fällen für das menschliche Auge nicht ohne Weiteres erkennbar: von den "Angreifern" werden zum Beispiel Pixel eines Bildes subtil verändert oder ein kaum wahrnehmbares Rauschen eingefügt. Das System ordnet die abgebildeten Objekte anschliessend falsch zu. Neben diesen zweidimensionalen Bearbeitungen ist es in der Zwischenzeit gelungen, die Systeme durch dreidimensionale Objekte mit spezifischen Mustern fehlzuleiten. Dies schafft weitere Gefahren, deren Auswirkungen sich zum derzeitigen Zeitpunkt nur schwerlich abschätzen lassen.

Neben technischen Ansätzen zur Gefahrenabwehr oder zumindest der Minimierung derselben, drängt sich die Frage auf, ob und welche rechtlichen Instrumente gegen "Adversarial Attacks" mobilisiert werden können. Prof. Dr. iur. Alfred Früh und sein Team untersuchen dies im Rahmen eines ZLSR-Projektes aus privatrechtlicher Perspektive. Die Frage, ob Immaterialgüterrechte (insbesondere das Urheberrecht) oder andere Rechtsnormen zum Schutz von Machine Learning Systemen tauglich sind, ist hierbei zentral. Der Blick geht – bereits aufgrund der internationalen Dimension dieser Thematik – über den nationalen Rechtsrahmen hinaus und erfasst alternative regulatorische Lösungen, wie den US-amerikanischen Computer Fraud and Abuse Act (CFAA). Das ZLSR plant in diesem Projekt einen interdisziplinären Workshop im Herbst 2021.