Projektstatus: Abgeschlossen

Manipulation

Wir zeigen die Manipulationsanfälligkeit automatisierter Bilderkennungssysteme.

Katharina Rasch
#Runde5 #Anwendungen #Bildung/Aufklärung

Welches Problem willst du mit deinem Projekt lösen?

Anwendungen der Künstlichen Intelligenz werden aktuell geradezu magische Fähigkeiten zugeschrieben. Allerdings hat sich in den letzten Jahren gezeigt, dass vortrainierte Algorithmen zur Mustererkennung leicht manipulierbar sind.
Beispielsweise hebeln spezielle Brillen Biometriksysteme aus und induzierte Störgeräusche lassen Alexa Befehle halluzinieren. Der Diskurs zu Manipulation und anderen Schwachstellen künstlicher Intelligenz hauptsächlich zwischen Akademikern statt und ist sehr technisch/mathematisch.
Das Projekt möchte dazu beitragen, dass sich auch die Zivilgesellschaft gut informiert mit dem Thema künstliche Intelligenz beschäftigen kann. Dies soll erreicht werden, indem jeder die Möglichkeit hat, selbst auszuprobieren, wie leicht sich Standardmethoden (wie sie beispielsweise von facebook und Co eingesetzt werden) manipulieren lassen. Weiterhin bietet die Manipulierbarkeit auch interessante Möglichkeiten, um sich gegen unerwünschten Einsatz von künstlicher Intelligenz im Alltagsleben zu wehren.

Wie löst dein Projekt das Problem?

Das Projekt möchte den Nutzer*innen Manipulierbarkeit anhand eines ganz konkreten Beispiels erfahrbar machen:manipulative Bildfilter (vergleichbar zu instagram-Filtern). Die Nutzer*innen sollen die Möglichkeit haben, ein Bild hochzuladen und durch den Einsatz eines Filters so zu verändern, dass Bild-/Gesichtserkennungssysteme falsche Antworten ausgeben. Dabei ist die Manipulation so geringfügig, dass Menschen weiterhin problemlos die Objekte/Gesichter im manipulierten Bild erkennen können. Eingebettet wird das geplante Tool in ein Tutorial mit Hintergrundinformationen. Eine zusätzliche Standalone-Version, beispielsweise als App fürs Mobiltelefon oder twitter-bot ist denkbar.

An wen richtet sich dein Tool?

Zielgruppe ist die allgemeine Zivilgesellschaft.