18.Jul 2018

Lesen&Lernen No. 9

Was wir gelesen haben:

Eine Menge Artikel, darunter auch vieles zum Dauerthema „AI“ und „Machine Learning“.

Was wir gelernt haben:

Es gibt unheimlich viele offene Fragestellungen und mindestens genau so viele Ansätze, Ressourcen, Artikel und Meinungen zum Thema.

Was wir gemerkt haben:

Wir langweilen uns etwas. Die Artikel bieten unterschiedliche Perspektiven und Schwerpunkte, aber wirklich interessant wird das Thema KI besonders, wenn es um etwas ganz anderes geht: Demokratie, Rassismus, Bildung, Justiz, etc. Was (uns) nicht mehr interessiert sind Listen von Beispielen, die manchmal eher Basis als Anschauungsmaterial von Artikeln sind. Auf dem Feld der AI-Expertise scheint es en vogue zu sein, immer wieder mit neuen Szenarien um die Ecke zu kommen. Wir kennen mittlerweile viele Beispiele, manche kennen wir nicht, aber nicht alle Gedankenspiele tragen dazu bei, das eigentliche Thema besser zu verstehen.

 

Mit „Microsoft asks Congress to regulate facial recognition before it’s too late“ von Marrian Zhou und „Elon Musk, DeepMind founders, and others sign pledge to not develop lethal AI weapon systems“ von James Vincent haben wir zwei Artikel zu ethisch wie rechtlich fragwürdigen Einsätzen von künstlicher Intelligenz gelesen: Einmal im Bereich der Gesichtserkennung, einmal im Bereich autonomer Waffensysteme. Der große Aha-Moment in beiden Texten: In den Ländern, die an der Entwicklung und Implementierung von KI-Systemen maßgeblich beteiligt sind, fehlt der politische Wille, die Technologie gesetzgeberisch zu reglementieren. Deshalb obliegt es den treibenden Köpfen in der Technologieentwicklung, die ethischen und rechtlichen Rahmenbedingungen selbst zu definieren, politische Forderungen zu stellen und sich in Form von Selbstverpflichtungen zu reglementieren. Tragfähig und belastbar ist das nicht – und wie zu erwarten war, sind auch die politischen Forderungen eher Minimalziele.

 

Design Justice, AI and Escape from the Matrix of Domination

Sasha Costanza-Chock nähert sich in diesem Essay aus der von Joi Ito/dem MIT initiierten Artikelserie „Resisting Reduction“ (https://jods.mitpress.mit.edu/competitionwinners) dem Thema Künstlicher Intelligenz aus der Perspektive von Macht und Intersektionalität. Ausgehend von der These „Artifacts have Politics“ beschreibt sie die Einschreibung von Normen und Klassifizierungen in technische Gerätschaften ( wie zB millimeter wave scannern an Flughäfen die auf non-binäre Körperidentitäten treffen) und zeigt, dass Technologiekritik nur fruchtbar werden kann, wenn sie nicht von der Theorie einer „einzig möglichen und richtigen Welt“ ausgeht, sondern indigenes und Körperwissen mit einbezieht. Momentan wird insbesondere KI-Technologie oft unter der Prämisse von Eiffizienz und Performance unter kapitalistischen Gesichtspunkten formuliert und kosntruiert, dieses Design bringt uns aber unter Umständen in Zukünfte, die nicht erstrebenswert sind.

https://jods.mitpress.mit.edu/pub/costanza-chock

 

Kate J. Sim untersucht in „Victim Blaming Meets Technology“ Technologien, die sexuelle Gewalt verhindern oder die Betroffenen beim Melden der Straftaten unterstützen. Sie beschreibt, wie sich kulturelle Wahrnehmungen von sexueller Gewalt in den Technologien einschreiben – beispielsweise in Anwendungen, die mithilfe von Datenanalysen Muster erkennen und Vorfälle verhindern wollen. In den Anwendungen spiegelt sich ein gesellschaftlich hartnäckiger Zweifel an den Aussagen der meist weiblichen Opfer wieder: Es wird eher Daten geglaubt als den Aussagen der Opfer. Sim kommt zum Schluss, dass es auch hier eine Rolle spielt, wer in die Produktion dieser Anwendungen eingebunden wird.

https://xyz.informationactivism.org/en/victim-blaming-meets-technology

Lesen&Lernen No. 9