18.Apr 2018

Lesen & Lernen No. 1

Wir sind ein bisschen spät dran, deswegen gibt es erst heute die Leseliste zu letzter Woche:

Machine Bias

Im Artikel „Machine Bias“ von ProPublica (2016) geht es um Software, die im amerikanischen Justizsystem für die Risikobewertung von Straftätern eingesetzt wird. Dabei gibt es mehrere Probleme: zum Beispiel bewertet der Algorithmus Schwarze Menschen ganz anders als Weiße Menschen und das Programm wird auch dafür eingesetzt, das Strafmaß zu bestimmen, obwohl es dafür nie gedacht war. Da es wenige Studien zu der Qualität dieser Programme gibt, hat ProPublica eigene Nachforschungen angestellt und zeigt an mehreren Beispielen auf, welche Auswirkungen Machine Bias auf das Leben von Menschen haben kann.

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Plattformkapitalismus: Die Gefahr durch Facebook wurde zu lange ignoriert

Die Autoren beschreiben Facebook und andere Tech-Unternehmen als quasi-politische Insitutionen. Deren Umgang mit Daten sollte nicht nur reguliert werden, sondern durch Zulassungsverfahren besser kontrolliert werden.

http://www.zeit.de/wirtschaft/2018-03/plattformkapitalismus-internetplattformen-regulierung-facebook-cambridge-analytica

Sharing data responsibly – how and why do human rights funders share data?

In zwei Artikeln beschäftigen sich Tom Walker und Fieke Jansen von „The Engine Room“ mit den Informationen, die Funds über ihre geförderten Projekte und Teams haben. Im ersten Artikel geben sie eine Übersicht darüber, welche Daten Funds sammeln und aus welchen Gründen sie diese veröffentlichen. Im zweiten Artikel erläutern sie die ethischen Implikationen und was bei der Veröffentlichung und Preisgabe von Daten beachtet werden muss.

http://theengineroom.org/sharing-data-responsibly-funders/

http://theengineroom.org/responsible-data-considerations-for-sharing-human-rights-data/

How Facebook figures out everyone you’ve ever met:

Ein Artikel darüber, wie Facebook über uns „Schattenprofile“ anlegt,
selbst wenn wir Facebook nicht nutzen – und warum „Do you know this
person?“ manchmal unliebsame Ergebnisse liefert:

https://gizmodo.com/how-facebook-figures-out-everyone-youve-ever-met-1819822691

Nicht nur Nerds

Warum mangelnde Diversität in der Tech-Szene und bei Kapitalgeber*innen
gerade im Bereich KI ein Problem ist, erklärt Fei-Fei Li, Chefforscherin
bei Google, und bringt als Gegenbeispiel China:

https://www.wiwo.de/technologie/digitale-welt/kuenstliche-intelligenz-nicht-nur-nerds/21016104-all.html

Simply Secure’s Knowledge Base

Und zwischendurch stöbern wir unheimlich gerne in der umfangreichen Knowledge Base von Simply Secure. Simply Secure unterstützt Teams bei der Verbesserung der Usability ihrer Tools, insbesondere im Security-Bereich. Auch die Prototype Fund Projekte werden von Ame Elliott von Simply Secure gecoacht. In der Knowledge Base teilt das Team seine Learnings, sein Wissen und veröffentlicht hilfreiche Guides für Entwicklerinnen, Designer und User Researcher.

https://simplysecure.org/knowledge-base/