join the conversation

follow us:

Prototype Blog · 15.Aug 2018

Lesen&Lernen No. 5

Was wir diese Woche gelesen haben (unter erschwerten Hitze-Bedingungen)

Garbage In, Garbage Out

Cory Doctorow weist auf ein hartnäckiges Problem der Machine Learning Entwicklung hin: “Garbage In, Garbage Out.”
Wenn die Trainingsdaten Müll sind, ist auch das Ergebnis Müll. Funktionierende und saubere Trainingsdaten zu erzeugen und zu sammeln ist langwierige und mühevolle Arbeit – die Folgen schlechter Trainingsdaten können jedoch gravierend sein, wie zahlreiche Studien über die Irrtümer von Predictive Policing gezeigt haben.

https://boingboing.net/2018/05/29/gigo-gigo-gigo.html

 

Ties that bind- Organisational Security for Civil Society

The Engine Room analysiert in einer Studie für die Ford Foundation die Bedeutung von Security-Frameworks für zivilgesellschaftliche Organisationen, die mit gefährdeten Personen, sensiblen Daten etc. arbeiten- und u.a. um die Rolle, die Funder in der Entwicklung dieser Sicherheitskulturen einnehmen könnten (und sollten).

Für uns haben wir daraus gezogen, dass wir auf folgende Faktoren u.a. verstärkt achten:

-Aufbau von Infrastruktur gleichberechtigt mit individuellen Kapazitäten
-Technische Entscheidungen sind tw. politische Entscheidungen: die Benutzerfreundlichkeit von Open-Source-Tools wird sich nicht verbessern, wenn nicht mehr Organisationen Ressourcen für die Nutzung und Verbesserungaufwenden.
– Mangelnde Vielfalt in den Entwicklergruppen bedeutet, dass Werkzeuge, Ressourcen und Räume überwiegend für bestimmte Arten von Nutzern geschaffen werden – und nicht für andere.
– Es scheint ein Mangel an Finanzmitteln für Wartung und langfristigen Support zu bestehen.
-Infolgedessen schlagen Organisationen oft neue Maßnahmen vor, statt laufende Projekte weiterzuführen.

https://www.theengineroom.org/wp-content/uploads/2018/03/Ties-that-Bind-Executive-Summary.pdf

 

Personal Data Representatives: An Idea

Die Einführung der DSGVO ist ein guter Anlass, sich damit auseinanderzusetzen, wie gut die technischen Lösungen für Nutzer*innen funktionieren, die ihnen eigentlich einen selbstbestimmten Umgang mit der Weitergabe ihrer personenbezogenen Daten ermöglichen sollen.
Damit setzt sich der schon etwas ältere Artikel von Tom Steinberg auseinander (shoutout an Michael für den Link!).

Die zunehmende Stärkung des Datenschutzes im Netz ist ohne Frage eine Errungenschaft. Sie wurde aber von Jurist*innen herbeigeführt und von Technolog*innen umgesetzt. Das führt dazu, dass die aus ihr resultierenden Lösungen nicht immer nutzerfreundlich sind: An allen möglichen Stellen müssen Nutzer*innen nun komplexe Entscheidungen treffen, welche Datennutzung sie welchem Tool gestatten wollen und welche nicht.

Steinberg sieht die Lösung darin, die Entscheidung an eine Instanz zu übertragen, die das Vertrauen der Nutzer*innen besitzt – ob das eine Organisation oder eine Person sein soll, lässt er offen. Diese “Personal Data Representatives” treffen dann die Entscheidungen mit einer Art Blanko-Erlaubnis. Wenn Nutzer*innen einmal doch die Rechte anders verteilen möchten, können sie dieses in den Einstellungen selbst verändern.

Steinberg entwirft ein (technisch wenig ausdefiniertes) Szenario, wie seine Idee umgesetzt werden könnte und das wir hier nicht weiter ausführen wollen. Grundlegenden Problemen in seinem Szenario widmet er sich dagegen nicht: Wie sollen die Datenrepräsentant*innen Entscheidungen treffen, ohne die Nutzer*innen komplett zu überwachen? Kann die Antwort auf zu viele Entscheidungen wirklich sein, die Möglichkeit für vom Standard abweichende Entscheidungen irgendwo in den Settings zu verstecken? Schließlich sind dort auch heute schon systemweite Einstellungen z.B. zur Cookie-Policy oder zur Bereitstellung von Standortdaten möglich, werden aber offensichtlich von vielen Nutzer*innen nicht gefunden.

Unser Fazit: Die Komplexität von Privacy-Entscheidungen durch die Aushebelung von Privacy zu beheben, ist möglich, aber sinnlos.

Money quote, die zeigt, dass die Idee vielleicht noch nicht komplett ausgereift ist:

“The subscriber to the personal data representative service would have to have software running on their device that was monitoring for attempts to load new apps or visit new untrusted web applications”.

* Hilferuf einer Prototype-Fund-Mutter, die furchtbar genervt ist von diesen merkwürdigen Pop-ups und nicht weiß, was sie bedeuten. Sie ist nicht die einzige.

https://medium.com/@TomSteinberg/personal-data-representatives-an-idea-d2274d1af69b

Bis nächste Woche!

Das Prototype Fun(d)-Team

Logo: Das Bundesministerium für Bildung und Forschung (BMBF)
Logo: Open Knowledge Foundation Deutschland