15.Oct 2019

Rückblick Demo Day Runde 5: Und jedem Ende wohnt ein Zauber inne.

Vor gut vier Wochen hatten wir das Vergnügen, gemeinsam mit den Projekten der 5. Förderrunde zum Themenschwerpunkt “Maschinen lernen lassen” und vielen Gästen im Forum Digitale Technologien einen weiteren Demo Day zu feiern.
Was sich nach Ende anhört, ist eigentlich erst der Anfang für die spannenden Weiterentwicklungen, die die “fertigen” Prototypen noch vor sich haben.

Weil es immer auch darum geht, zu reflektieren, was wir während der Förderphase über Public Interest Tech, Strategien der Zusammenarbeit oder die Fokus-Themen (diesmal: Künstliche Intelligenz und Maschinelles Lernen) gelernt haben, wollen wir an dieser Stelle mit euch gemeinsam den Tag revue passieren lassen – den Rückblick stimmen wir ein mit diesem Video, das den Demo Day und die Atmosphäre wunderbar einfängt:

Mit zwei geladenen Gästen wurde das weite und viel diskutierte Feld Maschinenlernen aufgemacht und eingebettet:

Lea Gimpel, Senior-Expertin am Kompetenzzentrum Digitale Gesellschaft der GIZ und Co-Leitung des Fair AI-Projekts, hat uns Perspektiven auf emergente Technologien aus der Entwicklungszusammenarbeit und Open Data eröffnet. Sie arbeitet aktuell in Kooperation mit Mozilla an einem Projekt zu “Voice Commons” in Ruanda und hat ihre spannenden Insights, wie man in der Arbeit mit datenintensiven Technologiefeldern wie KI verantwortlich handelt, mit uns geteilt (Klick für die Präsentationsfolien).
Bei der Erschließung emergenter Technologien für den Markt kommt es noch oft dazu, dass großen Gruppen an Nutzer*innen der Zugang zu diesen und zu ihrer Mitentwicklung verwehrt bleibt, weil sie bei der Erstellung der Grundlagen der Innovationen systematisch ausgeschlossen werden. Das fördert den Digital Divide, anstatt ihn zu schließen.

Unser zweiter Gast, Professor Klaus-Robert Müller vom Berlin Center for Machine Learning, Vertreter der Berliner Spitzenforschung und Experte für KI (und deren mediale Überhöhung), hatte für seinen anspruchsvollen und dennoch kurzweiligen Vortrag (Klick für die Präsentationsfolien) eine Bilderauswahl der beliebtesten Netzbewohner mitgebracht – Katzen, aber auch die Geschichte eines erstaunlichen Pferdes – des Klugen Hans – das, so hatte es zumindest den Anschein, komplexe Rechenaufgaben lösen konnte.
Wie sich herausstellte: Das Tier beherrschte zwar nicht wirklich Arithmetik, wohl aber eine sehr frühe Variante von Gesichtserkennung: Es reagierte auf feinste Änderungen in Mimik und Bewegung im Körper seines Gegenübers während es die Rechenaufgabe “löste”.
Heute sind wir in der Entwicklung und Forschung zu maschinellen Lernsystemen schon weiter vorangeschritten – ganz so opak wie medial oft dargestellt, geht es aber in der Realität gar nicht zu: es brauche nur den Mut zum Mitgestalten.
Eine weitere spannende Erkenntnis aus dem Vortrag von Professor Müller: FOSS wird auch in den Berliner Universitäten und Forschungszentren und generell in der Wissenschaftslandschaft viel und gern genutzt.
Auch hier gibt es also Potenzial, um gemeinsam zu entwickeln, Konzepte weiter zu testen und voneinander zu lernen.

Nicht nur durch die Präsentationen Workshops und Panels zu den Themen KI und ML, Aufklärung und Transparenz sowie Security, Mobile & Datensouveränität haben wir unseren Horizont erweitern können, sondern auch durch die Takeaways aus der Coding-Phase der Projekte.

Drei konkrete Lernkurven (die nur drei von vielen waren):

  • Mit Scheinfunktionen (wie beim Klugen-Hans) haben wir es auch in Algorithmen öfter zu tun

    und sollten deshalb nicht unhinterfragt unser Vertrauen als Nutzer*innen an diese delegieren. Deutlich zeigte das z.B. das Projekt “Manipulation”.

  • Wenn neue Technologien aufkommen, ist das regulatorische Rahmenwerk oft noch nicht bereit für den Roll-Out

    So ist teils die Herkunft von einzelnen Bildern in Trainingsdatensets und ihre rechtliche Absicherung ungeklärt; häufig orientieren sich frei verfügbare Trainingsdaten noch zu sehr an Absatzmärkten und Konsumenten und liefern keine geeigneten Objekte für andere, emanzipatorische Anwendungszwecke. Abhilfe schaffen können hier u.a. 3D-generierte synthetische Datensets. So z.B. im Projekt VCAT, das synthetische Datensätze von verbotener Cluster-Munition erstellt und nutzt, um aus Bildern aus Konfliktgebieten auf Grundlage von Open Source – Intelligence Informationen darüber zusammenzutragen, ob sich von den Kriegsparteien an geltendes Recht gehalten wird.

  • Eine mögliche Benachteiligung von bestimmten Teilen der Gesellschaft durch gebiaste Algorithmen kann und sollte man genau beobachten.

    Dazu bietet u.a. Algoneer die Gelegenheit, ein Toolkit zum Verstehen dieser technischen Blackboxes.

Wir freuen uns darauf, diese und alle weiteren Projekte über unser Alumni-Netzwerk auch bei den nächsten Schritten zu begleiten!

Für weitere Bilder des Tages bitte hier entlang: