Projektstatus: Im Einsatz

RevLLM - Reverse Engineering Werkzeuge für Sprachmodelle

Wir machen Sprachmodelle transparent.

Julian Wergieluk
#Runde14 #KI/ML #Transparenz

Welche gesellschaftliche Herausforderung adressiert euer Prototyp?

Künstliche Intelligenz (KI) und Große Sprachmodelle (Large Language Models / LLMs) wie GPT-4 haben ein beispielloses Potenzial in einer Vielzahl von Anwendungen. Von der Unterstützung der Forschung, Entwicklung neuer Produkte und Automatisierung der Prozesse in Unternehmen bis hin zur Umgestaltung des Bildungswesens – die Auswirkungen dieser Technologien auf unsere Gesellschaft sind immens. Die Entwicklung der LLMs wurde in einem rasanten Tempo von einer Handvoll großer Technologieunternehmen vorangetrieben. Dabei sind Entwicklungsprozesse zunehmend intransparent geworden und zielen vor allem darauf ab, die Modelle möglichst leistungsfähig und vielseitig anwendbar zu machen. Die produzierten Modelle stellen dabei Black-Box-Systeme dar – die genauen Entscheidungsprozesse innerhalb der zugrunde liegenden neuronalen Netze sind von außen nicht ohne weiteres nachzuvollziehen. Um die technologische Unabhängigkeit unserer Gesellschaft zu gewährleisten, die Innovation zu fördern und die demokratischen Grundsätze zu wahren, ist es notwendig, besser zu verstehen, wie diese Modelle “denken”. Die Funktionsweise der LLMs muss transparent, erklärbar und interpretierbar werden, um sicherzustellen, dass sie nach klar definierten und von der Gesellschaft akzeptierten Prinzipien agieren. Dieses Wissen und die Werkzeuge, die die Erforschung der LLMs ermöglichen, sollen frei zugänglich und verifizierbar gemacht werden.

Wie geht ihr das Problem an?

Im Projekt wird eine Python-Bibliothek entwickelt, die auf dem Deep-Learning-Framework PyTorch aufbaut. Die Bibliothek soll im Stande sein, die Parameter und Metadaten über die zugrunde liegende Architektur eines Sprachmodells laden und die Modelle selbst ausführen zu können, um die Input-Output-Paare zu produzieren. In einem weiteren Teil der Bibliothek extrahieren eine Reihe von “Disassemblern” die statistischen Daten über die Algorithmen, die in dem Model-Code stecken. Anstelle von Source-Code im herkömmlichen Sinne werden die “wesentlichen Schaltkreise” des Netzes ausgegeben und diese zur Analyse und Visualisierung mit den ebenfalls bereitgestellten Tools weitergegeben.

An wen richtet sich euer Tool?

Das Tool ermöglicht Data Scientists, KI-Forscher*innen, technisch versierten Journalist*innen und allen Interessierten, selbst LLMs zu analysieren und zu überprüfen.