Von Walhaikühen und Hausmännern – mit macht.sprache. gegen klischeebesetzte Übersetzungen
Wer schnell etwas übersetzen will, greift dafür gern hin und wieder auf technologische Hilfsmittel zurück: Google Translate, Linguee oder DeepL sind schon lange keine Geheimtipps mehr. Doch maschinelle Übersetzung kann die Überwindung diskriminierender Sprache und sprachlichen Fortschritt allgemein verhindern, weil sie immer nur aus den Texten schöpft, die bereits existieren – und diese sind bei Weitem nicht diskriminierungsfrei. In der 10. Förderrunde des Prototype Fund befasst sich das Team von macht.sprache. mit genau diesem Thema und entwickelt eine Web-App für diskriminierungssensible Übersetzungen. Hier im Blog beleuchtet Teammitglied Anna von Rath die Hintergründe der Idee:
Beim Versuch 100 translators ins Deutsche zu übertragen, bestehen mehrere Übersetzungsmöglichkeiten. Wenn dabei 99 Übersetzerinnen und 1 Übersetzer gemeint sind, kann ich zwischen folgende Varianten auswählen: Die Übersetzer (generisches Maskulinum), die Übersetzer und Übersetzerinnen (Doppelnennung) oder Varianten mit Sternchen, Unterstrich oder Doppelpunkt, z. B. die Übersetzer*innen – um nur eine kleine Auswahl zu nennen. Eins ist klar: Beim Übersetzen von Texten aus dem Englischen ins Deutsche ist das Gendern ein Thema, das auf jeden Fall bewusst bedacht werden sollte.
Die englische Sprache wirkt dank nur eines Artikels für alle Geschlechter, the, und dem Fehlen von geschlechtsspezifischen Endungen bei Nomen und Adjektiven zunächst einmal inklusiv. Im Deutschen gibt es dagegen drei Artikel, die automatisch eine geschlechtliche Zuschreibung beinhalten, der, die, das, darüber hinaus haben Nomen oft weibliche oder männliche Formen, wie bei dem zuvor genannten Beispiel einer Person, die übersetzt.
Es gibt im Englischen aber auch viele Fälle, in denen ein Wort zwar grammatikalisch nicht gegendert ist, ein möglicher Bias aber trotzdem in der Sprache steckt – und auch im dominanten kulturellen Verständnis, das die Sprache formt. Das geht so weit, dass, wenn von einer Person die Rede ist, die erste Assoziation ein Mann ist. Im Englischen werden man und person sogar manchmal synonym verwendet. Dieser Standard, Mensch = Mann, wird nur in Frage gestellt, wenn er weiter spezifiziert wird.
Mensch und Maschine – wie sich sprachlicher Bias reproduziert
Aber auch in der Beschreibung einer Person stecken kulturell entstandene Vorurteile in Bezug auf Geschlecht. Es gibt zahlreiche Berufsbezeichnungen, die auch in der grammatikalisch nicht gegenderten englischen Sprache sofort als männlich verstanden werden. Surgeon, scientist, actor oder lawyer werden heutzutage immer noch häufig als Männerberufe angesehen und auch so übersetzt: Chirurg, Wissenschaftler, Schauspieler, Jurist. Andere Berufe hingegen rufen direkt die Verbindung zu Frauen hervor: nurse, prostitute, homemaker und werden in der deutschen Übersetzung oftmals automatisch explizit weiblich gemacht – Krankenschwester, Prostituierte oder Hausfrau -, obwohl es genderfreie oder genderinklusive Varianten geben würde.
Da die Idee, dass bestimmte Berufe nur von bestimmten Geschlechtern ausgeübt werden können, nach wie vor in vielen Köpfen verankert ist, reproduzieren maschinelle Übersetzungen, die gerne für mehrsprachige Social-Media-Beiträge, Veranstaltungsankündigungen oder Blogbeiträge verwendet werden, diese. Wenn der Großteil der Gesellschaft keine genderinklusive oder genderneutrale Sprache verwendet und Maschinen von Daten lernen, die ihnen zur Verfügung stehen, sind sie ein Abbild gesellschaftlicher Normen. Das heißt wer gängige Übersetzungsprogramme verwendet, könnte sich bewusst vornehmen, besonders bei Berufsbezeichnungen noch mal zu überprüfen, ob die Übersetzung der gewünschten Art zu gendern entspricht.
In ihrem Buch Wordslut: a feminist guide to taking back the English language erklärt Amanda Montell, dass neben Berufsbezeichnungen auch Adjektive geschlechterspezifisch sind – zumindest kulturell, nicht grammatikalisch. Montell bezieht sich auf Daten der Soziolinguistin Eliza Scruton, die in einer Studie festgestellt hat, dass Begriffe wie nasty oder bossy (übersetzt fies und rechthaberisch) besonders oft vor Mutter oder Ehefrau auftauchen (über bitchy oder zickig müssen wir hier wohl gar nicht erst reden). Ich habe gerade erst bossy im Online-Wörterbuch Linguee eingegeben und als Beispielsatz für übliche Verwendungsweisen wurde mir Folgendes angezeigt: „My mother has a dominant and bossy personality“.
In einer patriarchalen Gesellschaft sind Begrifflichkeiten in Bezug auf Personen, die in dieser Gesellschaft leben, oft ebenso patriarchal gefärbt. Hier haben alle, die Sprache verwenden – zu denen auch Übersetzer*innen zählen –, immer wieder die Wahl, bewusste Entscheidungen für oder gegen bestimmte Begriffe zu treffen. In den meisten Fällen gibt es mehrere Wörter mit ähnlicher Bedeutung, sodass beispielsweise ein Begriff mit weniger gegenderter Konnotation ausgesucht werden könnte. Dickköpfig ist durchaus eine passende Alternative für zickig – oder stubborn für bitchy. Aber natürlich kann bitchy oder zickig auch ganz bewusst genutzt werden: Aus meiner Sicht sind diese Begriffe genau dann eine besonders gute Wahl, wenn sie als feministische Wiederaneignung subversiv verwendet werden.
Sogar der sprachliche Umgang mit Tieren verrät einiges über gesellschaftliche Gendernormen
Beim Übersetzen und Nachdenken über Gender geht es aber nicht nur um den sprachlichen Umgang mit Menschen. Von der Linguistin Deborah Cameron habe ich gelernt, dass englischsprachige Menschen Tiere in der Regel automatisch als he, also er, bezeichnen, sogar dann, wenn sie sichtbar weiblich sind, so wie eine Löwin. Um Camerons Aussage zu prüfen, schlägt sie vor, in einen Zoo zu gehen und den Gesprächen von Erwachsenen und Kindern zu lauschen. Es gibt Autor*innen, die sich bewusst von der gewohnheitsmäßigen Verwendung männlicher Pronomen abgrenzen. So spricht Aimee Nezhukumatathil in ihrem Buch World of Wonders: In Praise of Whale Sharks, Fireflies and Other Astonishments häufig von she in Bezug auf die diversen Tiere, über die sie Anekdoten erzählt: „But at the last possible moment before I thought she would crash into me, the whale shark sank just low enough to not touch me at all“. Sollte dieser Satz nun ins Deutsche übersetzt werden, ergibt sich das Problem, dass der Walhai grammatikalisch männlich ist. Soll sie im Text nun eine Walhai Kuh werden? Wie wäre es mit dem Kaktuszaunkönig, dem Helmkasuar oder dem Kardinal?
Diese Beispiele verdeutlichen, dass die Übersetzungsleistung aus deutlich mehr bestehen muss als der Übertragung von Begriffen. Eingeschriebene Strukturen und (eigener) Bias müssen mitgedacht werden. Das Nachdenken über Gender spielt dabei eine zentrale Rolle, weil Gendernormen jeden Aspekt menschlichen Lebens und Denkens durchdringen. Welches Geschlecht einem Tier zugeschrieben wird, verrät einiges über die gesellschaftlich vorherrschenden Ideen von Weiblichkeit und Männlichkeit – oder warum heißt es im Deutschen wohl der Löwe, aber die Maus?
Gendersensible maschinelle Übersetzung
Beispiele wie die gerade erwähnten tauchen in Texten und ihren Übersetzungen auf, mit denen Modelle für maschinelle Übersetzung trainiert werden. Das bedeutet, dass Programme wie Google Translate oder DeepL Vorurteile in Bezug auf Gender beigebracht bekommen. In ihren Datensätzen reproduzieren sie den Bias ganz automatisch – aktuell können sie gar nicht anders. Einen Schritt weiter passiert es schnell, dass Nutzer*innen dieser Übersetzungshilfen die übersetzten Texte weiter verbreiten, wie sie sind, und damit ebenfalls den Bias. Hier setzt unser vom Prototype Fund gefördertes Tool an: Mit Hilfe des Prototype Funds entwickelt das macht.sprache.-Team einen Text Checker, der eine Integration mit existierenden Übersetzungswebsites bekommt und gendersensible Übersetzungen unterstützt. Potenziell sensible Begriffe und ihre Übersetzungen werden erkannt und hervorgehoben, zusätzlich werden Hinweise angezeigt. So werden Nutzer*innen verstärkt dazu angeregt, die maschinelle Übersetzung zwar als Basis zu nutzen, aber die Übersetzung selbst noch einmal auf Vorurteile durchzugehen und an entsprechend markierten Stellen anzupassen. Mit der macht.sprache.-Integration erhalten sie dabei die nötige Unterstützung. Nutzer*innen werden auf diese Weise sprachlich sensibilisiert und Texte inklusiver.
Das macht.sprache.-Team:
Anna von Rath: Literaturwissenschaftlerin, Diversity Trainerin und Übersetzerin, Gründerin poco.lit.
Lucy Gasser: Literaturwissenschaftlerin, Dozentin an der Uni Potsdam, Gründerin poco.lit.
Kolja Lange: Full Stack Development
Timur Celikel: Front-End-Development, Web-Designer, Gründer von völlig ohne