Autokorrektur in Handys

Gebt Rassismus keine Chance

Schüler schreiben SMS und telefonieren am 22.04.2013 auf einem Schulhof in Braunschweig (Niedersachsen).
Pestizid statt Pesto. Manchmal spielt die Autokorrektur verrückt. © picture alliance / dpa
Von Lydia Heller · 30.04.2015
"Schöne Gelüste an deine Tante!" Die Autokorrektur bringt so manchen Handynutzer in peinliche Situationen. Ausgefeilte Sperrlisten verhindern mittlerweile Beleidigungen und vulgäre Ausdrücke - viele rassistische Begriffe stehen jedoch nicht auf dem Index.
Mann: "Schöne Gelüste an Deine Tante!"
Frau: "Alta! Die ist 81!"
Mann: "..ich meinte Grüße!"
Angefangen hat alles in den frühen 1990er Jahren, als der Microsoft-Mitarbeiter Dan Hachamovitch eine automatische Korrekturfunktion für das damals noch kaum bekannte Textverarbeitungsprogramm MS Word entwickelte. Er ließ Probanden Texte tippen und studierte die häufigsten Tippfehler. Seither wird aus „dsa" automatisch "das" und aus "SekretäTin" "SektretäRin". Heute sollen automatische Korrekturfunktionen, Wortergänzungs- und Wortfolgevorschläge vor allem das Schreiben auf Handys und Tablets erleichtern.
Reinhard Karger, Linguist und Leiter des Demonstrationszentrums für Sprachtechnologie am Deutschen Forschungsinstitut für Künstliche Intelligenz:
"Wenn ich drei Buchstaben habe, dann ist es so, dass manche Buchstabenfolgen, wenn die vorkommen, doch die Möglichkeit des nächsten Buchstabens außerordentlich reduzieren. Sagen wir mal, Sie schreiben ein 'h' und dann ein 'y'. Was soll jetzt noch kommen?"
"Das könnte ‚hypnotisieren' sein, oder es könnte ‚Hypnose' sein. Müsste man mal gucken, im Duden, aber wahnsinnig viele Wörter wird es da gar nicht geben. So dass man berechnen kann und Vorschläge machen kann über das Wort, was man wohl jetzt weiter tippen möchte. Und je besser die Vorschläge sind, desto eher möchte man auch dieses System benutzen. Weil Tipperei auf einem kleinen Glas-Display ist eben nicht besonders komfortabel."
Manchmal stimmt der Kontext nicht
Schnell ist so aber auch mal ein Wort versendet, das zwar korrekt geschrieben ist, allerdings überhaupt nicht in den Kontext der Nachricht passt, die man schreiben wollte.
Frau: "Kommst Du zum Essen? Spaghetti mit Pestizid."
Mann: "..eher nicht, danke"
Frau: "..mit Pesto! Scheiß Autokorrektur."
Reinhard Karger: "Sprachtechnologie arbeitet mit Sprachmodellen. Man kann Sprachmodelle extrahieren aus Zeitungstexten, aus Nachrichten, die automatisch analysiert werden. Das sind Millionen von Wörtern, die da gesammelt werden."
Autokorrektur- und Wortergänzungssysteme basieren auf einer automatischen, statistischen Auswertung riesiger Textmengen. Ebenso die neueren Systeme, die auch Vorschläge für die Abfolge von Wörtern machen und inzwischen versuchen, Kontext zu berücksichtigen. Algorithmen durchforsten Literatur, Online-Magazine, Radio- und Fernsehsendungen, Unmengen geschriebener und gesprochener Sprache. Die Ergebnisse spiegeln letztlich wider, welche Wörter in einem Sprachraum allgemein benutzt werden. Und: in welchen Zusammenhängen und nach welchen Mustern sie benutzt werden. Erst einmal ganz unabhängig davon, ob diese Wörter oder Wortfolgen als beleidigend oder diskriminierend empfunden werden oder einen Text anstößig erscheinen lassen können.
Mann: "Schaffst Du es bis 17 Uhr?"
Frau: "Leider nein. Aber ich komme dann nackt."

Kreative Beschimpfungen auf dem Index
Allerdings: Es gibt Listen mit Sperrwörtern, sogenannte Profanity-Lists, nach denen die analysierten Textmengen gefiltert werden. Diese sollen aktiv verhindern, dass bestimmte Wörter in den Korrektur-, Wortergänzungs- oder Wortfolge-Features auftauchen.
Reinhard Karger: "Wenn sie jetzt so etwas schreiben wie „Heil" und machen einen Blank, dann wird ihnen sowas angeboten wie: „angekommen". Heil angekommen. So würde man das heute schreiben. Im Dritten Reich würde man was anderes erwartet haben. Natürlich ist es so, dass pornographische, sexistische, dass die Beleidigung von Religion und so weiter, faschistische Redewendungen, dass man die da wieder rausfiltert. Das ist wiederum etwas, was letztendlich Menschen tun."
Programmierer bei Microsoft etwa haben so kreative Beschimpfungen wie "Zyklopenfotze" oder "Kotzfresse" auf den Index gesetzt – und ca. 800 andere Wörter, die bei Vorschlägen weit hinten rangieren sollen, „Analverkehr" zum Beispiel. Googles deutschsprachige Profanity-List für das Android-Betriebssystem umfasst rund 70 Begriffe – darunter "Vulva", "Puff" und "Fellatio" oder "Scheiße", "böse" und "schmutzig".
Auf der Grundlage der automatischen Textanalyse sind es also Menschen, die Wörter auswählen, die vorgeschlagen werden sollen oder eben nicht. Nach welchen Kriterien dies jedoch geschieht und warum Google offenbar nicht nur "vergewaltigen" bedenklich findet, sondern auch "homosexuell" und "jüdisch", das bleibt unklar. Auf Anfrage stand dort kein Experte zu diesem Thema zur Verfügung, jedenfalls nicht kurzfristig. Auch nicht bei Apple, Microsoft und Mozilla.
Fluchen im Alltag sanktionierter als Rassismus
Wenn die Auto-Vervollständigung also problemlos ein Wort wie "Neger" vorschlägt, während man ihr "Scheiße" erst beibringen muss, dann hat das offenbar auch damit zu tun, dass fluchen im Alltag und im allgemeinen Sprachgebrauch der jeweiligen Programmierer weitaus mehr sanktioniert ist als Rassismus. Und: dass sich mit der Entwicklung von Software, die sexuell konnotierte Begriffe oder Schimpfwörter filtert, das bessere Geschäft machen lässt.
Reinhard Karger: "Fluchen ist etwas, was den amerikanischen Software-Herstellern Schwierigkeiten machen kann. Wenn in den USA ein Smartphone verwendet wird von einem Jugendlichen und es werden dort indezente Ausdrücke angeboten, dann könnte das tatsächliche Probleme für den Hersteller mit sich bringen. Also wenn man sich das vorstellt, dann macht man eine Werbekampagne und da wird dann fokussiert auf: Wenn sie wollen, dass ihr Kind fluchen lernt, dann benutzen sie doch die Software von meinem Konkurrenten."
Und wenn wir wollen, dass ein bestimmtes Wort in einem bestimmten Kontext auftaucht – oder eben nicht mehr auftaucht – dann sollten wir viel vehementer bei den Entwicklern der Smartphone-Betriebssysteme intervenieren. Vor allem aber sollten wir uns in der öffentlichen Kommunikation um eine korrekte Sprache bemühen. Denn:
Mann: "Die Angst, dass die Autokorrektur was perverses ausspuckt, wichst von Tag zu Tag."
Und das wollen wir ja auch nicht.
Mehr zum Thema