Maschinelle Übersetzung spiegelt oft die Vorurteile und Stereotype wider, die in den zugrundeliegenden Daten vorliegen. Selbst für binärgeschlechtliche Menschen (also Frauen und Männer) sind automatische Übersetzungen oft sexistisch oder schlicht falsch – und nicht-binäre Menschen und sie inkludierende Sprache werden von solchen Algorithmen bislang meist vollständig ignoriert.
Wie kann man Übersetzungsprogrammen inklusive, genderfaire Sprache beibringen? Researcher Lukas Daniel Klausner vom Institut für IT-Sicherheitsforschung an der FH St. Pölten ist Teil eines interdisziplinären Forscher*innenteams, das sich des Problems jetzt annimmt.
Aus der Sendereihe „Campustalk” mit Anna Michalski, auf Campus & City Radio St. Pölten.