Welche Auswirkungen haben Fortschritte im Bereich maschineller Übersetzung auf Fuzzy Matches

Lee Densmer Lee Densmer 07. Sept. 2020
Welche Auswirkungen haben Fortschritte im Bereich maschineller Übersetzung auf Fuzzy Matches

Stellen Sie sich vor, Sie über­setzen eine Ge­schichte über einen Hund. Dafür ver­wenden Sie ein Translation-Management-System, und der Aus­gangs­satz lautet wie folgt: „Der schwarze Hund wurde fast über­fahren, als er über die Straße lief.“ Nehmen wir nun an, dass es im Translation Memory (TM) be­reits eine Über­setzung für fol­genden Satz gibt: „Der braune Hund wurde über­fahren, als er über die Straße lief.“ Diese Beinahe-Über­einstimmung wird als „Fuzzy Match“ bezeichnet. Alles, was hier noch ge­tan wer­den muss, ist, „braun“ durch „schwarz“ zu er­setzen und das kleine, aber eminent wich­tige Wörtchen „fast“ hin­zu­zufügen.

Die Engine einer maschinellen Über­setzung (MT) bietet Ihnen jedoch eine – ab­gesehen von der nicht ganz ge­glückten Wort­wahl – per­fekt passende Über­setzung an, nämlich: „Als der schwarze Hund über die Straße lief, wurde er fast ge­troffen.“

Würden Sie die Über­setzung aus dem TM ver­wenden, die von einem Menschen stammt, aber be­arbeitet wer­den müsste, oder die nahe­zu per­fekte, allerdings MT-generierte Über­setzung?

Auf den ersten Blick mag die eine Lösung so gut sein wie die andere, doch tat­sächlich ist die Ent­scheidung gar nicht so ein­fach. Dabei war die Wahl zwischen TM und MT früher ein­mal durchaus ein­fach: Man ging einfach den Weg des ge­ringsten Auf­wands. Das war in der Regel die Über­nahme des TM-Eintrags, da die MT minder­wertige Er­gebnisse lieferte. Heute haben Über­setzer nicht selten die Qual der Wahl. Dank der Fort­schritte im Be­reich des maschinellen Lernens ist nun end­lich der Punkt er­reicht, an dem MT-generierte Über­setzungen mit Fuzzy Matches mit geringer Über­einstimmung konkurrieren können.

Heißt das, dass TMs nun zum alten Eisen gehören?

Keines­wegs. Oder zumindest noch nicht. Aller­dings ist es sehr wohl an der Zeit, die seit zwei Jahr­zehnten bewährten Branchen­standards für Fuzzy Matches zu hinter­fragen.

Die Qual der Wahl für den Über­setzer: Fuzzy Match oder MT-Ausgabe?

Früher galt die Faust­regel: Fuzzy Matches mit weniger als 70 bis 75 % Über­einstimmung sind nicht mehr zu ge­brauchen. Und bis vor Kurzem gab es auch wenig Grund, diese Regel zu hinter­fragen, denn ein Fuzzy Match dieser Kategorie schlug die MT-Ausgabe um Längen. Dann setzte die MT zum großen Sprung an – neuronale MT-Systeme kamen auf. Und selbst jetzt, wo sich die Er­gebnisse der MT all­gemein ver­bessert haben, haben wir noch keine akademische Arbeit oder große Forschungs­arbeiten in einer der Haupt­sprachen ge­sehen, die be­weisen, dass MT an TM vorbei­gezogen wäre.

Dabei gibt es durchaus sporadische Hin­weise, wonach dieser Punkt bereits er­reicht sein könnte. Anfang 2019 ver­öffentlichte TAUS einen Be­richt mit eigenen Daten, aus denen her­vor­geht, dass die maschinelle Über­setzung für Matches unter­halb der 85-%-Schwelle bessere Er­gebnisse liefert als aus TMs – zu­mindest in romanischen Sprachen.

Wäre es da nicht logisch, die Unter­grenze für brauch­bare Matches auf min­destens 85 % an­zuheben? Nun, ganz so ein­fach ist es nicht:

  • Sprache ist so flexibel und die mög­liche Varianten­vielfalt je nach Sprache und Content-Typ so un­überschaubar groß, dass niemand mit Sicher­heit sagen kann, dass 85 % in jedem denk­baren An­wendungsfall ein ge­eigneter Grenz­wert wären. Für fran­zösische Rechts­texte gel­ten andere Stan­dards als für technischen Content in russischer Sprache, um nur zwei be­liebige Bei­spiele zu nennen.
  • Darüber hinaus gibt es weitere Variablen: Nicht jede MT-Engine ist für jeden An­wendungs­zweck gleich gut geeignet, und je nach­dem, welchen Algorithmus das TM-System ver­wendet, variiert das Resultat – den einen „Standard“-Algorithmus gibt es nämlich nicht. Auch hier existieren prak­tisch unendlich viele Mög­lichkeiten.
  • Selbst wenn sich sicher sagen ließe, dass Fuzzy Matches mit mindestens 85 % Über­einstimmung aus­nahms­los immer besser ab­schneiden als die MT, heißt das im Umkehr­schluss noch lange nicht, dass die MT unterhalb dieser Schwelle stets die bessere Wahl ist. Eine magische For­mel, die sich für alle Eventualitäten an­wenden ließe, existiert schlicht nicht.

Angesichts dieser Um­stände bleibt nur das Experimentieren in der Praxis. Bei Fuzzy Matches mit einer relativ geringen Über­einstimmung um die 70 % stehen Über­setzer nun vor der schwierigen Ent­scheidung, ob es sich lohnt, den Fuzzy Match zu über­nehmen, oder ob eine MT-generierte Über­setzung der vollen Original­aussage hilf­reicher ist. Der Be­arbeitung be­dürfen voraus­sichtlich beide, wenn auch in ver­schiedener Hin­sicht: Während der Fuzzy Match so an­gepasst wer­den muss, dass er die Original­aussage voll wieder­gibt, weist die MT-Ausgabe wo­möglich Defizite hin­sichtlich Ge­nauigkeit und/oder Sprach­fluss auf.

Die Frage, welches Vor­gehen zeit­sparender ist, lässt sich nicht ein­deutig beantworten.

Doch die Tat­sache, dass sich diese Frage heute über­haupt stellt, deutet auf eine neue, richtung­weisende Ent­wicklung in der Über­setzungs­branche hin. Eine Ent­wicklung, die in gewisser Weise an das Zeit­alter der In­dustrialisierung er­innert. Die Gebrüder Wright beispiels­weise schei­terten mit Dutzenden Proto­typen ihrer Flug­apparate, ehe sie sich end­lich in die Lüfte schwin­gen konnten. Auf ähnliche Weise müssen auch wir heute Neues aus­probieren, aus Fehlern ler­nen und mit zu­nehmender Er­fahrung (und immer besserer MT) eine Lö­sung finden, denn es ist schlicht un­möglich, jede einzelne Satz­bau­variante oder Variable von vorn­herein zu be­rücksichtigen.

Der Kipppunkt

Doch wenn nicht jede Mög­lichkeit be­rücksichtigt wer­den kann, woher wissen wir dann, wann die MT das TM in puncto Zu­verlässigkeit über­holt hat?

Der Wandel wird schritt­weise er­folgen, vor­erst lautet die Frage je­doch, wie sich „Qualität“ definieren lässt.

Der­zeit liegt es noch ganz und gar im Auge des Be­trachters, ob die Qualität einer maschi­nellen Über­setzung (mit oder ohne Post-Editing) gegen­über einem 85-%-Match (mit oder ohne Revision durch den Über­setzer) als besser oder schlechter ein­gestuft wird. Aber eines Tages wird die Technologie selbst in der Lage sein, uns auch in dieser Frage zu leiten.

Damit nähern wir uns dem Thema der Qualitäts­bewertung. Neuronale MT kann die Qua­lität der MT-Ausgabe bereits selbst evaluieren. Sie liefert nicht bloß eine maschinell generierte Über­setzung, die der Über­setzer dann über­nimmt oder ver­wirft, sondern bietet zu­nehmend intelligentere Hin­weise, etwa dass eine Über­setzung nicht ideal ist, wo mögliche Fehlerquellen liegen und welche Optionen es zu deren Beseitigung gibt. Neuronale MT unterzieht ihre Er­gebnisse nicht nur einer Selbst­bewertung, sondern einer Selbst­diagnose. Mit der Zeit lernt sie immer mehr dazu, bis sie in der Lage ist, Fehler basierend auf früheren Ent­scheidungen des Über­setzers selbst­ständig zu korrigieren. Bis zu einem ge­wissen Grad ist dies bei adaptiver MT schon jetzt der Fall.

Sobald die MT ihre Fehler ganz allein er­kennen und dem mensch­lichen Editor wert­volle Hin­weise zur Fehler­behebung liefern kann, wird sie die TM-Technologie in be­stimmten An­wendungs­fällen über­flügeln. Und dabei sprechen wir keines­wegs von der fernen Zu­kunft. An­gesichts der massiven Investitionen führender Technologie­unternehmen könnte die MT diesen Kipp­punkt früher er­reichen als ge­dacht.

Eines sei jedoch klar­gestellt: Dies be­deutet nach wie vor und mit hoher Wahr­schein­lichkeit nicht, dass Men­schen durch Maschinen er­setzt wer­den. Viel­mehr wer­den wir den Über­gang von der bis­herigen computer­unterstützten Über­setzung zur personen­unterstützten Über­setzung er­leben. Der Com­puter wird künftig einen ersten Vor­schlag bereit­stellen – zu­mindest für Content mit ge­ringerem emotionalem Ge­halt, irgend­wann aber viel­leicht auch für an­spruchs­volleren Content – und der Mensch bessert dann nach. Ab­schließend wird die Leistung der MT-Engine beurteilt.

Damit stellt sich natürlich die Frage, was dieser Wandel für die Über­setzer in petto hat. Wenn am An­fang des Über­setzungs­prozesses ein computer­generierter Vor­schlag steht, wan­delt sich die Rolle des Über­setzers eher hin zum Editor. Be­deutet dies weniger Ar­beit und damit finanzielle Ein­bußen für Über­setzer? Was ist mit hoch spezialisierten Über­setzern, die stark marken­spezifischen Content be­arbeiten? Für sie sind die MT und das TM nichts weiter als lästiges Bei­werk, das den kreativen Über­setzungs­prozess eher be­hindert. Können wir diesen Über­setzern MT auf­zwingen?

Letzt­lich führt alles zu dem Grund zurück, aus dem wir bis­her eher den Fuzzy Matches ver­trauen: dem mensch­lichen Touch. Doch wenn die MT eines Tages feinere Nuancen und Konnotationen der Sprache ver­stehen, den Satz­fluss rich­tig nach­vollziehen und sprach­übergreifend ver­schiedene Schreib­stile er­kennen kann, wer weiß, wohin der Weg uns dann führt?

Wie ist Ihre Meinung dazu? Sollten aus Rück­sicht auf die immer bessere MT-Qualität nur noch TM-Einträge mit höherer Wertig­keit be­rücksichtigt wer­den? Gern können Sie im Kommentar­feld unten fach­simpeln oder sich direkt an uns wenden.

Wir be­danken uns bei Jon Ritzdorf, Solution Architect bei RWS Moravia sowie Professor am Middlebury Institute of Inter­national Studies (MIIS) und an der Universität Maryland (UMD), für seinen Bei­trag zu die­sem Blog­artikel.

Lee Densmer
Autor

Lee Densmer

Lee Densmer ist seit 2001 in der Lokalisierungsbranche tätig. Sie begann als Projektmanagerin und wechselte dann zu Lösungsarchitektur und Marketing-Management. Wie viele Lokalisierungsexperten kam auch sie durch ihr Sprachinteresse und ihre linguistische Ausbildung zu diesem Bereich. Sie hat einen Master-Abschluss in Linguistik von der University of Colorado. Lee Densmer lebt in Idaho und unternimmt gern Auslandsreisen und Ausflüge in die umliegenden Berge.
Alle von Lee Densmer