Post-Editing in der Zukunft: ein Interview mit Félix do Carmo

Lee Densmer 04. Sept. 2020
Post-Editing in der Zukunft: ein Interview mit Félix do Carmo

Vor nicht allzu langer Zeit galt maschinelle Übersetzung mit Post-Editing (MTPE) noch als Randerscheinung. Nur Unternehmen mit einem gewissen Pioniergeist setzten auf diese Konstellation, und auch nur wenn die Projektanforderungen einen „akzeptablen Mix“ aus Qualität, Kosten und Geschwindigkeit erlaubten. Die mit dem Post-Editing verbundenen Kosten für die Rekrutierung, Schulung und Vergütung von Übersetzern, die die MT-Ausgabe korrigieren sollten, ließen viele dann doch wieder auf den gewohnten Ansatz aus manueller Übersetzung mit Produktivitäts-Tools wie Translation Memorys zurückgreifen. MTPE war einfach keine ökonomisch vertretbare Option.

Doch die Zeiten haben sich verändert. Ende 2016 wurde Google Neural Machine Translation (GNMT) angekündigt, das hinsichtlich der Qualität der MT-Ausgabe einen Quantensprung versprach. Es folgte ein regelrechter Wettlauf zwischen MT-Entwicklern um die leistungsstärkte Engine. Sprachdienstleister suchten derweil nach Möglichkeiten, MT für die Übersetzungsprojekte ihrer Kunden nutzbar zu machen.

Zwar gibt es noch immer keine MT-Engines oder -Prozesse, die ganz ohne manuelle Intervention in allen Anwendungsbereichen verlässliche Ergebnisse erzielen. Doch der gewaltige Fortschritt im MT-Bereich ermöglicht Übersetzungsservices da, wo sie bislang nicht infrage kamen – etwa für Kundenfeedback oder in Supportforen.

Dementsprechend ist die Nachfrage nach Post-Editing regelrecht explodiert. Auch wenn das Post-Editing-Konzept teilweise auf Ablehnung stößt, ist es mittlerweile ein nicht mehr wegzudenkender Bestandteil der Sprachdienstleistungen.

Grund genug also, sich mit den Abläufen des Post-Editings genauer – und durchaus kritisch – auseinanderzusetzen. Sind unsere Prozesse effektiv? Effizient? Steht Post-Editoren die richtige Technologie zur Verfügung? Werden die richtigen Anreize gesetzt, um Post-Editoren zum gewünschten Verhalten zu motivieren? Wie könnte ein optimierter Prozess aussehen und wie ließe dieser sich realisieren?

Diese und weitere Fragen habe ich Félix do Carmo gestellt, Postdoc-Forschungsstipendiat am ADAPT Research Centre und Leiter des KAITER-Projekts zum Thema interaktives Post-Editing.

Felix do Carmo

JIM: Félix, kannst du uns kurz das KAITER-Projekt vorstellen?

FÉLIX: Das Projekt zielt hauptsächlich darauf ab, Tools zu entwickeln, die Übersetzer beim Post-Editing unterstützen – nicht nur beim Post-Editing übrigens, sondern auch beim Übersetzen und bei Revisionen. Dem liegt die Idee zugrunde, dass die Hauptaufgabe von Übersetzern, die ein Post-Editing durchführen, beim Editing liegt. Es geht um kleine Aktionen in Textsegmenten: Wörter oder Wortgruppen werden gelöscht, eingefügt, verschoben oder ersetzt. Meiner Meinung nach müssen wir die Muster erforschen, nach denen Übersetzer bei der Ausführung dieser Aktionen handeln, und ihnen dann Tools an die Hand geben, die eine Steigerung von Qualität und Produktivität ermöglichen.

KAITER steht für „Knowledge-Assisted Interactive Translation Editing and Revision“, also wissensgestütztes interaktives Editieren und Revidieren von Übersetzungen.

JIM: Wie kam es, dass du dich mit diesem Forschungsgebiet befasst?

FÉLIX:Ich bin seit 1994 als Übersetzer tätig und Inhaber eines kleinen Übersetzungsunternehmens in Portugal. Die Arbeit mit CAT-Tools, die zwar Informationen liefern, aber keine sinnvolle Funktionen anbieten, diese auch zu nutzen, hat uns frustriert. Als wir dann mit dem Post-Editing von MT-Output begannen, stellten sich neue Frustrationen ein: Die Arbeit war repetitiv, dieselben Wörter mussten immer wieder ersetzt werden und es gab keine intelligenten Möglichkeiten, mit den im MT-Prozess eingesetzten Tools zu interagieren.

JIM: Wie effektiv ist das Post-Editing in seiner heute praktizierten Form generell?

FÉLIX: Die Schwachstellen beim Post-Editing sind dieselben wie beim Übersetzungsprozess. Übersetzer müssen mit stark segmentiertem Content arbeiten und haben nicht genug Kontext, um Entscheidungen treffen zu können. Hinzu kommen Längen- und andere Beschränkungen sowie strenge Richtlinien, die sich von Projekt zu Projekt unterscheiden.

Post-Editing entstand als neuer Prozess, stellt aber in puncto Kontext und Entscheidungshilfe keine Verbesserung dar. Für jemanden, der zum Beispiel Software übersetzt und eine bestimmte Wortwahl treffen muss, macht es keinen Unterschied, ob er an einem Übersetzungs- oder einem Post-Editing-Projekt arbeitet.

Obendrein wird Post-Editing traditionell mit qualitativ minderwertigen Texten, wie nutzergeneriertem Content, und „Good-Enough-Qualität“ assoziiert, sodass die Entscheidungsfindung der Übersetzer in zu hohem Maße von Projektbeschränkungen abhängt.

Was die Tools anbelangt, müssen wir meines Erachtens nicht nur den Entscheidungsfindungsprozess der Übersetzer beim Post-Editing untersuchen, sondern nachvollziehen, welche Informationen sie für die Entscheidungsfindung nutzen, und dafür Unterstützung anbieten.
Ein Beispiel: Wenn sich herausstellt, dass Übersetzer für einen bestimmten Textabschnitt immer wieder recherchieren und die meisten Antworten auf bestimmten Webseiten zu finden sind, dann könnten wir dafür vielleicht eine automatisierte Verbindung bereitstellen. Oder wir könnten Probleme, auf die Übersetzer häufig stoßen, mit diesbezüglich hilfreichen Informationen irgendwie verknüpfen.

JIM: Könnten die neu aufkommenden neuronalen und hybriden MT-Methoden das zu lösende Problem verändern?

FÉLIX: Statistische maschinelle Übersetzung untergliedert Sätze in kleinere Einheiten und kann dafür Vorschläge unterbreiten – ein sehr gutes interaktives Element. Dennoch scheint der Sprachfluss bei der neuronalen maschinellen Übersetzung besser zu sein. Die Sätze wirken zusammenhängender, lassen sich aber nicht so leicht in Einheiten aufspalten.

Nach meiner Einschätzung wurde noch nicht ausreichend untersucht, wie statistischer gegenüber neuronalem MT-Output die projektinterne Konsistenz beeinträchtigt und wie sich Entscheidungen, die von vorherigen Segmenten abhängen, zwischen beiden Ansätzen unterscheiden.

Es kann vorkommen, dass zehn aufeinanderfolgende Sätze perfekt sind, aber trotzdem nachbearbeitet werden müssen, weil der Übersetzer für das betreffende Projekt an eine bestimmte Terminologie gebunden ist. Hier müssen wir analysieren, was wir den Übersetzern für jedes Projekt zur Verfügung stellen können.

Es ist auch nicht ganz klar, ob der Aufwand tatsächlich geringer ausfällt, wenn die Post-Editoren mit besserem MT-Output arbeiten.

JIM: Geben wir Post-Editoren deiner Meinung nach die richtigen Anreize, korrekt zu arbeiten? Oder gibt es da ein besseres Modell?

FÉLIX: Ich glaube nicht, dass wir richtig vorgehen, um Übersetzer für das Post-Editing zu erwärmen. Das gilt vor allem für Übersetzer, die schon seit Langem im Geschäft sind, die im Umgang mit komplexen Problemen sowie bei der Einarbeitung in neuen Content ausreichend Erfahrung haben und die diesen Content den Erwartungen des Kunden entsprechend anpassen können. Dennoch würde ich sagen, dass sich Übersetzer nicht so sehr gegen Post-Editing sträuben, wie oft behauptet wird.

Post-Editing sollte als Aufgabe betrachtet werden, die Übersetzer befähigt, bessere Arbeit zu leisten. Manchmal ist das Problem aber auch, dass wir den Preis senken, weil wir als Richtlinie „bitte nicht zu viel korrigieren“ vorgeben. Dies gibt den Übersetzern das Gefühl, kein Mitspracherecht bei der Entscheidungsfindung zu haben. Dabei geht es nicht bloß um eine angemessene Vergütung, sondern auch darum, Übersetzern die Chance zu geben, in einer komplexen Umgebung Entscheidungen zu treffen.

JIM: Würden interaktive Post-Editing-Tools daran etwas ändern?

FÉLIX: Interaktives Post-Editing ist essenziell, wenn die maschinelle Übersetzung gute Ergebnisse liefert, die nachbearbeitet, aber nicht komplett umgeschrieben werden müssen.

Bei den meisten interaktiven Systemen, die es zurzeit gibt, überlegt sich der Übersetzer seine Übersetzung selbst. Bei der Eingabe greift dann das System ein – was manchmal hilfreich ist, manchmal aber auch zu Interferenzen führt. Ein interaktives Post-Editing-System hingegen unterbreitet einen vollständigen Übersetzungsvorschlag, unterstützt dann aber mithilfe derselben Komponenten, mit denen der Vorschlag generiert wurde, die Entscheidungsfindung beim Editing: Es analysiert, mit welcher Wahrscheinlichkeit ein Wort umgestellt werden muss, ersetzt es durch Alternativen und so weiter.

Systeme, die so mit Post-Editoren interagieren, erleichtern und verbessern die Entscheidungsfindung, da der Prozess auf lokal erworbenem Wissen aufbaut. Ich glaube, dadurch gäbe es viel mehr Wertschätzung dafür, wie wichtig spezialisierte Übersetzer in diesem Prozess sind. Dies wiederum würde natürlich die Arbeit für diejenigen attraktiver machen, die sie ausüben.

JIM: Nehmen wir an, dass alle Ziele des KAITER-Projekts erfüllt werden und der Post-Editing-Prozess entsprechend optimiert wird. Wie sähe das Post-Editing dann aus?

FÉLIX: Als Post-Editor würde ich mir eine Benutzeroberfläche wünschen, die auf den ersten Blick sehr einfach ist und mir sowohl den Quell- als auch den Zieltext anzeigt. Wenn ich dann der Meinung bin, dass etwas korrigiert werden müsste, erhalte ich per Mausklick mehr Informationen darüber, wie der Content zustande gekommen ist. Falls ich noch mehr wissen will, kann ich mir anzeigen lassen, wer übersetzt hat, ob es eine maschinelle Übersetzung ist oder es aus dem Translation Memory kommt, ob bestimmte Wörter in den Projekten des Kunden einheitlich übersetzt wurden, ob es besondere Anweisungen für den Umgang mit dieser oder jener Art von Satz gibt und so weiter.

Komme ich dann zu dem Schluss: „Ja, das muss geändert werden“, dann würde ich mir eine Hilfestellung für die Recherche wünschen – zum Beispiel Vorschläge, welche Websites in ähnlichen Situationen die besten Lösungen bereithalten. Außerdem wünsche ich mir vom Übersetzungs-Tool selbst Vorschläge, wie der Satz korrigiert werden könnte, etwa einen Hinweis, dass bestimmte Wörter normalerweise entfernt werden. Oder wenn ich zwei, drei Wörter ändern möchte, soll mir das Tool die im Kontext am besten passenden Alternativen anzeigen.

Für die nahe Zukunft ist so eine Lösung absehbar, und ich möchte diese mitgestalten.

JIM: Wie lautet dein Fazit?

FÉLIX: Ich glaube vor uns liegt eine spannende Zeit. Zwar wird oft gesagt, dass die meisten Übersetzer Post-Editing kritisch sehen. Dennoch bin ich mir sicher, dass Übersetzer sehr wohl willens sein werden, damit zu arbeiten, wenn sie gute Projekte mit ausreichender Unterstützung erhalten und erkennen, dass wir an der Verbesserung unserer Prozesse arbeiten. Sagen wir ihnen aber: „Pass auf, das ist zu leicht, dafür geben wir dir weniger Zeit und Geld“, dann vermitteln wir ihnen den Eindruck, dass ihre Arbeit weniger geschätzt wird als früher. Unter solchen Bedingungen arbeitet niemand gern.

Je mehr Unternehmen für ihre Lokalisierungsprojekte maschinelle Übersetzungen einsetzen, desto dringlicher und relevanter wird dieses Anliegen. Wie ist Ihre Meinung dazu? Wie stellen Sie sich einen optimierten Post-Editing-Prozess vor?

Lee Densmer
AUTOR

Lee Densmer

Lee Densmer ist seit 2001 in der Lokalisierungsbranche tätig. Sie begann als Projektmanagerin und wechselte dann zu Lösungsarchitektur und Marketing-Management. Wie viele Lokalisierungsexperten kam auch sie durch ihr Sprachinteresse und ihre linguistische Ausbildung zu diesem Bereich. Sie hat einen Master-Abschluss in Linguistik von der University of Colorado. Lee Densmer lebt in Idaho und unternimmt gern Auslandsreisen und Ausflüge in die umliegenden Berge.
Alle von Lee Densmer