Welcome to the Machine – Die Einlösung eines 50 Jahre alten Versprechens

Im Gegensatz zur mit circa 25 Jahren relativ jungen und erfolgreichen Translation Memory Technologie hat die Maschinelle Übersetzung schon ein gutes halbes Jahrhundert auf dem Buckel – und sie ist längst nicht so etabliert und erfolgreich wie ihre jüngere Schwester.

Die Grenzen von Translation Memory Systemen

Dabei können Translation Memory Systeme (TMS) doch noch nicht mal wirklich Sprache. Sie sind lediglich die Bewahrer und Reproduzenten des Geschehenen, noch nicht mal zwingend des Richtigen oder Wahren. Aber die pragmatischen Funktionalitäten sind gut ausgearbeitet, und die Technologie passt gut in eine Zeit der Produktreihen und -familien und des redundanten Formulierens. Translation Memory Systeme können zudem technisch ganz gut in ganzheitliche Workflows integriert werden.
Sie können aber nicht weiterhelfen, wenn es darum geht, viele neue Inhalte – zum Zwecke der informellen Orientierung zum Beispiel – schnell und kostengünstig zu übersetzen. Jenen riesigen Berg an Übersetzungsbedarf im Bereich Unternehmenskommunikation, technische Dokumentation oder Informationsübersetzung ganz generell, der in vielen international organisierten oder auch ganz allgemein in international agierenden Unternehmen vorhanden ist und dessen genaue Höhe niemand kennt – den abzutragen, sind TM Systeme nicht in der Lage. Dafür sind die Kosten in solchen traditionellen Übersetzungsprozessen zu hoch und die Realisierungszeiten zu lang.
Was könnte man tun? Der Bedarf ist ja da.

Die Weiten der maschinellen Übersetzungbw_machine

Die Protagonisten aus dem Bereich Maschinelle Übersetzung (oft wird das Kürzel MT für Machine Translation gebraucht) hatten sich in den 50er Jahren angefeuert mit dem Motto In 5 Jahren werden wir es geschafft haben! Das riefen sie dann alle fünf Jahre. Zwischenzeitlich wurde in den 60er Jahren sämtliche Unterstützung eingestellt, weil der Technologie eine generelle Unmachbarkeit attestiert wurde. Es folgten ein Nischendasein im universitären und Forschungsbereich und seit den 80er Jahren eine Renaissance oder ein Machine Translation Revival, wenn man so will.
Das hängt einerseits damit zusammen, dass inzwischen fast alle Inhalte elektronisch verfügbar sind, und dass statistisch basierte maschinelle Übersetzungssysteme entstanden sind, die genau auf der Nutzung solcher Textmengen basieren. Auf der anderen Seite gibt es tatsächlich eine Reihe von potenziellen Anwendungsfeldern.
Die Erwartungen sind hoch, die konkreten Übersetzungsergebnisse oft schon erstaunlich gut, meist aber noch recht amüsant. Sie können mit dem vielfach vorhandenen Wunschdenken oft nicht Schritt halten.

 

Statisch oder regelbasiert?

Ein ganz wesentlicher Aspekt, wenn es um MT-Technologie geht, sind transparente und beherrschbare Prozesse. Warum sind Übersetzungen gut oder schlecht – wie kann ich die Ergebnisse in meinem Sinne beeinflussen?
Statistisch basierten Systemen (SMT), wie Google, Bing oder Moses, fällt die Antwort auf solche Fragen schwer. Sie arbeiten auf der Basis von großen Textmengen, operieren mit Wahrscheinlichkeiten und – klar – Statistiken, nicht mit linguistischen Methoden.
Regelbasierte Systeme (RBMT) hingegen, wie die von Lucy Software, Systran oder auch Open-Source-Komponenten analysieren die Texte aus sprachlicher Sicht. Sie kennen neben Quell- und Zielsprache auch sinnvolle Transferbeziehungen zwischen beiden. Sie können sich selbst bewerten und sogar vermuten, wann was schiefgehen wird. Wenn die Quellen mit sprachlichen Fehlern behaftet sind, haben sie es allerdings naturgemäß recht schwer.
Besonders interessant ist, dass regelbasierte Systeme nicht mit großen Textmengen trainiert werden, sondern dass sie von spezifischer Terminologie lernen. Wenn sie also intelligent in die Terminologieprozesse im Unternehmen integriert werden, kann man interessante Synergien erschließen. Was man bereits an verbindlicher Terminologie besitzt, bringt man solchen Systemen bei.
Auf der anderen Seite kann das MT-System seinerseits vermisste Terminologie anmelden und so die Abläufe im Bereich Terminologiemanagement erleichtern.

Der Übersetzer und die Technologie

Wenn man einmal ein auf seine spezifischen Bedürfnisse trainiertes System hat, kann dasselbe Grundsystem ohne großen zusätzlichen Aufwand in den verschiedensten Kontexten eingesetzt werden: in einem Informationsportal genauso, wie direkt integriert in den Übersetzungsprozess.
Maschinelle Übersetzung kann eigentlich kaum eine direkte Konkurrenzveranstaltung für die etablierten traditionellen Übersetzungsprozesse sein. Sie kann aber zu einer großen Bereicherung werden, wenn sie in die etablierten Abläufe intelligent eingebunden wird.
Dann ändert sich der Charakter einiger Tätigkeiten durchaus – der Übersetzer wird zum kompetenten Posteditor, im Fachbereich Terminologe werden ein paar mehr linguistische Kompetenzen benötigt, als bisher. Aber man kann so die Voraussetzungen schaffen für größere Datendurchsätze und kürzere Realisierungsfristen. Das kann auch auf der Kostenseite zu Buche schlagen.
Die Materie ist inzwischen so komplex, dass sie kaum allein bewältigt werden kann. Denn man ist abhängig von der Qualität der Ausgangstexte, man sollte die verschiedensten Systeme sinnvoll miteinander verdrahten, man braucht eine technologische Expertise, die bislang noch nicht unbedingt vonnöten war… Ganz wesentlich für den Erfolg der Ambitionen im Bereich Maschinelle Übersetzung ist daher die Zusammenarbeit mit kompetenten Partnern.

 

DER AUTORM-0071_36187_Horst_Hoffotografen

Dipl. Ing. Horst Liebscher ist Director for Technology & Innovation bei text&form in Berlin. Mit seiner langjährigen Spezialisierung auf den innovativen Einsatz von Sprachtechnologien verfügt er bereits über mehr als 15-jährige Erfahrungen in der Übersetzungs- und Lokalisierungsbranche. Seine tiefgehenden Einblicke in nahezu alle Facetten der Industrie helfen ihm dabei, im Thema Maschinelle Übersetzung bisher wenig erforschte Wege zu beschreiten und neue Brücken zwischen Mensch und Maschine zu bauen.