Risiken und Nebenwirkungen beim Übersetzen mit der KI

Risiken und Nebenwirkungen beim Übersetzen mit der KI

Wer kennt das nicht? Im Urlaub lässt man sich beim Übersetzen der Speisekarte oder Lesen von Infotafeln schnell einmal von Google Translate und Co. helfen, im Schriftverkehr nutzt man die modernen KI-Übersetzungsdienste für die Kommunikation. Sie arbeiten schnell, sind einfach verfügbar und leicht zu bedienen sowie für kleine Textmengen kostenlos verwendbar.

Die heute verfügbare KI verspricht eine enorme Zeit- und Kostenersparnis. Der Einsatz von KI-Übersetzern birgt jedoch auch Risiken, die Kehrseite ist, dass sie zu Fehlübersetzungen mit fatalen wirtschaftlichen Folgen führen könnte.

Wenn eine Maschine übersetzt, tut sie eben genau nicht das, was ein Mensch beim Übersetzen leistet, nämlich die Logik, Sinnhaftigkeit und Kohärenz eines Textes zu hinterfragen. Stattdessen führt sie eine rein mathematische, algorithmische Aneinanderreihung von Wörtern oder sogenannten „Tokens“ nach dem Wahrscheinlichkeitsprinzip durch, für das eine immense Datensammlung durchforstet wird.

Ob diese Wahrscheinlichkeit dem entspricht, was der Autor tatsächlich ausdrücken wollte, oder sogar der Wahrheit entspricht, ist für die Maschine schlichtweg irrelevant.

Beim professionellen Übersetzen werden ja nicht lediglich einzelne Wörter übertragen, sondern es geht nicht um Wörter, sondern um Worte – das ist ein gewaltiger Unterschied.

Das professionelle Übersetzen steht vielmehr für die möglichst genaue Übertragung von Inhalt und Bedeutung eines schriftlichen Textes in eine andere Sprache, wobei sowohl die Kommunikationsabsicht und -wirkung als auch die Adressaten berücksichtigt werden.

Grundlegend ist dabei, dass der Inhalt des zu übersetzenden Textes vollständig verstanden werden muss. Maschinelle Übersetzungen können dies nicht leisten. Qualifizierte Übersetzerinnen und Übersetzer aber sehr wohl, deshalb sind sie zumeist auch auf bestimmte Fachgebiete spezialisiert.

Fachlich qualifizierte Übersetzerinnen und Übersetzer entdecken beim Lesen und Erfassen von Texten nicht selten auch inhaltliche Unstimmigkeiten oder auch Fehler im Ausgangstext, die von der KI einfach ignoriert werden.

Selbst wenn ein von einer Maschine oder generativer KI erzeugter Text gut und flüssig zu lesen ist, gibt es keine Garantie dafür, dass er keine Fehler enthält, dass eine bewusst in den Ausgangstext eingebaute sprachliche Nuance nicht erkannt und anders übersetzt wurde oder dass nicht sogar etwas in die Übersetzung „“halluziniert“ wurde. Da große Sprachmodelle kein vollständiges Wissen über die Welt besitzen, wird fehlendes Wissen in den Text hineininterpretiert, ein Prozess, der auch als „Konfabulation“ bezeichnet wird.

 Diese Funktion ermöglicht es, auf Anfragen an das Sprachmodell auf kreative Weise zu reagieren, anstatt sich ausschließlich auf vorhandenes Wissen zu stützen. Das bedeutet jedoch auch, dass eine Anfrage, für die es eine objektiv richtige Antwort gibt, die dem Modell jedoch unbekannt ist, auf eine Weise beantwortet wird, die zwar richtig erscheint, es aber nicht ist.