10.3.  Evaluation

Qualitätskriterien für Übersetzungen 

Zielsprachliche Formulierungsgewandtheit (Fluency)

Wie fliessend (lexikalisch, syntaktisch und stilistisch korrekt und natürlich) erscheint der übersetzte Text?

Quellsprachliche Ausdruckstreue (Faithfulness)

Wie genau wurde die ursprüngliche Formulierung übernommen?

Beispiel 10.3.1 (Klassiker: Fluent vs. Faithful).

Qualitätskriterien für Übersetzungen 

Adäquatheit einer Übersetzung

Wieviel der ursprünglichen Information wird in der Übersetzung wiedergegeben? Operationalisierbar durch menschliche Urteile über einer nominalen Skala (Alles, Meiste, Viel, Wenig, Nichts).

Informativität einer Übersetzung

Reicht eine Übersetzung aus, um gewisse Fragen beantworten zu können. Operationalisiserbar durch task-basierte Evaluation via Multiple-Choice-Aufgaben zum Inhalt.

Posteditierungsaufwand

Wieviel Zeit benötigt die Postedition? Wieviele Sätze oder Texte brauchen wieviele Modifikationen? Bei METEO-System brauchten 1991 ca. 4% der Texte eine Postedition (bzw. HT).

Automatische Evaluation 

Idee

Automatische Evaluation misst die Qualität einer maschinellen Übersetzung, indem sie mit einer oder besser mehreren menschlichen Referenz-Übersetzungen verglichen wird.

Vorteile

Menschliche Evaluation ist aufwändig und langsam , automatische Berechnung einer metrischen Güte ist billig und schnell.

Definition 10.3.2 (Bilingual Evaluation Understudy (BLEU)). Eine der aktuell wichtigsten Metriken zur automatischen bilingualen Evaluation ist der BLEU-Score .

10.3.1.  BLEU

BLEU: Unigramm-Präzision 

  1. MT: It is a guide to action which ensures that the military always obeys the commands of the party.
  2. MT: It is to insure the troops forever hearing the activity guidebook that party direct.

  1. HT: It is a guide to action that ensures that the military will forever heed Party commands.
  2. HT: It is the guiding principle which guarantees the military forces always being under the command of the Party.
  3. HT: It is the practical guide for the army always to heed the directions of the party.

Definition 10.3.3 (Unigramm-Präzision P1). Die Unigramm-Präzision (Token-Präzision) eines Übersetzungskandidaten misst, wie hoch der Anteil der Wörter aus allen Referenzübersetzungen an allen Tokenvorkommen eines Kandidaten ist: P1 = C-
     N

N = Anzahl Token des Kandidaten; C = Anzahl Token des Kandidaten, welche in einer Referenzübersetzung erscheinen

Unigramm-Evaluation 

Frage

Wie hoch sind P1 von MT1 und MT2?

Tokenvorkommen

Notwendigkeit für Clipping 

Problem der Wiederholung

Wie hoch ist die P1 des “idiotischen” Kandidaten? 7
7

Clipping der Kandidatenvorkommen

Ein Token darf maximal sooft gezählt werden, wie es in einer einzelnen Referenzübersetzung vorkommt. Wie hoch ist P1 des Kandidaten mit Clipping? 2
7

Uni-, Bi-, Tri- und Quadrigramme 

Längere Textabschnitte im Vergleich

Welche N-Gramme aus den Referenztexten finden sich im MT-Kandidaten?

  1. MT: It is a guide to action which ensures that the military always obeys the commands of the party.

  1. HT: It is a guide to action that ensures that the military will forever heed Party commands.
  2. HT: It is the guiding principle which guarantees the military forces always being under the command of the Party.
  3. HT: It is the practical guide for the army always to heed the directions of the party.

Geometrisches Mittel der N-Gramm-Präzisionen

Die Precisionwerte der 1-4-Gramme eines Kandidaten werden geometrisch gemittelt : P = (P1 × P2 × P3 × P4)1∕4

Problem der Kürze

Wie hoch ist die P1 des Kandidaten? 2
2

Recall-Mass kompensieren

Normalerweise würde ein Präzisionsmass mit Recall verrechnet, um solche Effekte zu mindern. Wir haben aber mehrere Referenzübersetzungen. Als Ausweg wird ungewöhnliche Kürze des Kandidaten bestraft.

Strafabzug für Kürze über Korpus 

  1. Schritt: Bestimme die Gesamt-Länge c der Kandidatenübersetzung.
  2. Schritt: Bestimme die Gesamt-Länge r der Referenzübersetzungen, indem jeweils die kürzeste (NIST-Variante) oder zur höchsten Bewertung führende Referenzübersetzung genommen wird.
  3. Schritt: Bestimme Kürze: brevity = r∕c
  4. Schritt: Bestimme Strafabzug (brevity penalty):
          {
         1          falls c > r
BP  =    e(1−brevity)  falls c ≤ r

Beispiel 10.3.4 (Realistischer Faktor).
Wenn Kandidatenübersetzung 1000 Token zählt (c = 1000) und Referenzlänge als 1100 Token zählt (l = 1100), dann BP = e11.1 = e0.1 = 0.905

BLEU als Formel 
BLEU-Score ergibt sich aus Multiplikation von Brevity Penalty mit der geometrisch gemittelten Präzision aus 1-4-Grammen.

BLEU   = BP  × (P ×  P × P  × P )1∕4 = BP × P
                 1    2    3    4
Wert von 1 heisst “perfekte” Übereinstimmung, Wert 0 heisst keine Übereinstimmung.

Eigenschaften

BLEU betont enge lokale Übereinstimmung und vernachlässigt Unstimmigkeiten, welche sich darüber hinaus ergeben können:“Ensures that the military it is a guide to action which always obeys the commands of the party.” wäre gleich gut wie Kandidat 1.

Wie zuverlässig bildet BLEU das menschliches Urteil ab? 


pict

Abbildung 10.11: Korrelation von menschlichen und BLEU-Bewertungen nach [CALLISON-BURCH et al. 2006]


10.3.2.  Parallele Baumbanken


pict
Quelle: SMULTRON http://www.cl.uzh.ch/kitt/smultron/

Abbildung 10.12: Paralleler Syntaxbaum DE-EN


Einsatz von parallelen Baumbanken 

Anwendungen