9.1.  Sprachsynthese

Sprachsynthesesysteme ▸▸▸

Definition 9.1.1 (Text-To-Speech System, TTS). Ein Sprachsynthesesystem erzeugt aus einer Zeichenkette (Text) ein akustisches Signal.

Die Spracherzeugung setzt eine mehr oder weniger tiefe linguistische Textanalyse voraus.

Beispiel 9.1.2 (Ein deutscher Stolpersatz).
“Dr. A. Smithe von der NATO (und nicht vom CIA) versorgt z.B. - meines Wissens nach - die Heroin seit dem 15.3.00 tgl. mit 13,84 Gramm Heroin zu 1,04 DM das Gramm.”

Einsatzmöglichkeiten von Sprachsynthese

Typische Architektur von TTS
Vom der Zeichenkette zum Laut

  1. Tokenisierung
  2. Lexikalische Analyse mit einem Lexikon
  3. (Flache) syntaktische Analyse für lexikalische Desambiguierung und für die syntaktische und prosodische Phrasierung (Phrasengrenzen und Akzente)
  4. Phonologische Analyse
  5. Lautproduktion aufgrund der Phonemfolge mit Information zu Lautdauer und Intonation

9.1.1.  Qualitätsmerkmale

Qualitätsmerkmale für Sprachsynthese

Weiteres

Unterschiedliche Benutzer haben unterschiedliche Bedürfnisse. Blinde Personen schätzen es, wenn das Sprechtempo stark erhöht werden kann.

9.1.2.  Ausgewählte Probleme

Aussprache von Ziffernfolgen [LIBERMAN und CHURCH 1992]
Die Aussprache von Ziffernotationen variiert vielfältig innerhalb einer Sprache und zwischen Kulturräumen.

Beispiel 9.1.3 (Varianten im Deutschen).

Frage

Welche Aussprachen sind für welche Grössen verbreitet?

Prosodie
Um Satzintonation (Prosodie) korrekt wiederzugeben, braucht es teilweise detaillierte linguistische Analysen.

Beispiel 9.1.4 (Satzintonation und -rhythmus).
The rear aggregate pumps …

Beispiel 9.1.5 (Satzbetonung und Pausen).

Was ist Prosodie auf Satzebene? [BADER 2006]
Pausen und Satzbetonung sind an der Amplitude der Schallwellen ablesbar. Der Grundfrequenzverlauf (oft mit f0 bezeichnet) gibt die relativen Tonhöhenunterschiede in der gesprochenen Sprache wieder.


pict

Abbildung 9.1: Satzintonation im Deutschen nach [BADER 2006]


Ein frei verfügbares Tool, um die verschiedenen akustischen Aspekte der Sprache auf dem Computer zu analysieren, ist unter http://www.praat.org zu finden.

Weitere Probleme

9.1.3.  Analyseebenen

Phonetische Analyse
Wie werden die einzelnen Laute eines Wortes in Isolation repräsentiert?

Definition 9.1.6 (Pronunciation Dictionary). Ein elektronisches Aussprachewörterbuch enthält für (flektierte) Wortformen eine Repräsentation in einer Lautschrift.

Z.B. in Form des International Phonetic Alphabet (IPA) http://www.arts.gla.ac.uk/IPA, bzw. einer auf Computern einfacher verwendbareren Kodierung davon.

Beispiel 9.1.7 (Formate elektronischer Aussprachewörterbücher nach [JURAFSKY und MARTIN 2000]).

Phonologische Analyse
Welche Gesetzmässigkeiten der gegenseitigen Beeinflussung von Lauten in ihrem (aus-)sprachlichen Kontext gelten?

Definition 9.1.8 (Phonological Rules). Phonologische Regeln spezifizieren die Umstände, unter denen phonologische Alternationen statt finden.

Die Zwei-Ebenen-Morphologie bietet eine praktische Modellierung und Implementation dafür an.

Beispiel 9.1.9 (Phonologische Alternationen).
Das Plural-s wird im Englischen je nach Umgebung ganz unterschiedlich ausgesprochen: “peaches”, “pigs”, “cats”.

Teilweise lassen sich solche Effekte durch maschinelle Lernverfahren aus den Daten ableiten.

Diphone und Halbphoneme
Die Verwendung der klassischen linguistischen Einheit Phonem (35-50 pro Sprache) für Sprachgenerierung ergibt keine guten Systeme.

Wie lassen sich natürlichere und fliessende Übergänge der Laute erzeugen?

Definition 9.1.10 (Diphone ▸▸▸). Ein Diphon geht von der Mitte eines Phonems zur Mitte des nächsten Phonems. Für Deutsch kommt man etwa auf 2’500 existierende Diphone, für Spanisch auf 800.

In der Phonemmitte ist das menschliche Gehör weniger empfindlich auf Unebenheiten.

Beispiel 9.1.11 (Stimmen klonen mit Halbphonemen ▸▸▸).
AT&T Natural Voices konnte im Jahr 2001 aus ca. 40h Stimmaufnahmen eine sehr natürliche Kunststimme extrahieren. Dazu wurden u.a. die verschiedensten Sprechvarianten von Phonemen aufgenommen und jeweils in der Mitte halbiert.

Sprachkonserven
Am primitivsten funktioniert Sprachsynthese, wenn ganze Wörter oder Teilsätze als akustische Sprachkonserven nacheinander ausgegeben werden.

Dies funktioniert für eingeschränkte Anwendungsgebiete: "Jetzt. Bitte. Rechts. Abbiegen."

Beispiel 9.1.12 (Ein Problem der Sprachkonserven).

Speech Synthesis Markup Language (SSML)
Dieser XML-Standard erlaubt eine strukturierte Spezifikation von verschiedenen Parametern einer Speech-Applikation.

<p>  
  <s xml:lang="en-US">  
    <voice name="David" gender="male" age="25">  
      For English, press <emphasis>one</emphasis>.  
    </voice>  
  </s>  
  <s xml:lang="es-MX">  
    <voice name="Miguel" gender="male" age="25">  
      Para español, oprima el <emphasis>dos</emphasis>.  
    </voice>  
  </s>  
</p>

http://www.w3.org/TR/2004/REC-speech-synthesis-20040907/