Inhaltsverzeichnis

1  Organisatorisches
 1.1  Organisatorisches
  1.1.1  Leistungsnachweis
  1.1.2  Lernen und Lehren
 1.2  Kontrollfragen
2  Was ist CL?
 2.1  Motivation
 2.2  Fachrichtungen
  2.2.1  Computerlinguistik
  2.2.2  Sprachtechnologie
  2.2.3  Weiteres
  2.2.4  Anliegen
 2.3  Nachbardisziplinen
  2.3.1  Linguistik
  2.3.2  Kognitionswissenschaft
 2.4  Krux
 2.5  Vertiefung
  2.5.1  Kontrollfragen
3  Tokenisierung
 3.1  Tokenisierer
  3.1.1  Grundproblem
  3.1.2  Kodierung
  3.1.3  Markup
  3.1.4  Programme
 3.2  XML
 3.3  Tokenisierung
  3.3.1  Problem
  3.3.2  Punktdisambiguierung
  3.3.3  Normalisierung
  3.3.4  NER
 3.4  Multilingualität
 3.5  Vertiefung
  3.5.1  Kontrollfragen
4  Endliche Automaten (Intensiv-Wochenende)
 4.1  Formale Sprachen
  4.1.1  Mengen
  4.1.2  Zeichen
  4.1.3  Sprachen
 4.2  EA
  4.2.1  Determinismus
  4.2.2  Konkatenation
 4.3  Reguläre Sprachen/Ausdrücke
 4.4  Ausblick
5  Chunk-Parsing (Intensiv-Wochenende)
 5.1  Chunking
  5.1.1  Motivation
 5.2  NLTK-Chunkparser
  5.2.1  Aufstarten
  5.2.2  Strategien
 5.3  Evaluationsmasse
  5.3.1  Recall
  5.3.2  Precision
  5.3.3  F-Measure
 5.4  Fazit
  5.4.1  Verschachtelte Chunks
6  Linguistisches Propädeutikum I
 6.1  Wort
  6.1.1  Definition
  6.1.2  Token
  6.1.3  Wortform
  6.1.4  synt. Wort
  6.1.5  Lexem
 6.2  Wortarten
  6.2.1  5 Hauptwortarten nach Glinz
  6.2.2  STTS
 6.3  Merkmale
  6.3.1  Genus
  6.3.2  Zahl
  6.3.3  Kasus
  6.3.4  Modus
  6.3.5  Zeit
  6.3.6  Person
  6.3.7  Grad
  6.3.8  Flexion
 6.4  Proben
  6.4.1  Ersetzen
  6.4.2  Einsetzen
 6.5  Comp. Morph.
  6.5.1  Lemmatisierung/Morphologieanalyse
  6.5.2  Morphologiegenerierung
 6.6  Vertiefung
  6.6.1  Kontrollfragen
7  Linguistisches Propädeutikum II
 7.1  Proben
  7.1.1  Weglassen
  7.1.2  Verschieben
  7.1.3  Umformen
 7.2  Satz
 7.3  Syntaxanalyse
  7.3.1  Konstituenz
  7.3.2  Köpfe
  7.3.3  Dependenz
  7.3.4  Koordination
 7.4  Baumbanken
  7.4.1  NEGRA/TIGER
  7.4.2  TIGERSearch
 7.5  Vertiefung
8  Flache Satzverarbeitung
 8.1  Tagging
  8.1.1  Probleme
  8.1.2  Fallstudie TnT-Tagger
 8.2  Evaluation
  8.2.1  Zweck
  8.2.2  Accuracy
  8.2.3  Lernkurven
  8.2.4  Recall
  8.2.5  Precision
  8.2.6  F-Measure
 8.3  Chunking
  8.3.1  Abney
  8.3.2  IOB-Chunk
  8.3.3  Verschachtelte Chunks
 8.4  Vertiefung
  8.4.1  Kontrollfragen
 8.5  Exkurs: Evaluation binärer Klassifikatoren
  8.5.1  TP:FP:FN:TN
  8.5.2  Fehlerparadoxe
  8.5.3  Unterschiede
  8.5.4  Mittelwerte
  8.5.5  Vertiefung
9  Sprachsynthese und Spracherkennung
 9.1  Sprachsynthese
  9.1.1  Architektur
  9.1.2  Analyseebenen
  9.1.3  Sprachsignalproduktion
 9.2  Spracherkennung
  9.2.1  Probleme
  9.2.2  Worthypothesengraph
  9.2.3  Wortfehlerrate
 9.3  Dialogsysteme
  9.3.1  Typen
  9.3.2  VoiceXML
 9.4  Vertiefung
10  Volltextsuche und Text Mining
 10.1  Informationsflut
  10.1.1  Suchdilemma
 10.2  Volltextsuche
  10.2.1  Indexieren
  10.2.2  Architektur
  10.2.3  Retrieval
  10.2.4  Relevanz
 10.3  Text-Mining
 10.4  Vertiefung
11  Literaturverzeichnis