[
Weiter
] [
Seitenende
] [
Überkapitel
]
Inhaltsverzeichnis
1
Organisatorisches
1.1
Organisatorisches
1.1.1
Leistungsnachweis
1.1.2
Lernen und Lehren
1.2
Kontrollfragen
2
Was ist CL?
2.1
Motivation
2.2
Fachrichtungen
2.2.1
Computerlinguistik
2.2.2
Sprachtechnologie
2.2.3
Weiteres
2.2.4
Anliegen
2.3
Nachbardisziplinen
2.3.1
Linguistik
2.3.2
Kognitionswissenschaft
2.4
Krux
2.5
Vertiefung
2.5.1
Kontrollfragen
3
Tokenisierung
3.1
Tokenisierer
3.1.1
Grundproblem
3.1.2
Kodierung
3.1.3
Markup
3.1.4
Programme
3.2
XML
3.3
Tokenisierung
3.3.1
Problem
3.3.2
Punktdisambiguierung
3.3.3
Normalisierung
3.3.4
NER
3.4
Multilingualität
3.5
Vertiefung
3.5.1
Kontrollfragen
4
Endliche Automaten (Intensiv-Wochenende)
4.1
Formale Sprachen
4.1.1
Mengen
4.1.2
Zeichen
4.1.3
Sprachen
4.2
EA
4.2.1
Determinismus
4.2.2
Konkatenation
4.3
Reguläre Sprachen/Ausdrücke
4.4
Ausblick
5
Chunk-Parsing (Intensiv-Wochenende)
5.1
Chunking
5.1.1
Motivation
5.2
NLTK-Chunkparser
5.2.1
Aufstarten
5.2.2
Strategien
5.3
Evaluationsmasse
5.3.1
Recall
5.3.2
Precision
5.3.3
F-Measure
5.4
Fazit
5.4.1
Verschachtelte Chunks
6
Linguistisches Propädeutikum I
6.1
Wort
6.1.1
Definition
6.1.2
Token
6.1.3
Wortform
6.1.4
synt. Wort
6.1.5
Lexem
6.2
Wortarten
6.2.1
5 Hauptwortarten nach Glinz
6.2.2
STTS
6.3
Merkmale
6.3.1
Genus
6.3.2
Zahl
6.3.3
Kasus
6.3.4
Modus
6.3.5
Zeit
6.3.6
Person
6.3.7
Grad
6.3.8
Flexion
6.4
Proben
6.4.1
Ersetzen
6.4.2
Einsetzen
6.5
Comp. Morph.
6.5.1
Lemmatisierung/Morphologieanalyse
6.5.2
Morphologiegenerierung
6.6
Vertiefung
6.6.1
Kontrollfragen
7
Linguistisches Propädeutikum II
7.1
Proben
7.1.1
Weglassen
7.1.2
Verschieben
7.1.3
Umformen
7.2
Satz
7.3
Syntaxanalyse
7.3.1
Konstituenz
7.3.2
Köpfe
7.3.3
Dependenz
7.3.4
Koordination
7.4
Baumbanken
7.4.1
NEGRA/TIGER
7.4.2
TIGERSearch
7.5
Vertiefung
8
Flache Satzverarbeitung
8.1
Tagging
8.1.1
Probleme
8.1.2
Fallstudie TnT-Tagger
8.2
Evaluation
8.2.1
Zweck
8.2.2
Accuracy
8.2.3
Lernkurven
8.2.4
Recall
8.2.5
Precision
8.2.6
F-Measure
8.3
Chunking
8.3.1
Abney
8.3.2
IOB-Chunk
8.3.3
Verschachtelte Chunks
8.4
Vertiefung
8.4.1
Kontrollfragen
8.5
Exkurs: Evaluation binärer Klassifikatoren
8.5.1
TP:FP:FN:TN
8.5.2
Fehlerparadoxe
8.5.3
Unterschiede
8.5.4
Mittelwerte
8.5.5
Vertiefung
9
Sprachsynthese und Spracherkennung
9.1
Sprachsynthese
9.1.1
Architektur
9.1.2
Analyseebenen
9.1.3
Sprachsignalproduktion
9.2
Spracherkennung
9.2.1
Probleme
9.2.2
Worthypothesengraph
9.2.3
Wortfehlerrate
9.3
Dialogsysteme
9.3.1
Typen
9.3.2
VoiceXML
9.4
Vertiefung
10
Volltextsuche und Text Mining
10.1
Informationsflut
10.1.1
Suchdilemma
10.2
Volltextsuche
10.2.1
Indexieren
10.2.2
Architektur
10.2.3
Retrieval
10.2.4
Relevanz
10.3
Text-Mining
10.4
Vertiefung
11
Literaturverzeichnis
[
Weiter
] [
Seitenbeginn
] [
Überkapitel
]