Unbeschränkte Abhängigkeiten, Dependenzgrammatik, Funktionalismus

Dozent: Gerold Schneider

Übersicht

Unbeschränkte Abhängigkeiten

Natürliche Sprache lässt sich aus zwei Gründen nur sehr schwer durch reguläre Sprachen beschreiben:

Nicht-lokale Bedingungen

Eine nicht-lokale Bedingung erstreckt sich über mehrere PSG-Regeln. Ein Beispiel stellt die VL (Verb-last) Stellung in deutschen Sätzen dar.

VP(typ:matrix) -> V(subcat:sent), S(typ:subord) % hier kommt subord-Info her
S(typ:Anytpe)  -> NP AUX VP(typ:Anytype)
VP(typ:subord) -> NP V(subcat:obj) % erst hier führt subord-Info zu VL-Stellung

Mithilfe von Argumenten (kontextfrei) oder Merkmal-Wert-Paaren (kontextsensitiv), die über mehrere Regeln weitergegeben werden, lassen sich die nicht-lokalen Bedingungen behandeln.

Der Wert des Arguments/Merkmals stellt dabei eine Art von Kommunikation zwischen den miteinander in einer unbeschränkten Abhängigkeit stehenden Elementen her.

Zu deren Behandlung brauchen wir auch keine leeren Elemente.

Diskontinuität

Wesentlich schwieriger wird es aber, wenn wir mit überkreuzenden Abhängigkeiten zu tun haben (auch diskontinuierliche Elemente genannt). Diese kann man nämlich nur in kontextsensitiven Grammatiken beschreiben. Zu ihrer Darstellung vewendet man überkreuzende Baumdarstellungen.

(1) Stefan scratched himself. (semantische Überkreuzung1)
 
             S
            / \
          NP   VP
          |    / \
      Stefan1 V   NP
             |    |
       scratched himself1
 
(2) Who did John believe Mary saw? 
   (kontinuierlich in GB, nur dank Transformationen, siehe später)
 
(3) Stefan stellt uns seinen Freund aus Kindertagen,
    den er 15 Jahre nicht gesehen hatte, vor.

Diskontinuität und Funktionalismus

Es gibt nur wenige als echt kontextsensitiv anerkannte Strukuren. Im Vorlesungsskript ECL I (Unterkapitel 4.2.5.1.2) steht da zu lesen:

"...im Zürichdeutschen gibt es Beispiele, welche offenbar unangreifbar sind (und die offenbar die einzigen beweisbar kontextsensitiven Konstruktionen sind, die man bisher gefunden hat!):

                    ---------------
                    |             |
            ---------------       |
            |       |     |       |
ich glaub   |       |     |       |
das mer am Hans s'Huus hälfed aaschtriiche "

Es gibt aber unzählige Beispiele für Konstruktionen, die sich nur dann kontextfrei erklären lassen, wenn wir Transformationen verwenden. Der Beispielsatz

(2) Who did John believe Mary saw?

soll dabei nicht irgendeine beliebige Sysntaxstruktur erhalten, sondern eine, die dem des funktional verwandten Aussagesatzes

(2a) John did believe Mary saw who

möglichst ähnlich sein soll. Dies ist die zentrale Forderung des Funktionalismus (Functionalism). Die Struktur von (2a) könnte etwa so aussehen (hier im TG Stil, aber das spielt keine Rolle für diese Diskussion):

Das GB "structure-preserving" Prinzip befolgt die Forderung des Funktionalismus, indem es verwandten Sätzen dieselbe grundlegende Struktur zuordnet. Verwenden wir dieselbe Struktur für (2a) und (2), so erhalten wir:

Diese Struktur ist zwar engst verwandt mit dem Aussagesatz oder der Tiefenstruktur, aber stark diskontinuierlich, was nur in einer kontextsensitiven Sprache ausgedrückt werden kann. In kontextfreien Sprachen lassen sich nur kontinierliche Grammatiken beschreiben.

Diskontinuierliche Abhängigkeiten in kontinuierlichen Grammatiken

Bussmann(1990) schreibt über 'Diskontinuierliche Elemente (D.E.)':

Zusammengehörige sprachliche Elemente, deren lineare Aufeinanderfolge durch dazwischen stehende andere Elemente 'unterbrochen' ist, z.B. ... er ist schnell gelaufen, wo der Verbalkomplex ist gelaufen durch das Adverb schnell unterbrochen wird. Die Darstellung von D.E. durch Phrasenstrukturregeln bietet Schwierigkeiten, da durch Phrasenstrukturregeln nur benachbarte Konstituenten in höhere Konstituenten zusammengefasst werden können. Bei Abbildung von D.E. durch Strukturbäume entstünden überkreuzungen von Zweigen, die formal ausgeschlossen sind, z.B.

(4)
    S
  /   \
 NP     VP
 |    /   \ 
Pron  V   Adv
 |    +----------Part.Perf
 |    |    |        |
 |   Aux   |        |
 |    |    |        |
Er  ist  schnell gelaufen

Diese Probleme versucht man in modernen Grammatiktheorien durch den Transport syntaktischer Merkmale im Syntaxbaum in den Griff zu bekommen.

Angelehnt an Bussmann(1990):

Dies hat mit dazu geführt, dass bei der syntaktischen Ableitung von Tiefenstrukturen ausgegangen wurde, in denen die Diskontinuierlichkeit beseitigt ist, d.h. ... also die Endstellung des Verbs, als zugrundeliegend angesetzt wird:

weil           [er schnell gelaufen ist]

Der Complementizer weil im C0 blockiert die Verb-Bewegung ins C0 bei der überführung dieser Tiefenstruktur in die gleichlautende Oberflächenstruktur.

Ist jedoch C0 leer (also haben wir einen Hauptsatz), so wird die Oberflächenstruktur aus der Tiefenstruktur durch zwei Transformationen gewonnen, nämlich

(1) der Voranstellung des kongruierenden Verbs (zum C0)

          ist1 [er schnell gelaufen _t1]

(2) der Topikalisierung eines beliebigen Satzgliedes (zum CP-Spec):

schnell2  ist1 [er  _t2     gelaufen _t1]
er2       ist1 [_t2 schnell gelaufen _t1]
gelaufen2 ist1 [er  schnell _t2 _t1]

Ein Complementizer im C0 blockiert die Verb-Bewegung ins C0:

dass       [er  schnell gelaufen ist]

Wie im obigen Beispiel durch Transformation beschrieben, können diskontinuierliche Abhängigkeiten nur durch die Postulierung leerer Positionen in kontinuierlichen Grammatiken beschrieben werden. Dabei wird jede leere Position mit der ihr entsprechenden 'gefüllten' Position 'verbunden', sei es durch eine Transformation (die ein Trace hinterlässt) oder irgendeiner anderen Form der Koindexierung.

Lückenfädeln (Gap-Threading)

Gap-Threading ist eine elegante Prologmethode um zu kontrollieren, dass fehlende Konstituenten an den passenden Stellen am Anfang des Satzes vorhanden sind, also korrekt angehoben wurden. Wir werden ein Beispiel besprechen.

Das SLASH-Merkmal aus GPSG und HPSG

Das SLASH-Merkmal bewerkstelligt genau dasselbe: Es sorgt dafür, dass in Teilbäumen noch ungesättigte Valenzen zu einem späteren Zeitpunkt gebunden werden. Z.B. im Satz

Bananas1, I like _t1 

fehlt das Objekt in der VP. Die VP ist also eine VP mit einer mangelnden Objekts-NP. In Anlehnung an Categorial Grammar, in welcher ungesättigte Valenzen durch einen Slash (/ oder \) dargestellt werden, enthält die unvollständige VP im Merkmal SLASH den Wert der ungesättigten Valenz, also NP. Die überschüssige NP am Satzanfang muss mit dem VP-SLASH-Wert unifizierbar sein -> dann ist der Satz vollständig.

Konfigurationalismus und Funktionalismus

GB ist eine streng konfigurational orientierte Theorie, d.h. die Struktur des Satzes ist grundlegend. Die Sruktur des Satzes macht aber keine direkte Aussage über die Funktion der Satzelemente in der Struktur. Unter Funktion versteht man Dinge wie:

Schlagen wir eine traditionelle Grammatik wie den Duden oder Quirk et al. (1985) auf, so fällt auf, dass funktionale Erwägungen in ihnen eine viel grössere Rolle spielen als in GB.

Die Abbildung von strukturellen Eigenschaften auf funktionale ist häufig nicht eindeutig. Z.B. die einfache TG Annahme, dass das Subjekt die direkt von S dominierte NP sei, trifft häufig nicht zu:

Die Frau habe ich gesehen

Andererseits erlauben gerade in wenig flektierenden Sprachen wie Englisch (keine Kasusmarkierung) häufig nur strukturale Relationen die Festlegung der Satzfunktion

Dependenzgrammatik (DG) als eine funktionale Theorie

In der Dependenzgrammatik ist die Grundlage der Theorie die Beziehung zwischen Köpfen (Governor, Regens) und Abhängigen (Dependent). Ein Kopf subkategorisiert für einen Abhängigen (Valenz). Wie in den immer lexikalischeren modernen Grammatiken allgemein zunehmend üblicher subkategorisieren nicht nur Verben, sondern alle Wortklassen.

Es ist nicht immer klar, welches Wort von zwei in einer Dependenzbeziehung stehenden Worten der Kopf sei. Folgt man z.B. bei Präpositionalphrasen der GB Auffassung, so ist P der Kopf. In einer funktionalen DG Auffassung hingegen ist der Nomen der Kopf und die Präposition der Dependens. Der Vorteil dieser Auffassung ist die ähnliche Behandlung von PPs und NPs (in stark flektierenden Sprachen werden viele englische oder deutsche PPs zu kasusmarkierten NPs übersetzt).

Dependenzgrammatik kennt nur lexikalische, keine übergeordnete Knoten. Phrasen lassen sich aber dennoch ableiten, auch wenn sie kein Primitivum der Theorie darstellen.

Einführung in die DG

An dieser Stelle empfiehlt sich die Lektüre einer kurzen Einführung in die DG, wie beispielsweise mein Vortrag an der Studententagung TaCoS: "Einführung in die DG", als externes Word-File zum Herunterladen.

DG is essentially a valency grammar in which the valency concept is extended from verbs to nouns and adjectives and finally to all word classes. E.g. on the syntactic dependency level, predicative adjectives can open valencies for verbs (e.g. ready to go ), or prepositions open valencies for nouns. Tesnière's original dependency concept (Tesniere:1959) aims to be more than a syntactic theory, but a proto-semantic language-independ ent one. Configurational considerations play at most a secondary role. He distinguishes between the ordre linéaire of the running text and the ordre structurale which is expressed by a dependency structure. Such a dependency structure is a syntactic deep structure, much like d-structure in GB or f-strucutre in LFG.

As word order plays no primary role, dependencies between words may also cross each other. Dependency structures without crossing dependencies and constituent structures without crossing trees are called projective or continuous, while crossing dependency structures or crossing trees are called non-projective or discontinu ous. No extensions to the original DG conception of Tesnière are needed to express non-projectivity.

Since valency is extended to all word-classes in dependency theory, any dependency structure is a coherent hierarchical structure of a whole sentence. Even if constituents are not a primitive of the theory, they can easily and consistently be derived by recursively collecting all the dependents and subdependents of a head.

Äquivalenz von Konstituenz und Dependenz

Abgesehen von der funktionalen Orientierung haben sich heute Dependenz- und Konstituenztheorie weitgehend angenähert. Es wird diskutiert, ob sich Strukturen dieser beiden Paradigmen nicht gegenseitig ineinander überfüren lassen. Hays (1964) and Gaifman (1965) have in fact proved that (at least a version of) DG is weakly equivalent to a context-free constituency grammar (CFG), and even strongly equivalent to a CFG without intermediate categories (Baumgaertner:1970)

Flache DG Strukturen

Es hat sich gezeigt (Covington 1994), dass der einzige prinzipielle Unterschied DG und Konstituentengrammatik darin besteht, dass sich in DG keine Zwischenkategorien ausdrücken lassen (X-single-bar).

Getypte Dependenzen

There is only one crucial problem one has to address if one converts such a DG to constituency. If a governor A has more than one dependent, say a dependent B to the left and a dependent C to the right, one cannot know if the corresponding constituent structure should be the flat structure [B,A,C] or the left-first-attachment structure [[B,A],C] or the right-first-attachment structure [B,[A,C]] .

Covington (1994) shows that link labels can be consistently used to decide among these three possibilities, and that such a decided version of DG is strongly equivalent to X-bar syntax.

Ist DG diskontinuierlich?

While the above proofs are mathematically correct, they only apply to projective DGs. They neglect that at least TesniËre's original approach is completely non-configurational, i.e. word position is not primarily taken into consideration. Tesnière's DG has free word-order and is inherently non-projective.

X-bar und semantische Nähe

X-bar Theorie erlaubt es, zwischen semantisch nähergelegenen Konstituenten (Complements) und weiter entfernten (Adjuncts) zu unterscheiden. NPs wie

fresh white table wine

werfen aber die Frage auf, ob bloss zwei unterscheidbare Ebenen genug seien, da alle drei modifizierenden Adjektive nur in dieser Reihenfolge stehen, also nicht permutiert werden dürften, was sich nur in einer mindestens dreistufigen Bar-Ebene fordern liesse. Sollte man X-bar nicht eher durch ein Konzept der semantischen Nähe ablösen?


Gerold Schneider <gschneid@ifi.unizh.ch>
Date of last modification: December 4, 1999
URL dieser Seite: http://www.ifi.unizh.ch/CL/gschneid/SyntaxVorlesung/Vorl6.DG.html