Patrick Hanks: Lexical Analysis. Norms and Exploitations

Der britische Lexikograf und Linguist Patrick Hanks [1] hat mit seinem Buch Lexical Analysis den neusten Stand seiner Überlegungen zu einem Pattern Dictionary of English Verbs (PDEV) dokumentiert und gleichzeitig seine Entwicklungen der letzten Jahre zusammengefasst [2]. Seine grundsätzlichen Überlegungen zu den Möglichkeiten und Grenzen der lexikalischen Analyse mit den heute zur Verfügung stehenden technischen Mitteln, wie er sie im ersten Kapitel zusammenfasst, sind auch für die Entwicklung des JAKOB-Lexikons massgebend [5]. Im Folgenden fasse ich den programmatischen Inhalt des ersten Kapitels zusammen. 

Die Hauptfrage, zu der Hanks seine Ideen entwickelt und Erklärungsansätze aufzeigt, lautet: Wie brauchen wir Wörter, um Bedeutung zu generieren? (Original: „How do people use words to make meanings?“).

Neue Grundlagen

Wie in all seinen bisherigen Publikationen entwickelt und beschreibt Patrick Hanks seinen lexikonbasierten und korpusgesteuerten Ansatz, der erklärt, wie Wörter mit ihrem empirisch feststellbaren Kontext Kollokationsmuster und Konstruktionen bilden, die Bedeutung entstehen lassen. Dieses Vorgehen ist erst seit einigen Jahren möglich, seit durch das Internet und die elektronischen Medien grosse Textmengen verfügbar sind, und weil es heute mit leistungsfähigen Computersystemen möglich ist, grosse Korpora auszuwerten. Auf diesem Hintergrund plädiert Hanks für eine neue Sicht auf die theoretischen Grundlagen für die computergestützte Analyse des Zustandekommens von Bedeutung in der Sprache („computation of meaning in ordinary language“).

Empirische Evidenz und Authentizität

Hanks postuliert, dass die Bedeutungsbeschreibung in den Kollokationsmustern streng auf Evidenz basieren muss, d.h. es muss aufgezeigt werden, dass die dokumentierten Satzmuster tatsächlich in Alltagstexten authentisch verwendet werden (Die Evidenz kommt sowohl durch schriftliche Texte als auch durch Gespräche zustande. Für die maschinelle Analyse von Gesprächen müssen Gespräche jedoch aufgezeichnet und transkribiert werden, beides aufwendige Prozeduren). Authentizität ergibt sich mit Material aus realen Korpora (im Gegensatz zu erfundenen Beispielsätzen); Evidenz wird abgeleitet aus der Häufigkeit des Vorkommens der Kollokationsmuster in Verbindung mit syntaktischen Abhängigkeiten in grossen Textkorpora.

Konventionalität

Der Nachweis des Authentizität reicht aber nicht aus; es braucht ebenso eine Evidenz der Konventionalität. Die der Analyse zugrunde liegenden Textkorpora müssen deshalb über eine Mindestgrösse verfügen, um häufige und damit konventionelle Kollokations- und Satzmuster von seltenen oder einmaligen Exemplaren unterscheiden zu können. Die Suche nach häufig vorkommenden Mustern des Sprachgebrauchs in verschiedenen Text- und Gesprächssorten ist eine soziolinguistische Aufgabe, die die Konventionen offenlegt.

Im Unterschied zu den Ansichten der generativen Linguistik, die dem Sprachgebrauch prinzipiell alle möglichen Wortkombinationen zubilligt („all possible meanings and all possible sentences“), muss man gemäss Hanks das Normale und das Mögliche unterscheiden. Der normale Sprachgebrauch (wie er sich als Konvention zeigt) ist in der Regel weit entfernt von der unbeschränkten Kombinierbarkeit der Wörter und damit zahlenmässig eher überblickbar („normal vs. abnormal linguistic usage“).

Die Konventionalität ist aber graduell, d.h. es gibt aus naheliegenden Gründen keine scharfe Grenze zwischen konventionellem und unkonventionellem Sprachgebrauch (Prototypentheorie). Hanks unterscheidet bei der Korpusanalyse die kognitiv salienten Beispielsätze, die durch ihre Ungewohntheit im Gedächtnis haften bleiben, von den sozial salienten Beispielmustern, die infolge ihrer Häufigkeit unscheinbar werden (cognitively salient vs. socially salient). Die Häufigkeit des Gebrauchs von Kollokationsmustern in verschiedenen Kontexten kann mit modernen Korpusanalysetools, wie z.B. der Sketch Engine [4] festgestellt werden. Bei der lexikalischen Korpusanalyse geht es zuerst darum, den normalen und deshalb typischen Sprachgebrauch zu identifizieren. In einem zweiten Schritt kann der unübliche und vom Typischen abweichende Sprachgebrauch als linguistische Kreativität bezeichnet werden (Exploitation, siehe nachstehend).

Theory of Norms and Exploitations (TNE)

Die authentische aber unübliche Verwendung von Kollokations- und Satzmustern ist oft das Resultat von bewusster kreativer Erweiterung der konventionellen Muster. Hanks Theorie der Norms and Exploitations drückt genau das aus: es gibt regelbasierte Normen für die Verwendung eins Wortes, und es gibt die Möglichkeit, diese Normen auf verschiedene Arten zu überschreiten und auszuweiten. Beispiele von Exploitations sind Vergleiche und Metaphern, mit deren Hilfe bestimmte Aspekte der üblichen Bedeutung eines Begriffes unterdrückt werden, andere hervorgehoben.

Fazit: Für die lexikalische Analyse braucht es eine lexikonbasierte, korpusgesteuerte  Herangehensweise: Die Evidenz von Sprachgebrauchsmustern im tatsächlichen alltäglichen Sprachgebrauch.

[1] Homepage von Patrick Hanks

[2] Hanks, Patrick. (2013). Lexical analysis. Norms and exploitations. Cambridge, Mass: MIT Press.

[3] Pattern Dictionary of Englisch Verbs (PDEV)

[4] Sketch Engine

[5] Diesbezügliche Ziele für die Verwendung des Lexikons, grosszügig formuliert:
„Texte paraphrasieren durch die Verwendung von passenden Synonymen oder durch die alternative Verwendung von semantischen Typen (Kategorien im Lexikon). Anders ausgedrückt: Textverstehen ist bis zu einem gewissen Grade auf dem Hintergrund des Lexikons möglich.“

Mehr zum JAKOB-Lexikon

Das JAKOB-Lexikon online

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert