Christian Riepl

WIE WIRD LITERATUR BERECHENBAR?
EIN MODELL ZUR RECHNERGESTüTZTEN ANALYSE
ALTHEBRäISCHER TEXTE

ZUSAMMENFASSUNG

Der Einsatz des Rechners in geisteswissenschaftlichen Disziplinen erweist sich im Bereich klassischer und altorientalischer Philologie auf dem Gebiet der rechnergestützten Analyse alter Sprachen, ferner davon ausgehend der rechnergestützten Analyse literarischer Werke als äußerst forschungsintensiv, sowohl für Philologen als auch für Informatiker. Sind einmal Textdaten im Rechner verfügbar und liegt ein anhand eines repräsentativen Textkorpus gewonnenes Regelwerk vor, wecken Problemstellungen, die sich aus den anfallenden großen Datenmengen und den darauf anzuwendenden komplexen Regeln ergeben, das Forschungsinteresse der Informatiker mit den Schwerpunkten ›Logikprogrammierung‹, ›Deduktive Datenbanken‹ und ›Informationssysteme‹. Wie fruchtbar die Zusammenarbeit von Philologen und Informatikern sein kann, zeigt das Projekt »Biblia Hebraica transcripta«.

1986 haben Wolfgang Richter und seine Mitarbeiter am Lehrstuhl für ugaritische und hebräische Sprach- und Literaturwissenschaft des Instituts für Assyriologie und Hethitologie der Ludwig-Maximilians-Universität München begonnen, den Text der Handschrift B 19A der Öffentlichen Bibliothek von St. Petersburg nach der Edition der Biblia Hebraica Stuttgartensia objektsprachlich zu transkribieren und in den Rechner einzutippen. Die Eingabe des gesamten alttestamentlichen Textkorpus ist seit 1990 abgeschlossen. Eine erste Auflage der Texte ist veröffentlicht. Der Publikation in Buchform sind als elektronische Ausgaben mittlerweile überarbeitete Auflagen gefolgt.

Bereits während der Texteingabe sind in Zusammenarbeit mit dem Lehrstuhl Prof. Rudolf Bayer Ph.D., Forschungs- und Lehreinheit Informatik III der Fakultät für Informatik der Technischen Universität München Programme zur Analyse der althebräischen Sprache entwickelt worden: »Salomo« zur Analyse der Morphologie und »Amos« zur Analyse der Morphosyntax. Beide Expertensysteme sind erfolgreich auf das gesamte Alte Testament angewendet worden; die Arbeit mit Salomo ist 1993, die Arbeit mit Amos 1995 abgeschlossen worden. Nachdem auch die Analyse der Eigennamen des Alten Testaments erfolgt ist, konzentriert sich die Forschung auf folgende Schwerpunkte: Korrektur der morphologischen und morphosyntaktischen Daten, Entwurf eines Systems zur semantischen und satzsyntaktischen Analyse.

Alle Analyseergebnisse werden von der Datenbank »Biblia Hebraica transcripta DatenBank« verwaltet, deren Konzept und Schema seit 1993 von Christian Riepl erstellt werden. Zur Verwaltung der Ergebnisse der morphosyntaktischen und syntaktischen Analyse ist von Hans Argenton am Wilhelm-Schickard-Institut für Informatik, Arbeitsbereich Datenbanken, Prof. Dr. Ulrich Güntzer, das Informationssystem »Venona« entwickelt worden. Das multimediale Datenbanksystem MultiBHT, 1995 vorgestellt von Günther Specht wird derzeit im Rahmen eines vom DFN geförderten Projekts um einen WWW-Zugang erweitert. Es vermag sämtliche Daten der Editionen, Transkriptionen, Versionen sowie die Ergebnisse der sprachlichen Analyse zu integrieren und bildet erstmals die Grundlage für ein vollständiges Lexikon samt Konkordanz und Grammatik der althebräischen Sprache. Dem Literaturwissenschaftler wird die Möglichkeit geboten, auf die grammatisch, semantisch und lexikalisch erschlossenen Daten eines Textes zuzugreifen, um diese unter literaturwissenschaftlichen Gesichtspunkten auszuwerten und die Ergebnisse der literaturwissenschaftlichen Analyse in die Wissensbasis einzubeziehen. Die rechnergestützte Verfahrensweise ist eingebunden in eine literatur- und sprachwissenschaftlich begründete Methodik, besitzt Modellcharakter und ist übertragbar auf andere Sprachen und Literaturen.

WIE WIR AUF DEN RECHNER KAMEN

Das 1986 von Wolfgang Richter initiierte Projekt »Biblia Hebraica transcripta« hat mit den Arbeiten zur objektsprachlichen Transkription der Texte des Alten Testaments und deren Eingabe in den Rechner begonnen. Daran haben sich in den folgenden Jahren bis heute die Entwicklung von Analyseprogrammen, Informationssystemen und der Entwurf eines Datenbankschemas zur Verwaltung der Analyseergebnisse angeschlossen. Der Einsatz informatischer Technologien zur Analyse der althebräischen Sprache wäre aber nicht möglich gewesen, ohne die zahlreichen Untersuchungen, die von Richter und der von ihm begründeten ›Münchener Schule‹ seit Beginn der 70er Jahre geleistet worden sind. Die exakten literatur- und sprachwissenschaftlichen Beobachtungen zu althebräischen Texten und die daraus gefolgerten methodischen Erkenntnisse haben schon in dieser Forschungsperiode die Basis für eine rechnergestützte Arbeitsweise gelegt, also lange bevor man an eine Zusammenarbeit mit der Informatik zu denken gewagt hat. Zur Geschichte der literaturwissenschaftlichen Forschungsrichtung am Alten Testament von 1971 bis 1989 sei verwiesen auf Seidl.[1] Der Überblick wird ergänzt durch eine skizzenhafte Darstellung der innerhalb dieses Ansatzes entwickelten rechnergestützten Methoden in der Althebraistik von 1986 bis Anfang 1995 bei Riepl.[2] Bevor wir uns der Problematik der Berechenbarkeit von Sprache und Literatur zuwenden, sei in den folgenden Punkten noch einmal knapp auf die forschungsgeschichtlichen Voraussetzungen eingegangen:

• Gegenstand

• Alttestamentliche Literaturwissenschaft

• Althebräische Sprachwissenschaft

• Anwendungen und Weiterentwicklungen

• Voraussetzungen zum Einsatz des Rechners

GEGENSTAND

Die alttestamentliche Literatur- und Sprachwissenschaft hat Literatursprache, Sprache in schriftlich tradierten Texten, zum Gegenstand. Einige ihrer wichtigsten Besonderheiten seien knapp zusammengestellt:

• Die Texte liegen in einer alten/toten Sprache vor, die nicht mehr von einem kompetenten Sprecher gesprochen wird.

• Die Texte enthalten meist keine expliziten Angaben zu Autor oder Redaktor, Ort und Zeit der Verfassung oder Redaktion. Eine genaue Datierung und Situierung der Texte ist daher oft ausgeschlossen. Damit ist auch der geistesgeschichtliche Hintergrund, auf dem die Texte entstanden sind, nicht mehr unmittelbar zugänglich.

• Der Traditionsweg der Texte ist sehr lange und vielfältig. Es existieren keine Orginalquellen, wohl aber Abschriften und Übersetzungen verschiedener Schulen. Die Qualität des Textbestandes ist teilweise sehr schlecht.

• Textproduktion und Texttradition fanden jeweils auf mehreren unterschiedlichen Sprachstufen statt. Die einzelnen Sprachstufen sind zeitlich nicht genau bestimmbar, die Grenzen fließend.

• Die Schrift unterscheidet nicht zwischen Groß- und Kleinschreibung. Es gibt keine Interpunktionszeichen.

• Die Sprache weist einige Besonderheiten auf, die die Isolierung sprachlicher Strukturen erschweren: Da das Althebräische zum Beispiel keine Kasusbildung kennt, fehlt ein wesentliches Kriterium zur Bestimmung von Satzgliedern und Sätzen.

Auf vieles, was uns in der gegenwärtigen deutschen Sprache, Schrift und Literatur selbstverständlich erscheint, und was die Analyse und Interpretation alttestamentlicher Texte erleichtern würde, muß verzichtet werden. All dies hat Folgen für die Methoden, mit deren Hilfe sich der Wissenschaftler dem Gegenstand nähert. Eine unmittelbare Übernahme von Erkenntnissen und Analyseverfahren, die aus der wissenschaftlichen Auseinandersetzung mit gegenwärtigen Sprachen und Literaturen gewonnen werden, ist nicht ohne weiteres und für alle Stadien der Analyse zulässig. Die Bedeutung von Wörtern und Sätzen, letztlich der gesamte Inhalt eines Textes mit seinem geistigen, sozialen und kulturellen Umfeld sind nicht unmittelbar gegeben, sondern müssen erst mit Hilfe der sprachlichen und literarischen Analyse erschlossen werden. Das vorwissenschaftliche Verständnis der Texte, das uns meist durch Übersetzungen vermittelt wird und aus Erziehung und Bildung bekannt ist, ist mit wissenschaftlichen Methoden zu prüfen. Dabei sind die methodischen Verfahren und die Voraussetzungen aus Literatur- und Grammatiktheorie, auf denen sie basieren, darzulegen sowie Entscheidungen und Ergebnisse nachvollziehbar darzustellen.

ALTTESTAMENTLICHE LITERATURWISSENSCHAFT

Das Interesse der alttestamentlichen Literaturwissenschaft richtet sich also auf das Verständnis der Inhalte und der Intentionen von Texten, verbunden mit dem Ziel, den Text und seine Aussagen begründet zu erklären und die Kriterien, auf die sich eine Auslegung stützt, nachprüfbar zu machen. Das methodische Vorgehen in der alttestamentlichen Exegese ist grundgelegt durch Richter mit der Veröffentlichung seines aus der Arbeit an Texten gewonnenen Methodenkataloges ›Exegese als Literaturwissenschaft‹.[3] Der Methodenentwurf differenziert zwischen Ausdrucks- und Inhaltsseite eines Textes, orientiert sich primär an der Größe ›Einzeltext‹ (vs. Typentext) und sieht mehrere aufeinander bezogene methodische Ebenen der literaturwissenschaftlichen Beschreibung und Bewertung vor:

Literarkritik

Prüfung der Einheitlichkeit eines Textes, Erarbeiten von ›kleinen Einheiten‹ und Verhältnisbestimmung der ›kleinen Einheiten‹.

Formkritik

Untersuchung der Ausdrucksseite einer ›kleinen Einheit‹ nach Strukturen und Funktionen, Erkennen der Schwerpunkte und Intentionen einer ›kleinen Einheit‹ aufgrund formaler Beschreibung der Sprache, Verhältnisbestimmung der Formen

Gattungskritik

Vergleich und Sammlung von Gruppen gleich, ähnlich oder abweichend strukturierter ›kleiner Einheiten‹, Prüfung auf typische Merkmale von Gattungen anhand von Strukturregeln, Erarbeiten der Texttypik.

Traditionskritik

Untersuchung der ›kleinen Einheiten‹ nach mündlich oder schriftlich vorausliegenden Überlieferungen.

Kompositions- und Redaktionskritik

Erklärung der Entstehung der Endgestalt eines literarischen Werkes, Erarbeiten der Intentionen und Ziele des Gesamtwerkes.

Inhalt

Textimmanente Exegese und Interpretation einer strukturierten Einheit im Rahmen des durch die Analyse der Ausdrucksseite formal abgegrenzten Bezugssystems.

Entscheidend für die Annäherung an den Textinhalt bleibt stets der Weg von der Ausdrucksseite eines Textes zu dessen inhaltlicher Seite. Die Ergebnisse der sprachlichen Analyse eines Textes liefern die Voraussetzung und die Argumentationsbasis für dessen literaturwissenschaftliche Analyse und Synthese auf allen Ebenen. Daraus wird verständlich, warum die Analyse der Textstruktur innerhalb des methodischen Teilbereiches der Formkritik mehr und mehr zum zentralen Arbeitsfeld geworden ist. Die nach der literaturwissenschaftlichen Methodik vorgehenden Untersuchungen haben schon sehr bald gezeigt, daß die bekannten klassischen Grammatiken zur grammatischen und semantischen Analyse des sprachlichen Materials in vielerlei Hinsicht unzureichend waren. Daher hat man sich während der 70er Jahre verstärkt der Grundlagenforschung zugewendet.

ALTHEBRäISCHE SPRACHWISSENSCHAFT

Anhand eines repräsentativen Ausschnitts des Alten Testaments, der Thronfolgegeschichte, ist eine sprachwissenschaftliche Grammatik des Althebräischen erarbeitet worden. Sie beruht auf Theorien der modernen Linguistik und nimmt deren Gesichtspunkte, sofern brauchbar, auf. Das Ergebnis ist in den ›Grundlagen einer althebräischen Grammatik‹[4] veröffentlicht. Die drei Bände spiegeln das ebenenspezifische Grammatikmodell. Ein vierter Band, der die im Grammatikmodell integrierte Satzfügungsebene (Satzsyntax) behandeln soll, ist bislang noch nicht veröffentlicht. Der Entwurf kennt folgende sprachliche Einheiten, Beschreibungsebenen und Methoden:

Einheit

Ebene

Methode

Satzketten

Satzfügung

Satzsyntax

Satzglieder

Satz

Satztheorie

Wortgruppen

Wortfügung

Morphosyntax

Morpheme
Phoneme/Grapheme

Wort
Zeichen

Morphologie mit
Phonologie/Graphologie
basierend auf Orthographie

Die Isolierung sprachlicher Einheiten gelangt zur Einführung von insgesamt fünf Ebenen, wobei Phonologie und Graphologie in die Morphologie integriert sind. Die Sammlung und Klassifizierung sprachlicher Phänomene führt auf jeder Ebene zu je eigenen Kategorien und Regeln. Die Beschreibung der einzelnen Ebenen kann methodisch getrennt voneinander geschehen. Sie vollzieht sich von unten nach oben, oft unter Einbeziehung von Gesichtspunkten höherer Ebenen. Die Beschreibung der jeweils höheren Ebenen setzt die Ergebnisse der jeweils niedrigeren Ebene(n) voraus.

Die Auswertung der Ausdrucksseite im Hinblick auf die Inhaltsseite und deren Beschreibung, also die Weiterführung der Grammatik in einer sprachwissenschaftlichen Semantik mit der Grundlegung eines entsprechenden Semantikmodells, bleiben von vornherein im Blickfeld und sind als eigene Publikationen geplant.

ANWENDUNGEN UND WEITERENTWICKLUNGEN

Sowohl der literaturwissenschaftliche Methodenentwurf als auch die sprachwissenschaftlichen Grundlagen sind in vielen Arbeiten erfolgreich auf alttestamentliche Texte angewendet, dabei reflektiert und diskutiert, auch in vielfacher Hinsicht weiterentwickelt und entfaltet worden. Der Grammatikentwurf ist von Irsigler ergänzt worden durch die Studien an poetischer Literatur, insbesondere in den Bereichen Satztheorie und Großsatzformen[5] sowie auf dem Gebiet der Sprechakttheorie[6]. Das Ebenenmodell der Grammatik ist erstmalig von Floß[7] in die Literaturwissenschaft (Formkritik) integriert worden. Die Beschreibung und Auswertung des sprachlichen Inventars eines Textes erfolgt seitdem getrennt nach den sprachlichen Ebenen von Wort, Wortfügung, Satz, Satzfügung und Text, ausgehend von der kleinsten sprachlichen Einheit, aufsteigend bis hin zur Textstruktur, von der ›Struktur der Ausdrucksseite‹ fortschreitend zur ›Struktur der Inhaltsseite‹. Daß die Literaturwissenschaft schon innerhalb der Literarkritik nicht mehr auf sprachwissenschaftliche, insbesondere grammatische, semantische und valenztheoretische Beobachtungen verzichten kann, hat Vanoni[8] nachgewiesen. Der literaturwissenschaftliche Methodenkatalog ist zur Interpretation poetischer Texte durch Irsigler[9] modifiziert worden. Metazeichensysteme zur Repräsentation von Objekt- und Metasprache althebräischer Texte sind von Richter[10] systematisch begründet und eingeführt worden. Viele Erkenntisse aus bisherigen Arbeiten und Einzeluntersuchungen sind in die Forschungen zur Valenz althebräischer Verben eingegangen. Zwei Bände aus diesem Forschungsgebiet[11] dokumentieren bereits Erweiterungen und Verfeinerungen des ursprünglichen Grammatikmodells, erläutern zudem die in Band 3 der Grammatik dargelegte Satztheorie und notieren die grammatische und semantische Analyse in metasprachlichen Transkriptionen. Nach einer Reihe von Untersuchungen zur Syntax hat Groß[12] syntaktische Phänomene am Satzanfang dargestellt. Die Ergebnisse sind vor allem für die Bestimmung der Satzgrenzen wichtig geworden.

VORAUSSETZUNGEN ZUM EINSATZ DES RECHNERS

Um einen Text des Alten Testaments und seine Sprache vollständig zu beschreiben und angemessen zu verstehen, sind die methodischen Schritte der Literaturwissenschaft konsequent auf die Texte anzuwenden. Dabei setzt die literaturwissenschaftliche Analyse die sprachwissenschaftliche Beschreibung voraus. Somit kann die Analyse und Interpretation der Literatur auf Strukturen zurückgreifen, die nach den Regeln jeder sprachlichen Ebene in einer präzisen Terminologie exakt beschrieben sind. Die mühsamen und aufwendigen Verfahren zur Beschreibung von Sprache und Literatur liefern eine Fülle komplexer Daten. Damit ergeben sich Mengenprobleme, zu deren Bewältigung sich der Einsatz des Rechners nahelegt.

Mit den aus der Arbeit an Text und Sprache gewonnenen methodischen Erkenntnissen und Modellen, sowie den durch Formalisierung und Klassifizierung des sprachlichen Materials gewonnen Regelwerken einer ebenenspezifischen Grammatik waren Mitte der 80er Jahre sämtliche Voraussetzungen für die Anwendung von informatischen Technologien in einer philologischen Disziplin geschaffen. Dem methodischen Ansatz folgend sind rechnergestützte Verfahren zunächst zur Analyse der althebräischen Sprache herangezogen worden, verbunden mit dem Ziel, Sprache und Text des Alten Testaments grammatisch, semantisch und lexikalisch vollständig zu erschließen, um dann in der literaturwissenschaftlichen Auswertung auf den gesamten Datenbestand zugreifen zu können.

WIE WIRD SPRACHE BERECHENBAR?

An die beschriebenen Voraussetzungen kann eine rechnergestützte Arbeitsweise anknüpfen. Ihr stellen sich im wesentlichen vier Aufgabenbereiche:

• Erstellung der Textgrundlage

• Formalisierung der Grammatik und Programmierung

• Programmanwendung und Expertendialog

• Datenverwaltung

ERSTELLUNG DER TEXTGRUNDLAGE

Von BHS[13] als Textvorlage ausgehend, sind alle Texte des Alten Testaments unter konsequenter Anwendung der von Richter[14] begründeten Regeln eines orthographiebezogenen, morphologisch-syntaktischen Metazeichensystems in den Rechner eingegeben worden.[15] Die Transkription gibt mit Bezug zum orthographischen System der Tradenten morphologische und syntaktische Werte der darin überlieferten althebräischen Sprache wieder, wobei Erkenntisse aus der bisherigen Grammatikforschung aufgenommen sind:

• Morphologische Strukturen sind erkennbar durch die Notation von Nominal- und Verbalformen oder durch Markierung von Pro- und Enklitika mit Hilfe des Trennzeichens ›=‹.

• Zusätzlich zu Buch-, Kapitel- und Versangaben sind in den Text Satzgrenzen eingetragen und mit Buchstaben bezeichnet.

• Jeder Satz ist auf einer eigenen Zeile, bei Bedarf auf mehreren Zeilen, notiert.

• Die syntaktische Bewertung von Satzgliedern und die Bestimmung der Satzgrenzen orientieren sich zunächst an einem vorwissenschaftlichen, ›allgemeinen Inhaltswissen‹, das, angereichert durch zahlreiche Beobachtungen zur Syntax und ergänzt um Erkenntisse der Satztheorie, zu einer vorläufigen Begründung der Sätze führt und zu ihrer wissenschaftlichen Diskussion anregt.

• Anmerkungen zu Textvarianten befinden sich am Ende jeder Seite; sie sind durch bestimmte Sigel in Verbindung mit der Angabe des jeweiligen Satzes referenziert.

Die Transkriptionen sind in einem Format (ASCII) abgelegt, mit dem größtmögliche Kompatibilität erreicht wird und das den Analyseprogrammen das Einlesen der Textdateien nicht unnötig durch Steuersequenzen erschwert. Die Kodierung stellt jedes Zeichen durch ein Steuerzeichen und ein Transkriptionszeichen dar. Die Zeichen sind so eindeutig erkennbar. In Hinsicht auf die Datenstrukturen sind zu unterscheiden:

txt-Struktur

Alle eingegebenen Texte befinden sich in der sogenannten txt-Struktur, die die Eingabekonventionen vorgibt, zum Beispiel: Stellenangabe und Text sind immer durch ein Tabulatorzeichen getrennt. Ein Steuerzeichen gilt solange, bis es ein neues ablöst. Diese Vereinbarung vermeidet redundante Daten und erspart damit viel Tipparbeit.

anm-Struktur

Alle Anmerkungen eines Buches werden im Text durch ein Sigel markiert und in einer Datei mit eigener Struktur gehalten.

tnf-Struktur

Alle Texte mit txt-Struktur werden vor der Anwendung eines Analyseprogramms automatisch in die sogenannte tnf-Struktur (Text-Normal-Form) überführt: Vor jedem Satz wird die Stellenangabe vervollständigt; vor jedes Transkriptionszeichen wird das dazugehöhrige Steuerzeichen kopiert. Dadurch werden Varianten, die bei der Texteingabe durch verschiedene Benutzer entstanden sind, vereinheitlicht und die Struktur der Eingabedatei für die Analyseprogramme geprüft und normiert. In tnf-Struktur befinden sich ebenfalls alle in der Datenbank abgelegten Zeichenketten transkribierter Objektsprache.

Die Organisation der Verzeichnisse und Dateien der »Biblia Hebraica transcripta« erfolgt analog zur Buch- und Kapiteleinteilung des Alten Testaments: Jedem Buch entspricht ein Verzeichnis, jedem Kapitel eines Buches eine Datei. Textliche Anmerkungen eines Buches stehen in einer gesonderten Datei. Dateien mit Korrekturen zu jeder Textversion befinden sich in einem eigenen Verzeichnis.

Die seit der Erstveröffentlichung der transkribierten Texte angefallenen und in die neueren Auflagen der »Biblia Hebraica transcripta« eingearbeiteten Korrekturen sind jetzt auf der WWW-Seite des Projekts[16] einsehbar.

FORMALISIERUNG DER GRAMMATIK UND PROGRAMMIERUNG

Die Formalisierung des Grammatikwissens orientiert sich an der methodischen Trennung der sprachlichen Ebenen. Für jede Ebene ist jeweils ein in ein entsprechendes Programm zu überführendes Regelwerk vorgesehen. Die folgende Übersicht veranschaulicht in einfacher Weise die Zuordnung von ebenenbezogenen Regeln und Analyseprogrammen.

Ebene

Regeln

Programm

Satzfügung

Satzsyntax

XX-Amos ?

Satz

Satztheorie

X-Amos ?

Wortfügung

Morphosyntax

Amos

Wort

Morphologie

Salomo

Als erstes ist die Morphologie,[17] in das Analyseprogramm »Salomo«, »Searching ALgorithm On MOrphology«, dokumentiert von Eckardt[18], umgesetzt worden. Das Programm analysiert auf Wortebene alle in den alttestamentlichen Texten belegten Wörter nach ihren Bestandteilen, klassifiziert nach verschiedenen Kategorien, wie etwa Wortart, Basis, Bauform, grammatische Morpheme, und so weiter und gibt alle grammatisch möglichen Deutungen eines Wortes aus. Die Programmarchitektur sieht eine Trennung von Programm und Grammatikwissen vor. Salomo bezieht seine ›grammatische Weisheit‹ aus Grammatikdateien (GRM-Dateien). Diese enthalten in Tabellenform das formalisierte Grammatikwissen, differenziert nach den Klassen Nomen, Verb, Partikel, Numeralia, Ordinalia, Post- und Präpositionen, wobei das Kriterium der Bauform jeweils weitere Subklassen begründen kann. Auf diese Weise läßt sich die morphologische Wissensbasis leicht modifizieren und fortschreiben. Der Ablauf des Programms ist folgendermaßen gestaltet: Salomo liest eine in txt-Struktur befindliche Datei mit transkribiertem Text ein. Dann wendet es auf jedes einzelne Wort eine Verbal- und eine Nominalanalyse an und schreibt alle Vorschläge, die aufgrund der aktuellen morphologischen Regeln zulässig sind, in eine Datei.

Als zweites ist die Morphosyntax[19] in das Analyseprogramm »Amos«, »A MOrphosyntactical expert System«, dokumentiert von Specht[20], umgesetzt worden. Das Programm berechnet auf Wortfügungsebene alle in den alttestamentlichen Texten belegten Hauptwortverbindungen. Amos ist ein Expertensystem, das heißt ein ›dialogorientiertes wissenbasiertes System‹. Das Wissen, auf dem es basiert, umfaßt Fakten und Regeln. Die Faktenbasis bildet ein Teil der im ersten Arbeitsgang analysierten morphologischen Daten: Wortarten, grammatische Morpheme und Stellenangaben. Die Regeln liegen als morphosyntaktisches Regelwerk vor und können in ein Logikprogramm umgesetzt werden. Dazu werden sie in eine Formelnotation transformiert und schließlich in Horn-Klauseln überführt. Horn-Klauseln sind Formeln mit einer oder mehreren Bedingungen und einer Folgerung daraus. Ihre einfache Struktur – ›wenn eine Bedingung gegeben ist, dann gilt ...‹ – erleichtert die Notation von Grammatikregeln. Besonders interessant sind rekursive Regeln, die die Berechnung sehr komplexer Wortverbindungen ermöglichen. Das auf diese Weise entstehende Logikprogramm kann nun nach zwei Strategien ausgewertet werden: Entweder in einer Top Down-Auswertung, bei der die Horn-Klauseln nach entsprechender Transformation als Prolog-Programm abgearbeitet werden, oder in einer mengenorientierten, am relationalen Datenmodell anknüpfenden Bottom Up-Auswertung, bei der die Horn-Klauseln automatisch in ein Programm der relationalen Algebra, implementiert in einem erweiterten LISP, übersetzt werden. Umfangreiche Tests beider Varianten weisen die nach der Bottom Up-Strategie verfahrende deduktive Datenbanktechnik als die weit effizientere aus: Im Unterschied zur Top Down-Auswertung ist ›eine ganze Menge zu einer Zeit‹ ableitbar, vorhandene Linksrekursionen und quadratische Rekursionen sind automatisch auflösbar. Amos analysiert alle nach dem morphosyntaktischen Regelwerk zulässigen Hauptwortverbindungen einer Datei und selektiert dann daraus die längsten belegten Verbindungen. Je kürzer eine Wortverbindung ist, desto genauer fällt die Analyse aus. Je komplexer eine Wortverbindung ist, desto mehr Lösungen sind zu erwarten. Die praktische Arbeit zeigt, daß Verbindungen, die aus umfangreichen Wortgruppen bestehen und zu Mehrdeutigkeiten führen, im Verhältnis zu kürzeren Wortverbindungen relativ selten auftreten. Die Vorschläge sind zu 90 Prozent richtig. Das System bietet für die Ausgabe der Ergebnisse drei Möglichkeiten:

• Alle grammatisch zulässigen Hauptwortverbindungen: all-Dateien

• Selektion der jeweils längsten Intervalle von Hauptwortverbindungen: amerg-Dateien

• Darstellung der amerg-Daten als Bäume: trees-Dateien

Bemerkenswert ist hier, daß sich aufgrund der von Ebene zu Ebene nach oben hin fortschreitenden Abstraktion schon auf der Wortfügungsebene eine Lösung von der Objektsprache abzeichnet, indem hier nicht mehr in dem Maß wie auf der Wortebene mit spezifischen Bauformen einer Einzelsprache, sondern mit Mengen und Klassen von Wortarten und grammatischen Morphemen gearbeitet wird, die aus den objektsprachlichen Bauformen abstrahiert sind. Da das Konzept der Logikprogrammierung unabhängig von einer methodischen Ebene ist, könnte ein zu X-Amos beziehungsweise XX-Amos erweitertes Logikprogramm auch für die Analyse der Satz- beziehungsweise Satzfügungsebene verwendet werden.

Als drittes ist die Umsetzung der Satztheorie[21] in ein Programm vorgesehen. Dies soll alle Sätze alttestamentlicher Texte nach den Regeln einer Valenzgrammatik analysieren. Vom Prädikat als der zentralen Größe im Beziehungsgefüge der Satzglieder ausgehend sollen dessen Beziehungen zu den einzelnen Satzgliedern, die es binden kann, sowie alle sekundären Beziehungen der Satzglieder untereinander beschrieben und Satzbauplänen zugeordnet werden. Diese spiegeln syntaktische und semantische Valenzklassen. Die Realisierung einer rechnergestützten Analyse der Satzebene dauert derzeit noch an. Eine maschinelle Bestimmung der Satzglieder erweist sich als schwierigstes Element im rechnergestützten Analysemodell, insofern es eine umfangreiche und vielschichtige Wissensbasis voraussetzt: Große Mengen an morphologischen, morphosyntaktischen und um semantische Merkmale noch zu ergänzende Daten, methodisch einander voraussetzende und funktional aufeinander bezogene Ebenen, komplexe Regeln, die ebensolche Strukturen berücksichtigen. Vorarbeiten, wie etwa bei Heumel[22], zeigen, daß ein System wie Amos nach Erweiterung der Wissensbasis um syntaktische und semantische Regeln sowie nach Ergänzung der Faktenbasis um semantische Merkmale in der Lage ist, die Bestimmung von Satzgliedern und Satzarten zu leisten.

Als viertes ist eine maschinelle Analyse der Satzfügungsebene geplant. Für die Satzfügungsebene existieren bei Irsigler[23], ferner bei Mulzer[24], Riepl[25], Steingrímsson[26], Rechenmacher[27], Hieke[28] und Seidl[29] viele wertvolle Beobachtungen zu Satzstrukturmustern (Großsatzformen) wie Satzreihe, Satzbund und Satzgefüge, so daß ein Regelwerk formulierbar wäre. Die Umsetzung in ein Logikprogramm wäre ebenfalls durch eine Integration dieser Regeln in das Amos-System erreichbar.

Ein Regelwerk der Textebene könnte sich aus einer Fülle von bereits gesammelten Gesichtspunkten und Kriterien ergeben, zum Beispiel aus der Beschreibung von semantischen Beziehungen innerhalb eines Textes, oder von Redeperspektiven, Sprechaktfunktionen und Sprechaktsequenzen. Damit erlangen Konjunktionen und Modalwörter je nach ihren Funktionen zum Beispiel als Modifikatoren oder Sprechaktindikatoren grammatischen und semantischen Bezug zu Satz, Satzgefüge und Text. Die Beschreibung und Analyse von Phänomenen der Textebene liefert grammatische und semantische Daten zu Struktur und Kohärenz von Texten, die im Rahmen der literaturwissenschaftlichen Methodik unter der Bezugsgröße ›Text‹ unmittelbar relevant werden.

PROGRAMMANWENDUNG UND EXPERTENDIALOG

Das rechnergestützte Analyseverfahren greift das oben erwähnte ebenenspezifische Grammatikmodell auf und wendet die Programme nacheinander, in den sprachlichen Ebenen von unten nach oben aufsteigend auf die Texte an. Auf jeder Ebene findet nach der maschinellen Analyse über eine Benutzerschnittstelle ein Expertendialog statt. Diese zwei Arbeitsschritte, Programmlauf und Dialog, charakterisieren das rechnergestützte Vorgehen.

Der Gültigkeitsbereich der morphologischen Regeln ist beschränkt auf die Wortebene. Dadurch liefert die von jeglichem Kontext absehende Analyse Salomos in vielen Fällen nach rein morphologischen Kriterien unentscheidbare Mehrdeutigkeiten. Diese können in einem Dialog des Experten mit der Benutzerschnittstelle aufgelöst werden. Das Programm liest die Ergebnisse der morphologischen Analyse und zeigt am Bildschirm in drei Bereichen die Vorschläge Salomos zu einem analysierten Wort (links die Nominal-, rechts die Verbalanalyse), einen Kontext von maximal fünf Sätzen und Fragen an den Benutzer. Bei mehreren Analysevorschlägen zu einem bestimmten Wort ist der Experte gezwungen, sich einerseits für die zutreffende Lösung zu entscheiden und andererseits diesen Schritt zu begründen. Als Kriterium dazu dient das Wissen aus den nächsthöheren sprachlichen Ebenen: Reicht zum Beispiel eine Beobachtung der Wortfügungsebene zur Begründung einer Wortart nicht aus, muß zusätzlich ein Kriterium der Satzebene zur Entscheidung herangezogen werden. Bei fortschreitender Analyse wird somit das oben erwähnte ›allgemeine Inhaltswissen‹ offen gelegt und zunehmend präzisiert; es erhält einen Bezug zu einer methodischen Ebene und wird dadurch transparent. Die Schnittstelle erfüllt in dieser Hinsicht eine unschätzbare pädagogische Funktion. Die im Dialog mit der Benutzerschnittstelle anfallenden Daten werden so gespeichert, daß das Programm bei mehrmaligem Vorkommen einer Wortform im gerade in Bearbeitung befindlichen Text eine vom Experten schon gewählte Lösung wieder anbieten kann. Durch diese ‹Lernfähigkeit‹ erfährt die Analyse großer Textkomplexe eine erhebliche Beschleunigung. Akzeptiert der Benutzer keine der vorgeschlagenen Lösungen, erlaubt ein Korrekturmenü die Neueingabe der Analyse.

Der Gültigkeitsbereich der morphosyntaktischen Regeln ist beschränkt auf die Wortfügungsebene. Daher liefert auch Amos mehrdeutige Ergebnisse, stellt diese in seiner Dialogkomponente in Form von Bäumen dar und bietet dem Benutzer an, sich für eine Lösung zu entscheiden. Als Kriterium dienen, wie schon auf der Wortebene, das Wissen des Experten um die nächsthöhere Ebene, hier der Satzebene, oder Beobachtungen zu semantischen Merkmalen der Wort- und Wortfügungsebene.

Auch auf den weiteren Ebenen wird auf Grund des Gültigkeitsbereichs der Regeln eine Dialogkomponente erforderlich sein, um mit Hilfe des Expertenwissens der Satzfügungs- und Textebene zum Beispiel regelhafte Tilgungen von Satzgliedern oder Nullstellen zu erkennen und um entstehende Mehrdeutigkeiten begründet einzuschränken.

Hervorzuheben ist schließlich, daß weder die morphologische Analyse durch Salomo noch die morphosyntaktische Analyse durch Amos ein Lexikon voraussetzen. Dies baut sich automatisch bei der Analyse der Texte durch die Anwendung der Programme im Dialogverfahren auf. Das auf diese Weise entstehende Lexikon enthält exakt begründete Einträge, ist ebenenspezifisch differenziert und somit transparent.

DATENVERWALTUNG

Die Anwendung der Programme Salomo und Amos auf das gesamte Textkorpus ist abgeschlossen. Die Analyseergebnisse verwaltet ein relationales Datenbanksystem. Das diesem zugrundeliegende relationale Datenmodell ist dadurch charakterisiert, daß Objekte und Beziehungen zwischen Objekten in Tabellen mit Zeilen und Spalten dargestellt werden. In informatischer Hinsicht entspricht einer Tabelle eine Relation, einer Zeile ein Tupel und einer Spalte ein Attribut. Ein Tupel wird durch ein oder mehrere Schlüsselattribute identifiziert.

Der Name »Biblia Hebraica transcripta DatenBank« bezeichnet das Gesamtkonzept und Gesamtsystem der entwickelten Datenbanken mit allen darauf aufbauenden Applikationen. Dementsprechend ist als Datenbankname bhtdb-n gewählt worden, wobei n die Versionsnummer wiedergibt. Diese ermöglicht einerseits die Bezugnahme auf einen einheitlichen Datenbestand, andererseits die Fortschreibung in Datenbestand und Schema. Es ist vorgesehen, alle Daten der sprachwissenschaftlichen Analyse aus Grammatik und Semantik in eine Datenbank zu integrieren. Die Beschreibungsebenen werden auseinander gehalten durch die Verteilung der Daten auf verschiedene Relationen, deren Einführung sich auch durch die entsprechenden Bezugsgrößen nahelegt. Damit ist die noch von Riepl[30] für bhtdb-1 angestrebte Einrichtung je einer Datenbank für je eine Analyseebene sowie je einer Relation für je eine Wortart in der morphologischen Datenbank aufgegeben.

Die folgende Übersicht ordnet den Beschreibungsebenen Relationen zu, gibt Auskunft über die in der aktuellen Datenbank bhtdb-2 existierenden Relationen, deren Umfang und auf welche Art die Daten produziert worden sind. Die Relationen dokumentieren zusammen mit ihren Attributen die Vielfalt der Gesichtspunkte, die seit der Arbeit mit Salomo[31] neu gesammelt worden sind. Außerdem verfügt die Datenbank auf Satzebene über ein zusätzliches, aus den Satzbezeichnern der Texte errechnetes Referenzsystem, dessen Notwendigkeit und Vorteile Riepl[32] erläutert.

Ebene

Relationen

Anzahl Tupel

Datenproduktion durch

Text

?


Benutzereingabe ?

Satzfügung

?


XX-Amos und Expertendialog ?

Satz

satzart

88.547

X-Amos und Expertendialog ?


satz

88.547

Benutzereingabe/Berechnung

Wortfügung

wv

120.505

Amos und Expertendialog

Wort

wort, anm

316.046, 11.938

Benutzereingabe/Berechnung


beleg

489.422

Salomo und Expertendialog

Die Relationen sind an unterschiedlichen Bezugsgrößen orientiert: »satz« und »satzart« enthalten alle satz- beziehungsweise zeilenbezogenen, »wv« alle wortgruppenbezogenen, »wort«[33] alle wortbezogenen Daten. Die ebenfalls wortbezogenen Anmerkungen befinden sich in »anm«. »beleg« enthält alle Daten, die sich auf die Größe »stueck«[34] beziehen. Analog wird auf Satzfügungs- und Textebene verfahren. Die höheren Ebenen, Satz, Satzfügung und Text, sind in Verbindung mit der Fortschreibung der Metazeichensysteme für die Notation der Daten in Bearbeitung. Ebenfalls in Vorbereitung sind Programme, die aus den Datenbanken aufgrund bestimmter Merkmale von Wörtern (mit ihrem Verhältnis zu Wortart, Bauform und grammatischen Morphemen) und Wörterverbindungen semantische Klassen ableiten. Als Grundlage dazu dienen Beobachtungen zur Merkmalssemantik der Wortebene bei Rechenmacher[35] und Seidl[36]. Die Ergebnisse der Deduktion und Klassifizierung semantischer Merkmale einer jeden Ebene können in die bestehenden beziehungsweise entsprechend zu modifizierenden Relationen aufgenommen werden. Eine Normalisierung der Relationen und eine Optimierung der Datenbank ist nach erfolgter Korrektur[37] der Daten und Erweiterung um die semantische Seite noch durchzuführen.

Auf Wortfügungsebene wird aufbauend auf die Relation »wv« das Retrievalsystem Venona, vorgestellt und dokumentiert von Argenton[38], eingesetzt. Bei Venona sind Strategien von Informationssystemen, die auf Methoden des Textretrievals beruhen, zum Retrieval in linguistischen Baumdatenbanken mit Hilfe von Baumgramm-Filtern weiterentwickelt worden. Venona ist mit einer Indexierungs- und Retrievaltechnik für Baumstrukturen und Feature-Strukturen ausgestattet. Feature-Formalismen ermöglichen komplexe Attributierungen von Baumknoten, die vor allem auf Wortfügungs-, Satz- und Satzfügungsebene auftreten. Sie erlauben bei der Analyse von Wortfügungen, Sätzen und Satzfügungen eine Integration von grammatischen und semantischen Gesichtspunkten und damit eine adäquate Repräsentation der komplexen sprachlichen Strukturen, die zum Beispiel durch Tilgung oder Pronominalisierung zustande kommen. Venona bietet eine flexible Modellierung der Datenbankrelationen der einzelnen Analyseebenen durch die automatische Generierung der Datenbankschemata mit gleichzeitigem Aufbau von Indices, ferner eine Abfragesprache für ein effizientes Retrieval attribuierter Mehrweg-Bäume, so daß der erste Ergebnisbaum, der den in der Anfrage spezifizierten Teilbaum enthält oder diesem entspricht, innerhalb weniger Sekunden präsentiert wird.[39] Der Benutzer kann in einem interaktiven Modus zunächst einige Ergebnisse durchsehen und dann seine Anfrage präzisieren oder den Datenbestand evaluieren lassen. Venona ist nicht auf eine bestimmte Beschreibungsebene oder Sprache festgelegt. Eine Venona-Anfrage wurde zum Beispiel für Untersuchungen von Vanoni[40] durchgeführt.

WIE WIRD LITERATUR BERECHENBAR?

Die Problematik einer rechnergestützten Literaturwissenschaft sei skizzenhaft in drei Punkten erörtert:

• Voraussetzungen

• Modell

• Methoden

VORAUSSETZUNGEN

Die bislang rechnergestützt durchgeführte Datenerfassung ist auf der Ausdrucksseite bis zur Satzebene vorgestoßen. Ziel bleibt die Beschreibung aller Ebenen auf Ausdrucks- und Inhaltsseite. Dabei ist eine Vielfalt von Gesichtspunkten zu berücksichtigen, wie sie aus den im Anschluß an Richter,[41] Riepl[42] und Rechenmacher[43] erarbeiteten metasprachlichen Zeichensystemen zur Notation sprachlicher Strukturen und Beziehungen (Relationen) auf syntaktischer und semantischer Seite hervorgeht; deren Terminologie wird zur Notation in der sprachwissenschaftlichen Datenbank übernommen.

Syntaktische Gesichtspunkte

Formationen

Werte der Oberfläche und Tiefe der Morphologie, Morphosyntax, Syntax und Satzsyntax:

Syntaktische Einheiten mit Syntagmenbestimmung, Tilgung, Nullstelle;

Morphologische und morphosyntaktische Einheiten mit ihren Funktionen in Wortgruppe, Satz und Satzfügung;

Funktionsklassen von Konjunktionen und Modalwörtern.

Satz-Relationen

Satzfügungen;

direkte Rede.

Syntagma-Relationen

Satzbaupläne (Kernsatz mit Erweiterungen, Transformationen);
Satzarten.

Semantische Gesichtspunkte

Satz-Relationen-Inhalte

Semantische Kontextfunktionen mit Bezug, Aspekt;

literarische Kontextfunktionen (zum Beispiel Progreß);

Redeperspektiven (Kommunikationsträger).

Syntagma-Inhalte

Kernseme;

Merkmalseme.

Satz-Inhalte

Modalität, Sachverhaltsart, Tempus;

Sprechaktfunktionen mit Verhältnisbestimmung,

Sprechakttyp, Gewichtung.

MODELL

Die sprachwissenschaftliche Analyse bereitet mit der Erfassung sämtlicher sprachlicher Daten der Ausdrucks- und Inhaltsseite aller Beschreibungsebenen die literaturwissenschaftliche Analyse vor. Die sprachlichen Strukturen sind in einer präzisen Terminologie exakt beschrieben und in der sprachwissenschaftlichen Datenbank zugänglich. Auf diese können die literaturwissenschaftlichen Methoden zurückgreifen und sie unter den jeweiligen literaturwissenschaftlichen Aspekten auswerten. Dabei bietet sich ebenfalls ein ebenenorientiertes, rechnergestütztes Vorgehen an, das unter einem bestimmten Gesichtspunkt zunächst die Daten aller sprachlichen Ebenen sammelt, diese anhand der entsprechenden Kriterien bewertet und dann das Ergebnis in einer eigenen literaturwissenschaftlichen Datenbank ablegt. Im Anschluß an Riepl[44] veranschaulicht die folgende Skizze, wie sich in einem rechnergestützten Verfahren Sprach- und Literaturwissenschaft mit ihren jeweiligen Bezugsgrößen zueinander verhalten, und wie die bei Richter[45] grundgelegten literaturwissenschaftlichen Methoden bei der Auswertung der sprachwissenschaftlichen Daten von der untersten Ebene (Literarkritik) zur obersten (Inhalt) aufsteigend angewendet werden, um jeweils aufeinander aufbauend die literaturwissenschaftliche Datenbank mit ihren Ergebnissen anzureichern.

Literaturwissenschaft:

Literaturwissenschaftliche Auswertung der Daten unter der Bezugsgröße Text

Inhalt

Datenbank mit Ergebnissen der Auswertung der Ausdrucks- und Inhaltsseite aller Beschreibungsebenen unter den einzelnen litera-turwissenschaftlichen Aspekten

Kompositions- und Redaktionskritik

Traditionskritik

Gattungskritik

Formkritik

Literarkritik

Sprachwissenschaft:

Sprachwissenschaftliche Beschreibung des Materials unter der Bezugsgröße Satz

Datenbank mit Ergebnissen der sprachwissenschaftlichen Analyse der Ausdrucks- und Inhaltsseite auf den Beschreibungsebenen

• Text

• Satzfügung

• Satz

• Wortfügung

• Wort

Vorbereitet durch die sprachwissenschaftliche Analyse, die das Textmaterial umfassend beschrieben und durch literarische Kontextfunktionen und Pronominalisierungen bis an die Textebene reichend in ›literarische Abschnitte‹ gegliedert hat, kann die Literaturwissenschaft an strukturiertem literarischen Material ansetzen. Eine rechnergestützte Literaturwissenschaft wird zunächst sowohl in literaturwissenschaftlicher als auch in informatischer Hinsicht nach der bewährten Theorie und Methodik, das heißt ebenenspezifisch und dialogorientiert, vorgehen. Dabei wird sie den Rechner zuerst zur Beschaffung des Materials nutzen und an ihm prüfen, ob die bisherigen Kriterienkataloge der einzelnen Methoden beibehalten werden können, oder ob sie neu zu ordnen und zu gewichten sind; eine Notwendigkeit dazu ergibt sich allein schon aus der vorgenommenen Trennung von Sprach- und Literaturwissenschaft, wonach die Analyse der Ausdrucksseite im Rahmen der Sprachwissenschaft geschieht und nicht mehr innerhalb der Formkritik erfolgen muß. Sie wird ferner herausfinden müssen, wie die maschinelle Sichtung und Ordnung der Daten geschehen kann. Führen bestimmte Datenbankanfragen zu Beobachtungen, die dem Experten regelhaft erscheinen, dann müßten aus diesen auf die jeweiligen literaturwissenschaftlichen Aspekte bezogene Regeln abgeleitet werden können. Wenn dies gelingt, wird man die Regeln in ein Programm umsetzen können, das Einzeltexte und Textkomplexe unter je einem literaturwissenschaftlichen Aspekt berechnet, wobei auf Grund der Erfahrungen mit den Sprachanalyseprogrammen davon auszugehen ist, daß die erzielten Ergebnisse mehrdeutig sein können. Daher wird sich dem Analyseprogramm ein Dialog mit dem Experten anschließen, um die Mehrdeutigkeiten durch begründete Entscheidungen (gegebenenfalls durch Heranziehen weiterer Kriterien anderer Ebenen) aufzulösen und so zu einem literaturwissenschaftlichen Urteil zu gelangen. Der Umfang der Faktenbasis und die Komplexität der Regeln, damit die Anzahl der bei einem Urteil vorauszusetzenden Entscheidungen nehmen zu, je höher die Analyse in den Ebenen aufsteigt; somit verringert sich auch der Grad der Sicherheit, auf den sich die literaturwissenschaftlichen Urteile stützen.

METHODEN

Die Forschung steht auf dem Gebiet einer so verstandenen rechnergestützten Literaturwissenschaft noch am Anfang. Überlegungen und Versuche in dieser Hinsicht sind grob skizziert und angewendet bei Riepl[46] und Rechenmacher.[47] Daher mögen hier nur einige Beobachtungen zu einer rechnergestützten Arbeitsweise, die sich vorläufig durch eine Reihe von Datenbankabfragen auf den verschiedenen sprachlichen Beschreibungsebenen auszeichnet, genügen, wobei für die Literarkritik und die Formkritik eine Fülle von Anhaltspunkten genannt, für die übrigen Methoden dagegen nur einige Punkte angedeutet werden können.

Ausgangspunkt ist ein nach bestimmten Kriterien abgegrenzter Einzeltext. Diesen untersucht zunächst die Literarkritik unter dem Aspekt der Einheitlichkeit beziehungsweise Uneinheitlichkeit. Dazu liefert eine Datenbankabfrage zum Beispiel auf Satzfügungsebene die Verteilung, Anordnung und Funktion von »einfachen Sätzen« und »Großsatzformen« im Text: »Satzparallelen«, »Satzbünde«, »Satzreihen«, »einfache Sätze« und »Satzgefüge«. Der Sammlung der Daten folgt die Bewertung, ob eine bestimmte Großsatzform als Kriterium gegen die Einheitlichkeit eines Textes gelten kann, ob also eine ›Wiederholung‹ oder ›Spannung‹ im Sinne eines literarkritischen Kriteriums vorliegt, oder ob eine Satzform als Indiz für die Einheitlichkeit eines Textes spricht:

• »Satzparallelen« mit adversativer Funktion wirken gliedernd und markieren literarische Nahtstellen am Beginn und Ende literarischer Abschnitte (Abschluß einer Einheit, vergleiche 1Sam 21,1a-c).

• Gliedernd und kohärenzbildend wirken sich im Textverlauf wiederholende »einfache Sätze« mit lexematisch ausgedrücktem Subjekt, einem Prädikat, das durch ein Verb des Sagens ausgedrückt ist, und anschließender direkten Rede als Objekt (Redeeinleitungen, vergleiche Gen1,3a-b; Gen1,6a-c; Gen1,9a-c; und andere); kohärenzbildend wirken auch Redeeinleitungen, die in der Angabe von Sprecher (Subjekt) und Empfänger (indirektes Objekt) wechseln, und deren Redeteile (direktes Objekt) sich durch Frage und Antwort aufeinander beziehen (vergleiche Ex14,11a-14b).

• Abschnittsmarkierend wirken »Satzbünde« der Klasse SB1a in progredierender Funktion, deren Einzelsätze als Prädikate Verben der Fortbewegung aufweisen und deren Subjekt eine Dislokation (Separativ und Direktiv) vollzieht (Szenenwechsel, vergleiche 1Sam 21,11a-c).

• Kohärenzbildend wirken »Satzbünde« der Klasse SB1a in progredierender Funktion, die über mehrere Sätze hinweg eine Ersparungskonstruktion durch Kontexttilgung des Subjekts aufweisen (Handlungsteil, vergleiche 1Sam 21,13a-14d).

Hinzu kommen weitere Beobachtungen auf Satz-, Wortfügungs- und Wortebene die in ihrem Bezug zum Text gesehen werden: Verteilung und Funktion von Sätzen mit ihrem propositionalen und illokutiven Gehalt, Wortverbindungen und Wörtern, rekurrente Aufnahme von Lexemen, spezifische Verwendung von Lexemen in bestimmten Abschnitten. Auf Textebene werden textphorische Elemente (Artikel, Pronomen) ausgewertet. Bei einer derartigen Vorgehensweise liegt der Schwerpunkt der Literarkritik auf dem Nachweis der Kohärenz von literarischen Abschnitten, mit der sie die Einheit oder Zusammengesetztheit eines Textes begründen kann. Die Literarkritik gelangt schließlich zu Textabschnitten, die unterschiedliche Grade an Kohärenz aufweisen und sich dadurch von anderen Abschnitten abheben oder mit anderen Abschnitten übereinstimmen. Sie wird dann prüfen, ob die übereinstimmenden Abschnitte ›kleine Einheiten‹ bilden und in welchem Verhältnis die verschiedenen (abweichenden und übereinstimmenden) Abschnitte und ›kleinen Einheiten‹ stehen.

Eine literarkritisch isolierte ›kleine Einheit‹ bildet den Gegenstand der Formkritik. Mit Hilfe formkritischer Kriterien untersucht sie die Form einer Einheit nach Strukturen mit deren Funktionen sowie das Verhältnis von Formen zueinander. Die Formkritik unterscheidet zwischen der ornamentalen Form (zum Beispiel: Klangbild, Rhythmus, Reim, Stilmittel), der strukturalen Form und geprägten Elementen. Wiederum dienen Datenbankabfragen zur Sammlung des sprachlichen Materials auf allen Ebenen.

Die Analyse der strukturalen Form untersucht unter dem Aspekt der Oberfläche das grammatisch, semantisch und lexikalisch klassifizierte sprachliche Inventar (Sätze und Satzgruppen; Wörter und Wortgruppen), das bereits literarische Abschnitte innerhalb einer ›kleinen Einheit‹ erkennen läßt, und wertet es aus in Hinsicht auf die Verteilung und das Verhältnis der einzelnen Elemente (Satzarten, Wortgruppenarten, Wortarten) und ihrer Funktionen in Satz, Abschnitt und Einheit. Bereits hier zeigen sich zum einen sprachliche Eigentümlichkeiten der ›kleinen Einheit‹, zum anderen das Fehlen oder Vorhandensein einer spezifischen literarischen Gliederung.

Daran anknüpfend sammelt die Formkritik unter dem Aspekt der Tiefenstruktur von der Wortebene ausgehend die semantischen Merkmale derjenigen sprachlichen Elemente, die als charakteristisch erkannt worden sind, setzt sie in Bezug zur jeweils nächsthöheren Ebene (Wortgruppe, Satz, Satzfügung, Text) und versucht ihre Funktion innerhalb der Einheit zu erkennen. Von Interesse ist vor allem die spezifische Verwendung von Wörtern, Wortgruppen, Sätzen und Satzgruppen bestimmter Bedeutungsklassen (Verben: Fortbewegung, Sagen, Handeln, Versehen mit; Substantive: abstrakt, konkret; Adjektive: Qualität, Quantität, Dimension; Personen-, Gottes- und Ortsnamen; Leitwörter; Satzarten: Nominalsätze, Verbalsätze; Satzfügungsarten: koordiniert, subordiniert; Zeitverhältnisse, Modalitäten, Sprechakttypen mit deren Verhältnis und Gewichtung) und die Häufung derartiger Merkmale in einer Einheit. An ihrer Anzahl, Verteilung und Funktion lassen sich zum Beispiel das Verhältnis und die Funktion von Rede- und Handlungsteilen, ferner der Schauplatz, die Akteure und die Szenen ablesen. Es ergeben sich somit Indizien zu gewissen Akzenten innerhalb einer Einheit. Das aus der formalen Struktur einer ›kleinen Einheit‹ erschließbare Ziel, ist je nach dem Verhältnis von Form und Inhalt eher in der Intention (Schwerpunkt Form) oder mehr in der Aussage beziehungsweise Tendenz (Schwerpunkt Inhalt) einer Einheit zu sehen.

Die Formkritik berücksichtigt auch Elemente geprägter Sprache. Dazu zieht sie weitere als ›kleine Einheiten‹ bewertete Einzeltexte heran. Geprägte Sprache (»geprägte Wendung«, »Formel«, »Schema«) ist erkennbar an formal gleichgebauten Satzfügungen, Sätzen oder Wortfügungen, deren wiederholte Verwendung, Anzahl und Häufung sprachliche Eigentümlichkeiten von Autoren anzeigt. Anhand von nachprüfbaren Kriterien lassen sich nun innerliterarisch autorenspezifische Ansichten (Sitz in der Literatur), andererseits vorliterarische und außerliterarische Wirklichkeiten (Sitz im Leben) erschließen. Ergänzend dazu kann nach einer Untersuchung der geprägten Elemente der literarische und geistesgeschichtliche ›Horizont‹ einer ›kleinen Einheit‹ bestimmt werden. Dies liefert weitere Kriterien für das Erkennen von größeren Komplexen, damit für die Abgrenzung eines literarischen Werkes und für die Erschließung vorgegebener (mündlicher) Überlieferungen.

Die rechnergestützte Arbeitsweise fährt fort mit der Sammlung und Auswertung der Daten durch die Gattungskritik (Vergleich von Strukturen der Formen), Traditionskritik (Aufbau, Umfang, Ziel und Horizont von Formen sowie geprägter Elemente) Kompositions- und Redaktionskritik (Aufbau, Umfang, Ziel und Horizont von Texten, sprachliche Eigenheiten bei literarischen Fugstellen, Rahmungen, Zusätzen, Glossen), wobei jede Methode die Daten aller Beschreibungsebenen unter ihrem Gesichtspunkt betrachtet und auf die Ergebnisse der vorausliegenden Schritte aufbauen kann. Die Ergebnisse der literaturwissenschaftlichen Bewertung werden ebenenspezifisch geordnet in einer Datenbank abgelegt. Ein Notationssystem, das die Urteile des Experten in einer Metasprache darstellt, ist noch zu erarbeiten. Die formale Beschreibung der Ausdrucks- und Inhaltsseite liefert eine Vielfalt nachprüfbarer Kriterien, die in der sprach- und literaturwissenschaftlichen Datenbank zugänglich sind. Darauf aufbauend kann schließlich unter dem Aspekt Inhalt eine textimmanente Exegese erfolgen.

WIE BETREIBEN WIR RECHNERGESTüTZTE PHILOLOGIE?

Sprach- und literaturwissenschaftliche Untersuchungen haben während der letzten Jahre den Zugriff auf die elektronischen Daten der »Biblia Hebraica transcripta« auf unterschiedlichem Niveau genutzt. Der Rechner ist in erster Linie bei der Beschaffung von Belegmaterial zur Analyse von Verbvalenzen und semantischen Merkmalen eingesetzt worden. Da in die Texte der Biblia Hebraica transcripta Satzgrenzen eingetragen worden sind, ist gegenüber den klassischen Konkordanzen erstmalig die Extraktion einer Satzkonkordanz möglich geworden. Erheblich erleichtert ist dadurch die zum Beispiel für Valenzuntersuchungen notwendige Sammlung von Belegen, die bisher darin bestand, sämtliche Stellen eines Verbs anhand einer Konkordanz zu eruieren, um sie dann, da die Belege in klassischen Konkordanzen ohne Satzbezug und mit willkürlich ausgewähltem Kontext zitiert sind, durch Heranziehen des Textes zu vervollständigen und zu prüfen. Um Materialsammlungen und Analysen zu erleichtern und zu beschleunigen ist eine Reihe von Programmen entwickelt worden. Neben einfachen Suchprogrammen, die auf die Textdateien zugreifen und eine satzbezogene Suche nach Wortformen auf der sprachlichen Oberfläche zulassen, sind die Analyseprogramme Salomo und Amos mit den jeweiligen Schnittstellen zum Benutzer entstanden. Diese sind oben bereits ausführlich behandelt worden. Seit die analysierten Daten von einer Datenbank verwaltet werden, sind mit Hilfe von Datenbankanwendungen einfache Abfragen sowie komplexere Verknüpfungen der Datenbestände möglich. Eine multimediale Aufbereitung der Datenbestände wird mit MultiBHT erreicht.

DATENBANKANWENDUNGEN

Für die zum Beispiel bei Valenzuntersuchungen immer gleichbleibenden Bedürfnisse stehen zu Anfragen an die Datenbank ›bhtdb-2‹ Standardanwendungen, die eine variable Eingabe von Daten mit konstanter Ausgabestruktur zulassen, zur Verfügung:

• bhtdb-stelle: Analyseeinträge zu einer Einzelstelle.

• bhtdb-analyse: Analyseeinträge zu einer Basis.

• bhtdb-konkordanz: Satzkonkordanz zu einer Basis mit bestimmter Stammesmodifikation.

Darüber hinaus läßt die Standard-Abfragesprache für relationale Datenbanken (SQL) Abfragen höherer Komplexität, mit denen auch Strukturen der Satz- und Satzfügungsebene zugänglich gemacht werden können, zu, etwa: Suche alle Sätze, die ein Verb in erster Person und ein Substantiv einer bestimmten Basis, gefolgt von einem enklitischen Personalpronomen in erster Person aufweisen; oder: Suche alle Partizipialsätze, die finit durch einen Verbalsatz weitergeführt werden. Oben ist gezeigt worden, wie sich mit Hilfe von Venona-Anfragen innerhalb von Hauptwortverbindungen ganz bestimmte Strukturen mit bestimmten Merkmalen spezifizieren lassen. Alle genannten Abfragen sollen als Standardmöglichkeiten zusammen mit weiteren Optionen in das im folgenden zu beschreibende Informationssystem MultiBHT eingearbeitet werden.

MULTIBHT

Im Rahmen der Erforschung von Anwendungen multimediafähiger Datenbanken am Lehrstuhl Prof. Rudolf Bayer Ph.D., Forschungs- und Lehreinheit Informatik III der Fakultät für Informatik der Technischen Universität München ist bereits 1994 die interaktive, multimediale Datenbank MultiBHT entstanden; ein erster Prototyp ist durch Specht[48] vorgestellt worden. Das System eignet sich unter anderem zum Einsatz sowohl in Sprach- als auch Literaturwissenschaften für die rechnergestützte Analyse und Auswertung von Texten. Es bietet sämtliche Vorteile einer Datenbank (integrierte Verwaltung großer Multimedia-Datenmengen, optimierte Ablage, effizienter Zugriff, referentielle Integrität, komplexe Suchmöglichkeiten, transaktionsgeschützter Mehrbenutzerbetrieb, und andere) und erlaubt unter einer komfortablen Benutzeroberfläche die Integration der Analyseergebnisse aller Beschreibungsebenen sowie aller bisher erarbeiteten Instrumente zur Sprachanalyse, ferner die multimediale Erweiterung der Datenbestände durch Einbindung von Originaldokumenten, Versionen altorientalischer Literatur oder epigraphischer Textzeugen. Die Benutzeroberfläche von MultiBHT zeichnet sich durch folgende Eigenschaften aus:

• Ausgangspunkt ist eine dem Philologen gewohnte Umgebung: Eine Seite eines transkribierten Textes aus dem Alten Testament, die mit Hilfe eines Scanners eingelesen worden ist.

• Auf dem Bild kann jede sprachliche Einheit (Wort, Wortfügung, Satz, Satzfügung) durch Umfahren mit der Maus als Objekt markiert werden.

• Zu jedem Objekt kann eine Verknüpfung hergestellt werden mit bereits bestehenden Einträgen in der Datenbank oder mit einer Neueingabe von Informationen (Text, Bild, Ton), die in der Datenbank abgelegt werden.

• Durch Anklicken eines Objekts auf der Seite, zum Beispiel eines Wortes, erhält der Benutzer alle zu diesem Wort in der Datenbank befindlichen Ergebnisse der sprachlichen Analyse.

• Das System erlaubt die Suche zum Beispiel einer Präpositionsverbindung (PV), im gesamten Datenbestand und die Ausgabe der Ergebnisse in einer Liste.

• Die Ansicht der einzelnen Belege wird in eigenen Fenstern geboten. Zum Beispiel werden Wortverbindungen in Form von Bäumen dargestellt.

• Die Anzeige der Ergebnisse in ihrer Position im Text wird durch eine Umrahmung der betreffenden Stelle erreicht.

Die Möglichkeit der Kombination von Textmaterial mit Bildern gewährleistet dem Philologen einen vielfältigen Einsatz in Forschung und Lehre. Zusätzlich zu den transkribierten Texten wären etwa zur Urteilsbildung bei textkritischen Untersuchungen Fotos von Originalkodices (Codex St. Petersburg, Codex Allepo, Samaritanus, Qumranquellen, und so weiter) sowie Übertragungen ins Lateinische, Griechische, Syrische und andere unmittelbar vom Schreibtisch aus zugänglich. Im Bereich der althebräischen Epigraphik wären neben Fotos palästinischer Ostraka auch geographisches Kartenmaterial und archäologische Grabungsberichte ohne einen Gang in die Bibliothek oder einer Reise zu den Museen der Welt zur Prüfung und Entscheidungsfindung einsehbar. Neue Informationen, Ergebnisse und Dokumente lassen sich bequem und mit relativ geringem Zeitaufwand in die Datenbank aufnehmen. Im Laufe der Zeit könnten in den einzelnen Disziplinen der Altertumskunde Informationssysteme der Fachrichtungen Philologie, Archäologie und Kunstgeschichte entstehen. Diese ließen sich wiederum zu einem Fachinformationssystem für die gesamte Altertumskunde, das sämtliche Fachrichtungen integriert, ausbauen.

Die Forschung ist zur Zeit im Rahmen eines vom DFN-Verein geförderten Projekts bemüht, die Funktionalität des Grundsystems zu erweitern und mit Hilfe der WWW-Technologie im Netz zugänglich zu machen. Umfangreiche Informationen, unter anderem zu Projekt, Literatur und Anwendungen, bietet der WWW-Server MultiMAP.[49] Eine erste WWW-Version von MultiBHT als Prototyp philologischer Anwendungen ist bereits lauffähig.

BLäTTERN ODER KLICKEN?

Die Philologen ziehen bei der Analyse und Interpretation von Sprache und Texten häufig Lexika, Grammatiken, Konkordanzen oder Kommentare in einer eher ›blätternden‹ Arbeitsweise heran. Dieser gegenüber seien einige Erfahrungen und Vorteile einer rechnergestützten Sprach- und Literaturwissenschaft, die sich zunehmend durch das Phänomen ›Klicken‹ auszeichnet, zusammengestellt.

Schon die Vielfalt der Gesichtspunkte und die Fülle der Daten mit ihren komplexen Beziehungen machen ein ›Blättern‹ unmöglich, weil das herkömmliche Instrumentarium (Lexikon, Grammatik, Konkordanz) zum einen hinsichtlich der Gesichtspunkte der Sprach- und Literaturtheorie zum anderen im Hinblick auf das Material unvollständig ist. Zudem werden Analyse und Belegbeschaffung erheblich beschleunigt durch lernfähige Programme beziehungsweise Datenbankabfragen. Letztere vermögen, komplexe Beziehungen herzustellen und aus bereits bestehendem Wissen unter Anwendung bestimmter Regeln neues Wissen abzuleiten, was wiederum zu neuen Erkenntnissen führen kann; die Berechnung der Sprache durch Programme liefert alle theoretisch möglichen Ergebnisse, nicht nur die schon bekannten oder gewünschten, und erzwingt auf diese Weise Entscheidungen und Begründungen. Ein ebenenspezifisches Modell in Sprach- und Literaturwissenschaft bringt auch auf informatischer Seite große Vorteile und sorgt für eine transparente Darstellung des Expertenwissens. Ein rechnergestütztes Verfahren ermöglicht eine konsequente Anwendung einer Theorie/Methode auf einen Gegenstand und die Fortschreibung und Modifizierung der Theorie/Methode sowie Erweiterungen und Änderungen des Datenbestandes, somit die ständige Fortschreibung der Wissensbasis bei Regeln und Fakten. Die konsequente Anwendung von Regeln auf den gesamten Datenbestand führt zur Transparenz der Wissensbasis, auch im Hinblick auf komplexe Sachverhalte. Eingabedaten, Regeln und die durch Anwendung der Regeln abgeleiteten Daten sind nachprüfbar. Durch die Vollständigkeit des Materials erlangen die Schlußverfahren einen hohen Sicherheitsgrad. Im Grad der Formalisierung und der Nachprüfbarkeit spiegelt sich der Grad der Wissen-schaftlichkeit. Ein rechnergestütztes Verfahren erreicht die Verifikation beziehungsweise Falsifikation von Hypothesen durch Experiment (Gegenprobe) und Beweis und versteht sich insofern als exakte Wissenschaft. Der Entwurf besitzt Modellcharakter und ist im Prinzip übertragbar auf andere Sprachen und Literaturen.

Die vorgestellten Methoden und Modelle zur Analyse und Interpretation von Sprache und Text des Alten Testaments mögen aufwendig erscheinen. Sprach- und literaturwissenschaftliche Methoden sind aber nach wie vor dem Gegenstand angemessener, als – wie in der alttestamentlichen Exegese weit verbreitet – Inhaltsinterpretationen, die schon ein bestimmtes, auf einem gewissen Maß an Allgemeinbildung in Geschichte, Philosophie, Theologie oder Psychologie beruhendes ›theologisches‹ Textverständis voraussetzen. Derartige ›Geisteswissenschaft‹ ist schlauer als jeder Rechner und von vorn herein jeder Methode, ob traditionell oder rechnergestützt, überlegen.


[1] Theo Seidl: Die literaturwissenschaftliche Methode in der alttestamentlichen Exegese. Erträge – Erfahrungen – Projekte. Ein Überblick. In: Münchener Theologische Zeitschrift, 40. Jahrgang, Heft 1 (1989), S. 27-38.
[2] Christian Riepl: Literatur – Sprache – Computer. Zur rechnergestützten Analyse des Althebräischen, demonstriert am Projekt »BHt«, Vortrag, gehalten am 7.3.1995 an der RWTH Aachen. In: Zeitschrift für Althebraistik, 9. Bd., Heft 1 (1996), S. 24-41.
[3] Wolfgang Richter: Exegese als Literaturwissenschaft. Entwurf einer alttestamentlichen Literaturtheorie und Methodologie, Göttingen: Vandenhoeck & Ruprecht 1971.
[4] Wolfgang Richter: Grundlagen einer althebräischen Grammatik. A. Grundfragen einer sprachwissenschaftlichen Grammatik. B. Die Beschreibungsebenen: I. Das Wort (Morphologie): Arbeiten zu Text und Sprache im Alten Testament 8. St. Ottilien: EOS 1978. – Ders.: Grundlagen einer althebräischen Grammatik. B. Die Beschreibungsebenen: II. Die Wortfügung (Morphosyntax): Arbeiten zu Text und Sprache im Alten Testament 10. St. Ottilien: EOS 1979. – Ders.: Grundlagen einer althebräischen Grammatik. B. Die Beschreibungsebenen: III. Der Satz (Satztheorie): Arbeiten zu Text und Sprache im Alten Testament 13. St. Ottilien: EOS 1980.
[5] Hubert Irsigler: Gottesgericht und Jahwetag. Die Komposition Zef 1,1-2,3, untersucht auf der Grundlage der Literarkritik des Zefanjabuches: Arbeiten zu Text und Sprache im Alten Testament 3. St. Ottilien: EOS 1977. – Ders.: Psalm 73 - Monolog eines Weisen. Text. Programm, Struktur: Arbeiten zu Text und Sprache im Alten Testament 20. St. Ottilien: EOS 1984. – Ders.: Thronbesteigung in Ps 93? Der Textverlauf als Prozeß syntaktischer und semantischer Interpretation. In: Walter Groß, Hubert Irsigler, Theo Seidl (Hg.): Text, Methode und Grammatik, FS W. Richter, St. Ottilien: EOS 1991, S.155-190. – Ders.: Großsatzformen im Althebräischen und die syntaktische Struktur der Inschrift des Königs Mescha von Moab. In: Hubert Irsigler (Hg.): Syntax und Text. Beiträge zur 22. Internationalen Ökumenischen Hebräisch-Dozenten-Konferenz 1993 in Bamberg: Arbeiten zu Text und Sprache im Alten Testament 40. St. Ottilien: EOS 1993, S. 81-121. – Ders.: Psalm-Rede als Handlungs-, Wirk- und Aussageprozeß. Sprechaktanalyse und Psalmeninterpretation am Beispiel von Psalm 13. In: Erich Zenger (Hg.): Neue Wege der Psalmenforschung, FS W. Beyerlin: Herders Biblische Studien 1, Freiburg u.a.: 1994, S.63-104.
[6] Hubert Irsigler: Psalm 73 - Monolog eines Weisen. (Fußnote 5). – Ders.: Psalm 22: Endgestalt, Bedeutung und Funktion. In: Josef Schreiner (Hg.): Beiträge zur Psalmenforschung. Psalm 2 und 22: Forschung zur Bibel Band 60, Würzburg 1988, S.193-239. – Ders.: Das Proömium im Moselied Dtn 32. Struktur, Sprechakte und Redeintentionen von V.1-3. In: Manfred Görg und Regine Schulz (Hg.): Lingua restituta orientalis. FS J. Aßfalg: Ägypten und Altes Testament 20. Wiesbaden: 1990, S.161-174. – Ders.: Psalm-Rede als Handlungs-, Wirk- und Aussageprozeß. (Fußnote 5). – Ders.: Speech Acts and Intention in the ›Song of the Vineyard‹ Isaiah. 5:1-7. In: Old Testament Essays 10 (1997) 39-68.
[7] Johannes P. Floß: Kunden oder Kundschafter? Literaturwissenschaftliche Untersuchung zu Jos 2. I. Text, Schichtung, Überlieferung: Arbeiten zu Text und Sprache im Alten Testament 16. St. Ottilien: EOS 1982.
[8] Gottfried Vanoni: Literarkritik und Grammatik. Untersuchung der Wiederholungen und Spannungen in 1 Kön 11-12: Arbeiten zu Text und Sprache im Alten Testament 21. St. Ottilien: EOS 1984.
[9] Hubert Irsigler: Psalm 73 - Monolog eines Weisen. (Fußnote 5).
[10] Wolfgang Richter: Transliteration und Transkription. Objekt- und metasprachliche Metazeichensysteme zur Wiedergabe hebräischer Texte: Arbeiten zu Text und Sprache im Alten Testament 19. St. Ottilien: EOS 1983.
[11] Wolfgang Richter: Untersuchungen zur Valenz althebräischer Verben. Bd. 1: Arbeiten zu Text und Sprache im Alten Testament 23. St. Ottilien: EOS 1985. – Ders.: Untersuchungen zur Valenz althebräischer Verben. Bd. 2: Arbeiten zu Text und Sprache im Alten Testament 25. St. Ottilien: EOS 1986.
[12] Walter Groß: Die Pendenskonstruktion im Biblischen Hebräisch: Arbeiten zu Text und Sprache im Alten Testament 27. St. Ottilien: EOS 1987.
[13] Karl Elliger, Wilhelm Rudolph (Hg.): Biblia Hebraica Stuttgartensia (BHS), 4. verbesserte Auflage, Stuttgart 1990.
[14] Wolfgang Richter: Transliteration und Transkription. (Fußnote 10).
[15] Eine erste Auflage der Texte ist veröffentlicht bei Wolfgang Richter: Biblia Hebraica transcripta – BHt: Arbeiten zu Text und Sprache im Alten Testament 33.1-16. St. Ottilien: EOS 1991-1993. – Der Publikation in Buchform sind als elektronische Ausgaben mittlerweile überarbeitete Auflagen gefolgt, zuletzt: Wolfgang Richter: Biblia Hebraica transcripta, Release 4: BHt-Software, München: 1997. – Die Analyse der Eigennamen erfolgte bei: Wolfang Richter, Hans Rechenmacher, Christian Riepl: Materialien einer althebräischen Datenbank. Die bibelhebräischen und -aramäischen Eigennamen morphologisch und syntaktisch analysiert. Arbeiten zu Text und Sprache im Alten Testament 47. St. Ottilien: EOS 1996.
[16] Projekt »BHt«: Homepage. <http://www.fak12.uni-muenchen.de/arf/bht> (10.12.1997).
[17] Wolfgang Richter: Grundlagen einer althebräischen Grammatik. Morphologie (Fußnote 4).
[18] Walter Eckardt: Computergestützte Analyse althebräischer Texte: Arbeiten zu Text und Sprache im Alten Testament 29. St. Ottilien: EOS 1987.
[19] Wolfgang Richter: Grundlagen einer althebräischen Grammatik. Morphosyntax. (Fußnote 4).
[20] Günther Specht: Wissensbasierte Analyse althebräischer Morphosyntax. Das Expertensystem Amos: Arbeiten zu Text und Sprache im Alten Testament 35. St. Ottilien: EOS 1990.
[21] Wolfgang Richter: Grundlagen einer althebräischen Grammatik. Satztheorie. (Fußnote 4).
[22] Peter Heumel: Erstellung einer deduktiven Datenbank zur semantischen Analyse der althebräischen Sprache mittels Montague-Grammatik, Diplomarbeit, Technische Universität München, Institut für Informatik, München 1997.
[23] Hubert Irsigler: Gottesgericht und Jahwetag. (Fußnote 5). – Ders.: Psalm 73 - Monolog eines Weisen. (Fußnote 5). – Ders.: Thronbesteigung in Ps 93? (Fußnote 5). – Ders.: Großsatzformen im Althebräischen und die syntaktische Struktur der Inschrift des Königs Mescha von Moab. (Fußnote 5). – Ders.: Psalm-Rede als Handlungs-, Wirk- und Aussageprozeß (Fußnote 5).
[24] Martin Mulzer: Jehu schlägt Joram. Text-, literar- und strukturkritische Untersuchung zu 2 Kön 8,25-10,36: Arbeiten zu Text und Sprache im Alten Testament 37. St. Ottilien: EOS 1992.
[25] Christian Riepl: Sind David und Saul berechenbar? Von der sprachlichen Analyse zur literarischen Struktur von 1 Sam 21 und 22: Arbeiten zu Text und Sprache im Alten Testament 39. St. Ottilien: EOS 1993.
[26] Sigurdur Ö. Steingrímsson: Gottesmahl und Lebensspende. Eine literarwissenschaftliche Untersuchung zu Jesaja 24,21-23.25,6-10a: Arbeiten zu Text und Sprache im Alten Testament 43. St. Ottilien: EOS 1994.
[27] Hans Rechenmacher: Jungfrau, Tochter Babel. Eine Studie zur sprachwissenschaftlichen Beschreibung althebräischer Texte am Beispiel von Jes 47: Arbeiten zu Text und Sprache im Alten Testament 44. St. Ottilien: EOS 1994. – Ders.: Der Attributsatz. Beaobachtungen zu Syntax und Redetypik: Arbeiten zu Text und Sprache im Alten Testament 46. St. Ottilien: EOS 1995. – Ders.: »Außer mir gibt es keinen Gott!« Eine sprach- und literaturwissenschaftliche Studie zur Ausschließlichkeitsformel: Arbeiten zu Text und Sprache im Alten Testament 49. St. Ottilien: EOS 1997.
[28] Thomas Hieke: Psalm 80 - Praxis eines Methodenprogramms. Eine literaturwissenschaftliche Untersuchung mit einem gattungskritischen Beitrag zum Klagelied des Volkes: Arbeiten zu Text und Sprache im Alten Testament 55. St. Ottilien: EOS 1997.
[29] Theo Seidl: Untersuchungen zur Valenz althebräischer Verben. Bd. 3: Arbeiten zu Text und Sprache im Alten Testament 57. St. Ottilien: EOS 1997.
[30] Christian Riepl: Literatur – Sprache – Computer (Fußnote 2).
[31] Walter Eckardt: Computergestützte Analyse althebräischer Texte (Fußnote 18), S. 9-16. Die fortgeschrittene Differenzierung der Morphologie zeigt sich vor allem in den Attributen, die die Größen Bautyp und Basis, ferner funktionale Werte repräsentieren. Auf eine ausführliche Darstellung der einzelnen Attribute kann hier verzichtet werden.
[32] Christian Riepl: Satz- und Metasatzbezeichnung in BHt. Probleme, Lösungen und Änderungen: Revue Biblique (1996), T. 103-4, S. 561-580.
[33] »wort« bezeichnet alle durch Leerzeichen voneinander getrennten Zeichenketten des transkribierten Textes.
[34] »stueck« bezeichnet alle durch Leerzeichen oder = voneinander getrennten Zeichenketten des transkribierten Textes.
[35] Hans Rechenmacher: Der Attributsatz (Fußnote 27).
[36] Theo Seidl: Untersuchungen zur Valenz althebräischer Verben. Bd. 3 (Fußnote 29).
[37] Eine Korrektur der morphologischen Daten ist vorläufig abgeschlossen und veröffentlicht bei: Wolfgang Richter, Hans Rechenmacher, Christian Riepl: Materialien einer althebräischen Datenbank. Nominalformen: Arbeiten zu Text und Sprache im Alten Testament 51. St. Ottilien: EOS 1998. – Ferner bei: Wolfgang Richter, Hans Rechenmacher, Christian Riepl: Materialien einer althebräischen Datenbank. Verbalformen. In: FS E. Jenni (Im Druck).
[38] Hans Argenton: Indexierung und Retrieval von Feature-Bäumen am Beispiel der linguistischen Analyse von Textkorpora, Dissertation. Universität Tübingen 1997.
[39] Ein Beispiel für die Visualisierung eines Ergebnisbaumes bietet ebenda, S. 63.
[40] Gottfried Vanoni: »Was verursacht Reichtum?« und weitere Fragen zu Spr 15,16 – mit Hilfe der »BHt«-Software zu beantworten versucht. In: Biblische Notizen 85 (1996), S. 70-88.
[41] Wolfgang Richter: Untersuchungen zur Valenz althebräischer Verben. Bd. 1 (Fußnote 11).
[42] Christian Riepl: Sind David und Saul berechenbar? (Fußnote 25).
[43] Hans Rechenmacher: Jungfrau, Tochter Babel (Fußnote 27).
[44] Christian Riepl: Sind David und Saul berechenbar? (Fußnote 25).
[45] Wolfgang Richter: Exegese als Literaturwissenschaft (Fußnote 3).
[46] Christian Riepl: Sind David und Saul berechenbar? (Fußnote 25).
[47] Hans Rechenmacher: »Außer mir gibt es keinen Gott!« (Fußnote 27).
[48] Günther Specht: MultiBHT – Ein multimediales Datenbanksystem zur Sprachanalyse; vorgestellt am 29. März 1995 an der LMU München vor der Fakultät für Altertumskunde und Kulturwissenschaften. Technische Universität München, Institut für Informatik, München 1995.
[49] Projekt MultiMAP: Homepage. <http://wwwmultimap.informatik.tu-muenchen.de> (10.12.1997).

Jahrbuch für Computerphilologie 1 (1999) [Zurück zum Inhaltverzeichnis]