eJournals Forum Exegese und Hochschuldidaktik: Verstehen von Anfang an (VvAa) 2/2

Forum Exegese und Hochschuldidaktik: Verstehen von Anfang an (VvAa)
2366-0597
2941-0789
Francke Verlag Tübingen
2017
22 Fischer Heilmann Wagner Köhlmoos

Digital Humanities und Exegese

2017
Juan Garcés
Jan Heilmann
28 Patrick Sahle http: / / dig-hum.de/ ag-dh-und-informatik, letzter Zugriff: 29.08.2017. http: / / scottbot.net/ dh-quantified, letzter Zugriff: 29.08.2017. http: / / scottbot.net/ submissions-to-dh2017-pt-1, letzter Zugriff: 29.08.2017. http: / / tadirah.dariah.eu, letzter Zugriff: 29.08.2017. https: / / www�volkswagenstiftung�de/ mixedmethodsgeisteswissenschaften�html, letzter Zugriff: 29.08.2017. http: / / www.itzertifikat.uni-koeln.de, letzter Zugriff: 29.08.2017, letzter Zugriff: 29�08�2017� http: / / www.culingtec.uni-leipzig.de/ ESU_C_T/ node/ 97, letzter Zugriff: 29.08.2017. http: / / ess.uni-paderborn.de/ , letzter Zugriff: 29.08.2017. https: / / www.i-d-e.de/ aktivitaeten/ schools/ , letzter Zugriff: 29.08.2017. https: / / digital.humanities.ox.ac.uk/ dhoxss/ , letzter Zugriff: 29.08.2017. http: / / www.dhsi.org, letzter Zugriff: 29.08.2017. Forum Exegese und Hochschuldidaktik Verstehen von Anfang an (VvAa) Jahrgang 2 - 2017, Heft 2 Digital Humanities und Exegese Erträge, Potentiale, Grenzen und hochschuldidaktische Perspektiven Juan Garcés / Jan Heilmann Abstract | In this article, we summarize the current state of the implementation of methods from the Digital Humanities (DH) in the field of New Testament studies, on the one hand, and examine its potentials as well as its limits in this field on the other hand� The article is divided along the methods stylometry, linguistic analysis, text re-use/ reception history, manuscripts/ textual criticism� While further development in this field is certainly necessary, DH has made impressive inroads into New Testament studies. It enhances the field by automating already established approaches and challenges to re-think concepts and approaches that may be indebted to the print era that gave birth to the field. In the end, we explore the challenges of the emerging DH for academic teaching in the field of Biblical Studies from a perspective of university didactics� 1 Einleitung Der digitale Medienwandel, der nicht nur die Gesellschaft allgemein, sondern auch die bestehenden Wissenskulturen maßgeblich und tiefgreifend transformiert, macht auch vor der Bibelwissenschaft (BW) keinen Halt� Die Reaktionen aus den Geisteswissenschaften auf diesen Prozess fallen durchaus unterschiedlich aus und der Hype, der oftmals durch die Organe der Forschungsförderung und des Universitätsmanagements befördert wird, stößt - zuweilen zurecht - auf Skepsis� Einige Fragen stellen sich vor diesem Hintergrund: Welchen 30 Juan Garcés / Jan Heilmann Mehrwert bringen digitale Methoden der Bibelwissenschaft? Inwiefern ist eine Ressourceninvestition, die notwendig wird, um sich digitale Kompetenzen anzueignen, legitimierbar? Und grundsätzlicher: Wie sind die sozialen und epistemologischen Auswirkungen des Medienwandels zu bewerten? Aber auch: Welche Grenzen der Nutzung digitaler Methoden müssen markiert werden? Es ist festzuhalten, dass die Digitalisierung und digitale Erforschung der für die BW relevanten Daten in vielerlei Hinsicht vergleichsmäßig früher und umfangreicher als in anderen, verwandten geisteswissenschaftlichen Disziplinen stattfand� Zusätzlich zu den unten zu besprechenden Beispielen denke man nur an die sich Anfang der 1990er Jahre etablierenden und seitdem vielfach weiterentwickelten Bibelprogramme, die Pfarrerinnen und Pfarrer, Lehrerinnen und Lehrer sowie Wissenschaftlerinnen und Wissenschaftler mittlerweile ausgereifte virtuelle Forschungsumgebungen bieten� Diese erlauben es, die wichtigsten Texte in der digitalen Umgebung zu lesen und zu untersuchen� Die mit den Bibelprogrammen einhergehende Befriedigung der digitalen Bedürfnisse der genannten Zielgruppen scheint aber auch dazu beigetragen zu haben, dass sich die BW erst in jüngster Zeit intensiver mit den interdisziplinären Herausforderungen der Digitalisierung befasst und sich mit dem Diskurs und den Impulsen aus den Digital Humanities (DH) auseinandersetzt� Die DH befassen sich - teils als interdisziplinäres Forschungsfeld, teils als eigenständiges Fach, teils als Mischform 1 - mit der „Anwendung von computergestützten Verfahren und […] systematische[n] Verwendung von digitalen Ressourcen in den Geistes- und Kulturwissenschaften sowie die Reflexion über deren Anwendung“, so die häufig zitierte und u. E. aussagekräftige Definition im Artikel Digital Humanities in der Wikipedia� 2 Dabei nehmen sie die Funktion eines wichtigen Bindeglieds zwischen den jeweiligen Geisteswissenschaften und der Informatik ein� In diesem Beitrag verstehen wir DH im etwas engeren Sinne der digitalen Erschließungs- und Analysemethoden und beleuchten die für die BW bereits vorliegenden Erträge, ihre Potentiale aber auch Grenzen einerseits und die Integrationsmöglichkeiten in einer dem Medienwandel gerecht werdenden, fachspezifischen Hochschuldidaktik andererseits (siehe den Ausblick unter Punkt 7). Ohne auch nur annähernd den Anspruch auf Vollständigkeit erheben zu können, werden wir exemplarisch an etablierten Fragestellungen und Methoden den bisherigen Ertrag digitaler Erschließungs- und Analyseansätze für die exegetischen Fächer vor dem Hintergrund der eingangs gestellten Fragen kritisch evaluieren� Dabei liegt der Fokus aus pragmatischen Gründen auf der 1 Sahle, Gibt’s doch gar nicht! ; Sahle in diesem Heft� 2 Vgl. https: / / de.wikipedia.org/ wiki/ Digital_Humanities, letzter Zugriff am 13.07.2017. Digital Humanities und Exegese 31 neutestamentlichen Wissenschaft, wobei die methodischen Ansätze grundsätzlich auch die LXX-Forschung betreffen. 3 Andere relevante Bereiche der digitalen Forschung in den BW - etwa die computergestützte Archäologie - werden aus Platzgründen ausgegrenzt� 4 2 Stilometrie Die computergestützte Stilometrie untersucht einen Sprachstil mithilfe der Analyse von statistisch signifikanten Merkmalen. Ihre häufigste Anwendung 3 Vgl. dazu weiterführend Garcés, Prospects. 4 Auch nicht diskutiert werden Ansätze in der alttestamentlichen Forschung, quellenkritische Fragen mit digitalen Methoden zu untersuchen. Vgl. dazu Dershowitz u.a., Source Criticism� Juan Garcés, *1968, ist promovierter Theologe (Neues Testament und Biblische Hermeneutik) mit einer Zusatzqualifikation (MA) im Bereich Digital Humanities. In diesem Bereich war er u� a� am Kings College London langjährig für die Planung und Umsetzung von Projekten zuständig� An der British Library war er für den Aufbau und die Koordinierung der Digitalisierungs- und Präsentationsinfrastruktur, insbesondere für die wichtigen biblischen Handschriften Codex Sinaiticus und Codex Alexandrinus, verantwortlich� Am Göttingen Centre for Digital Humanities war als wissenschaftlicher Koordinator in dessen Anfangsphase leitend aktiv� Als Fachreferent für Theologie mit besonderem Auftrag im Bereich Digital Humanities bereichert er derzeit Digitalisierungsprozesse der Sächsischen Landes- und Universitätsbibliothek Leipzig insbesondere durch seine kodikologische und textkritische Expertise sowie mit seinen Fähigkeiten im Bereich der Methodik der Digital Humanities� Jan Heilmann, *1984, Dr� theol�, ist Wissenschaftlicher Mitarbeiter am Institut für Ev� Theologie der TU Dresden� Studium der Ev� Theologie, Geschichte und Germanistik in Bochum und Wien� Seine Dissertation wurde mit mehreren Wissenschaftspreisen ausgezeichnet� Er ist Gewinner des eLearning-Wettbewerbs der Ruhr-Universität Bochum 2011, hat zahlreiche Lehr-/ Lern-Projekte (Blended -Learning) entwickelt und erprobt und ist im Bereich der hochschuldidaktischen Fortbildung tätig� 32 Juan Garcés / Jan Heilmann findet die Stilometrie in der Autorenidentifikation, indem beispielsweise für einen Autor typische Sprachmerkmale festgestellt und andere, diesem Autor zugeschriebene Werke daraufhin geprüft werden, ob sie diese Merkmale in einem statistisch signifikanten Umfang aufweisen und die Autorschaft als wahrscheinlich oder unwahrscheinlich zu betrachten ist� Auf den Grad der Entwicklung dieser Methoden deutet die forensische Anwendung hin, bei der stilometrische Beweise in juristischen Verfahren zum Einsatz kommen. In der neutestamentlichen Wissenschaft hat dieser Ansatz zunächst nur als Randerscheinung Fuß gefasst. Dennoch handelt es sich um ein vielversprechendes Verfahren, das über Verfasserschaftsfragen hinaus gewinnbringend eingesetzt werden kann. Exemplarisch soll dies zunächst an Beispielen der umfangreichen Untersuchungen von David Mealand gezeigt werden� Wie die Pionierarbeiten von A� Q� Morton (1978) und A� Kenny (1986) zum stilometrischen Vergleich der unumstrittenen Paulusbriefe mit denen als deuteropaulinisch angesehenen Briefen zeigen, 5 können diese Verfahren zu durchaus unterschiedlichen Ergebnissen führen� Der Grund dafür - und dies gilt grundsätzlich für alle digitalen Ansätze - ist, dass der Ansatz selbst eine Reihe von Methoden umfasst und diese mit unterschiedlichen Parametern (Umfang, Kontrolldaten, das ‚Maß‘ zur Bestimmung stilistischer Ähnlichkeiten etc.) angewendet werden können� David Mealand hat sich in zwei wichtigen Artikeln 6 mit der Frage der stilistischen Kohärenz der Paulusbriefsammlung aufgrund von stilometrischen Untersuchungen befasst� Dabei untersuchte er (1989) die ‚positionelle Stilometrie‘ bestimmter Partikel (καί, δέ, γάρ und εἰ) an unterschiedlichen Stellen im Satzbau� Seine Untersuchung liefert interessante stilometrische Argumente für einen Korpus von sieben ‚echten‘ Paulusbriefen, die einem kleineren Korpus von nur vier ‚echten‘ Briefen vorzuziehen ist� In einer weiteren Studie (1995) untersuchte Mealand gleich 18 Kriterien, nach denen er in einer multivariaten Analyse Probetexteinheiten aus der neutestamentlichen Briefliteratur von jeweils unterschiedlicher Länge in ihrer Ähnlichkeit nach gruppierte (Clusteranalyse)� Das Ergebnis warf eine Reihe von zu erwartenden und ein paar unerwartete Ergebnisse auf� Was das Corpus Paulinum angeht, ergaben sich auch hier eindeutige Cluster der sieben Protopaulinen gegenüber den anderen Paulus zugeschriebenen Briefe� Aber auch andere neutestamentliche Verfasserschaftsfragen können mit stilometrischen Methoden untersucht werden� Die Frage etwa, ob das lukanische Doppelwerk auf die Redaktion eines einzelnen Redaktors oder unterschiedlicher Redaktoren zurückgeht, wurde von Patricia Walters unter Berufung auf stilo- 5 Vgl. Morton, Detection; Kenny, Study. 6 Vgl. Mealand, Sylometry; Mealand, Extent. Digital Humanities und Exegese 33 metrische Unterschiede zugunsten unterschiedlicher Redaktoren entschieden� 7 Dabei untersuchte sie solche Passagen des Lk und der Apg - sogenannte seams (Säume) und summaries (Zusammenfassungen) -, die im Forschungskonsens als auf den Redaktor zurückgehend angesehen werden und deswegen wahrscheinlicher dessen Sprachstil repräsentieren� Walters verglich die Frequenz, mit der in diesen Passagen bestimmte stilistische Phänomene vorkommen, die von antiken Schriftstellern - wie z� B� in Dionysius, Longinus oder Demetrius zugeschriebenen Werken - im Zusammenhang mit ‚gutem‘ oder ‚schlechtem‘ Stil erwähnt werden: die Präsenz oder Abwesenheit von Hiatus und Dissonanz zwischen Wörtern, Prosarhythmen, abschließende syntaktische Elemente von Sätzen und Satzgliedern, die Benutzung von καί-Parataxe und post-positiven Partikeln. Der direkte Vergleich des Vorkommens der erwähnten Phänomene zeigt, dass die Unterschiede deutlich sind� Die Studie bietet so zusätzliche Argumente für redaktionsgeschichtliche Hypothesen zum lukanischen Doppelwerk� David Mealand fragt in einem 2016 veröffentlichten Artikel, 8 ob der stilometrische Vergleich zwischen Lk und Apg auch einen bedeutenden Stilunterschied aufzeigt, wenn man grundsätzlich dem Ansatz von Walters folgt, aber ihre Vergleichsparameter ändert. So unternimmt er vier ‚Versuche‘ ( tests ), in denen er genau dieses tut. Der erste Versuch vergleicht das Vorkommen von besonders häufig vorkommenden ‚Funktionswörtern‘ in besagten Passagen (außer dem Artikel sind das: καί, αὐτός, δέ und ἐν), - ein Kriterium, das sich in der stilometrischen Verfasseridentifizierung als besonders erfolgreich erwies. Im zweiten Versuch wurden die Textanteile aus dem Lk und der Apg noch einmal geteilt und im Vergleich mit einbezogen, um zu schauen, ob Lk und Apg eine interne Kohärenz zeigen. Für den dritten und vierten Versuch wurde noch einmal der Textdatenpool vergrößert und ein größerer Vergleichskriterienkatalog benutzt (man spricht hier von multivariate method )� Die von Mealand unternommen Versuche bestätigen nicht nur die These Walters, sie differenzieren das Bild weiter: z. B. zeigt sich, dass Lk in den Vergleichspassagen den Septuaginta-Erzählungen nähersteht, während Apg eher eine Nähe zu anderen hellenistischen Texten mit narrativen Element aufzeigt� Die exemplarisch ausgewählten Untersuchungen zeigen, dass stilometrische Ansätze für neutestamentliche Texte durchaus fruchtbar sein können� Doch wie verlässlich sind die verschiedenen stilometrischen Methoden und ihrer Testergebnisse? Das computergestützte Verfahren ergänzt den wissenschaftlichen Diskurs methodisch und bietet einer exegetischen Entscheidung bezüglich Verfasserschaftsfragen zusätzliche Argumente, die der Unterstützung oder Wieder- 7 Vgl. Walter, Unity. 8 Vgl. Mealand, Seams. 34 Juan Garcés / Jan Heilmann legung einer Hypothese durchaus mehr Gewicht verleihen� Dabei handelt es sich um einen Ansatz, der nur verstreut vorliegende und oft nur unbewusst wahrgenommene stilistische Phänomene quantifiziert und dadurch für die Interpretation neutestamentlicher Texte fruchtbar macht� Der Computer hilft somit etwas Intuitives und nur schwer Greifbares wie den Sprachstil eines Textes auswertbar zu machen� 3 Linguistische Analyseverfahren Linguistische Analyseverfahren gehören zu den fest etablierten Methoden in der Exegese� 9 Für diese Methoden gelten Konkordanzen, Wörterbücher und Grammatiken als klassische Hilfsmittel� Bezüglich der Konkordanzarbeit ist es augenfällig, dass die kommerziellen Bibelprogramme (v� a� BibleWorks, Accordance, Logos) „gedruckte Konkordanzen weitgehend ersetzen“ 10 können� Dabei stellt die Konkordanz, die erst seit der ersten Bibelkonkordanz um 1230 (unter der Leitung von Hugo von St� Charo ab 1230 im Pariser Jakobinerkloster) gebräuchlich war, ein für die korpuslinguistische Analyse grundlegendes Instrument dar, das im digitalen medientechnologischen Kontext nicht nur ideal repliziert (weil es ja schon algorithmisch erzeugt wurde), sondern vor allem weiter algorithmisch ausgebaut werden kann und sollte� In der Konkordanz wurde das, was algorithmisch geprägt ist und computergestützt umgesetzt werden kann, vorausgesehen� Die bisherige Integration von Konkordanzen in Bibelprogrammen aber zeigt, dass man nur sehr zögerlich über die methodischen Möglichkeiten einer gedruckten Konkordanz hinaus zu gehen wagt� Dabei verschließt man sich aber dem großen Potential eines methodischen Ansatzes, der im Digitalen erst zur vollen Entwicklung seines inhärenten Potentials kommt� Wörterbücher und Grammatiken bieten lediglich einen Zugang zu einem ‚Destillat‘ korpuslinguistischer Forschung� Im Druckzeitalter konnten diese Werkzeuge nur aufgrund der philologischen Kompetenz der sie verantwortenden Autorität(en) funktionieren� Der Nutzer musste ein hohes Maß an (manchmal blindem) Vertrauen aufbringen, denn die ökonomischen Grenzen der gedruckten Seite erlaubte es nicht, jede Aussage durch die Darlegung der ausgewerteten Daten zu unterstützen� Im digitalen medientechnologischen Kontext aber können konkrete korpusanalytische Fragestellungen durch Analysealgorithmen durchgeführt werden� Der Computer durchsucht große Text- 9 Vgl. Egger/ Wick, Methodenlehre, 115-173; Ebner/ Heiniger, Exegese, 92-99; Finnern/ Rüggemeier, Methoden, 103-128� 10 Ebner/ Heininger, 422; vgl� auch Finnern/ Rüggemeier, 146� Digital Humanities und Exegese 35 mengen in wenigen Sekunden, die ein Mensch in seiner Lebenszeit nie komplett lesen könnte� Dadurch entstehen völlig neue Möglichkeiten� Eine Grundannahme der Korpuslinguistik ist es, dass bestimmte sprachliche Phänomene durch die Analyse einer (ausreichend großen aber dennoch) begrenzten Menge von (Text-)Daten (i� e� ein ‚Korpus‘) untersucht werden können, und zwar unter der Bedingung, dass dieser Korpus aus sprachlichen Ausdrücken aus einem ‚natürlichen‘ kommunikativen Kontext besteht und die zu untersuchenden linguistischen Phänomene ausgewogen repräsentiert� Der gemeinhin große Umfang eines solchen Korpus hat aber vor allem methodische Konsequenzen: der eigentliche Grund, einen Korpus zu erstellen, ist das Ziel, die Verteilung von sprachlichen Phänomenen zu beobachten, also: deren Vorkommen oder Nichtvorkommen sowie deren Vorkommen zusammen mit anderen sprachlichen Phänomenen (Kookkurrenz)� Es handelt sich dementsprechend um Phänomene, die nur extrem schwer durch einfache Beobachtung untersucht werden können� Dies bedeutet weiterhin, dass dabei quantitative Methoden und statistische Modelle eine zentrale Rolle spielen� Bei der Kombination der Suche nach (potentiell komplexen) sprachlichen Mustern in umfangreichen Korpora einerseits und mit der Bewertung ihrer statistischen Signifikanz andererseits, kommt die rechnerische Leistungskraft des Computers voll zur Geltung� Auch wenn computerunterstützte linguistische Untersuchungen am Neuen Testament ein fester Bestandteil der neutestamentlichen Methodik geworden sind, geht der konsequente Einsatz digitaler Methoden nur selten über den im vordigitalen Zeitalter anvisierten Gebrauch hinaus� Matt Munson zeigte in seiner 2016 verteidigten Dissertation, wie konsequent computerbasierte Methoden der semantischen Extraktion gewinnbringend auf die exegetische neutestamentliche Diskussion angewendet werden können� In seiner methodologisch ausgerichteten Arbeit überlegt Munson, wie man vorgehen müsste, wenn man die Bedeutung von Wörtern an den Mustern der jeweils kookkurrierenden Wörter festmacht (man spricht hier von distribution )� Da Bedeutungsunterschiede dann mit unterschiedlichen Kookkurenzmustern einhergehen, eröffnet sich daraus ein Projekt: „If we set a computer up to encounter and learn from enough word contexts, the computer will be able to start building a distributional, semantic profile of the word, which will, at least to some extent, represent the meaning of that word�” 11 Methodisch geht Munson so vor, dass er für jedes Wort statistisch ausgewertete Kookkurrenzprofile anlegt und diese Profile dann innerhalb eines Korpus und zwischen Korpora vergleicht� Zunächst lässt man dabei die tatsächlichen Kookkurrenzprofile mit Profilen vergleichen, die man bei zufälliger Kookkurrenz 11 Vgl. Munson, Semantics, 10. 36 Juan Garcés / Jan Heilmann zweier Wörter erwarten würde. Erst daraus lässt sich ein Kookkurrenzprofil erstellen, dass auf Signifikanz ausgelegt ist, indem insignifikante kookkurierende Wörter entfernt werden. Auf diese Profile basierend, kann man schließlich berechnen, welche Wörter innerhalb eines Korpus aufgrund der Ähnlichkeit ihrer Profile auch semantisch ähnlich sind. Es lässt sich aber auch untersuchen, ob es bei einem Wort eine Bedeutungsverschiebung zwischen Corpora stattgefunden hat, etwa zwischen der LXX und dem Neuen Testament� Munson demonstriert die gewinnbringende Anwendung dieses Ansatzes anhand dreier Anwendungsfälle: (1) dem Vergleich mit dem semantisch ausgerichteten Wörterbuch von Louw und Nida bei Ausdrücken wie σάρξ, δαιμόνιον sowie den trinitarisch relevanten θεός, χριστός und πνεῦμα; (2) dem Bedeutungsvergleich von ἐκκλησία in der LXX und dem Neuen Testament; und (3) einer Untersuchung des exegetisch umstrittenen Ausdruck πίστις [Ἰησοῦ] Χριστοῦ. Dabei offenbart die Kookkurrenzanalyse zwar noch keine bemerkenswerten, neuen semantischen Einsichten, sie kann aber durchaus in exegetischen Streitfragen ihr argumentatives Gewicht auf die Waagschale legen, indem sie mathematisch präzise in die eine oder andere Richtung weisen kann� Die Anwendung genuin digitaler Methoden in der linguistisch ausgerichteten Exegese weist aber auch auf mehrere Desiderata hin, vor allem im Bereich der zugrunde gelegten Daten und dem wünschenswerten Format einer neuen Generation linguistischer Werkzeuge� Was die zu analysierenden Korpora angeht, ist noch einiges an Arbeit zu leisten, um diese in einem quantitativ und qualitativ zufriedenstellenden Standard bzw. in einer Form vorzufinden, welche die freie Anwendung von Analysen und Anreicherungen erlaubt� Neutestamentliches Griechisch muss im Rahmen des hellenistischen Griechisch verstanden werden� Das bedeutet, dass der ohnehin verhältnismäßig kleine Korpus des Neuen Testament (und der LXX) quantitativ um relevante literarische und dokumentarische Texte (insbesondere Inschriften und Papyri) aus der griechisch-römischen Welt, für rezeptionsgeschichtlich orientierte Fragen auch um spätantike christliche Texte, ergänzt werden muss� Gerade bei einer dann großen Datenmenge, die sich mit einem analog-händischen Verfahren nicht mehr überblicken lassen, werden digitale Methoden ihren Nutzen zeigen� Hier ist in den nächsten Jahrzehnten, vor allem im digital orientierten interdisziplinären Austausch mit der klassischen Philologie, ein großes Potential für neue Ergebnisse insbesondere lexikographischer und semantischer Analysen (aber auch sprachlich-syntaktischer Analysen) vorstellbar, die - gemessen am Forschungsstand, der in den Wörterbüchern und Grammatiken dokumentiert ist - zu Modifikationen der Bedeutung und des Bedeutungsspektrums von zahlreichen, für das NT (ferner auch für die LXX) relevanten griechischen Lexemen und Wendungen führen werden� Digital Humanities und Exegese 37 Die genannten Korpora müssen aber auch qualitativ so erschlossen werden, dass grundlegende linguistische Annotationen (Lemmatisierung, morpho-syntaktische, evtl. auch syntaktische Informationen) mit zur Verfügung stehen. Zudem ist es notwendig, die digitale Forschungsinfrastruktur in den Altertumswissenschaften insgesamt weiterzuentwickeln und zu standardisieren, um etwa die derzeit in vielen Einzelprojekten erschlossenen Inschriften und dokumentarischen Papyri zentral zugänglich und ohne Barrieren nachnutzbar zu halten� 12 Doch es gibt einen weiteren, für die BW wesentlichen Aspekt, der nicht zu vernachlässigen ist: Literarische Texte mit komplexen handschriftlichen Textgeschichten sollten für die Kollokationsanalyse nicht ohne weiteres auf einen linearen Text reduziert werden� Dies wird in traditionellen Konkordanzen allerdings notwendigerweise getan, denn diese orientieren sich am (potentiell veränderbaren) Ausgangstext und verzeichnen z� B� die Belegstellen von Lemmata in Textvarianten gerade nicht� Zwar ist zu fragen, wie genau solch ein kritischer Text samt Varianten linguistisch zu analysieren ist und ob er sich statistisch signifikant auswirkt, ein solcher Informationsverlust sollte jedenfalls im digitalen Zeitalter nicht mehr in Kauf genommen werden� Schließlich ist die freie Verfügbarkeit besagter Texte für die digitale Forschung essentiell� Die wichtigsten Texte kann man mittlerweile als Module der gängigen Bibelsoftwareprodukte erwerben, alle griechischen literarischen Texte als Teil des Thesaurus Linguae Graecae ( TLG ) lizenzieren (jeweils aber ohne aufbereitete textkritsche Daten)� Das kommt allerdings der digitalen Analyse nicht entgegen, denn jegliche datenintensive Analyse ist ausschließlich innerhalb der lizenzierten Umgebung gestattet und durch vorgegebene Analysetools beschränkt. Digitale Forschung braucht offen zugängliche Daten, sowohl für die Analyse als auch für die offene Bewertung der daraus entstehenden Analyseergebnisse� Projekte wie das Open Greek and Latin Project 13 lassen diesbezüglich auf eine bessere Zukunft hoffen. 14 12 Seiten wie z� B� papyri�info, das Tool Searchable Greek Inscriptions (Cornell University und Ohio State University; http: / / inscriptions�packhum�org/ ) und die Leuven Database of Ancient Books (LDAB) bzw� das Netzwerk-Portal Trismegistos (nur Metadaten) sind in dieser Hinsicht schon sehr hilfreich, wobei aber die Textdaten weder vollständig noch für korpusanalytische Forschungsansätze im oben skizzierten Sinne aufbereitet und ohne Weiteres nachnutzbar sind� 13 http: / / www�dh�uni-leipzig�de/ wo/ projects/ open-greek-and-latin-project/ 14 Zwar stellen ältere Editionen die Grundlage der hier digital zugänglichen Texte dar, für viele statistische Analysen ist das aber auch ausreichend� Im Idealfall stünden freilich die Daten der neuesten Texteditionen mit textkritischem Material zur Verfügung, was aber angesichts von Urheberrechtsfragen und der ökonomischen Verwertung von den Forschungsdaten editorischer Erschließungsarbeit derzeit noch schwierig ist� 38 Juan Garcés / Jan Heilmann 4 Text Re-Use/ Rezeptionsgeschichte Ein wichtiges und aktuelles Forschungsfeld im Bereich der DH liegt in der Untersuchung von sog� Text Re-Use (Text Re-Use Detection, kurz TRD) , also der automatischen Erkennung von Zitaten (und Paraphrasierungen)� Für die BW interessant sind diese Ansätze in begrenztem Maße für Fragen der Rezeption von Texten aus der LXX im Neuen Testament, aber vor allem für die Rezeptionsgeschichte biblischer Texte� Obwohl es mit den patristischen Texten ein besonders großes Korpus von Texten gibt, in denen sowohl das griechische Alte Testament als auch das Neue Testament vielfach zitiert wird, werden digitale Ansätze (vielleicht auch wegen der notwendigen Größe solcher Untersuchungsansätze) hier nur zögerlich genutzt� Als digitales Werkzeug steht freilich das hilfreiche Portal Biblindex (Institut des Sources Chrétiennes) zur Verfügung, das eine elektronische Form der vom Centre d'analyse et de documentation patristique (CADP) erarbeiteten (und mittlerweile eingestellten) Biblia Patristica (BP) darstellt und auch einige der noch weitere, nicht geprüften Verweise aus den analog gewonnenen Daten des CADP digital bereitstellt� 15 Neben einer nicht sehr benutzerfreundlichen Suchmaske weisen die zugrundeliegenden Daten der BP einige wissenschaftliche Mängel (z. B. zahlreiche falsche Verweise und zahlreiche fehlende Belegstellen) auf. 16 Zudem stellt Biblindex einen reinen Index biblischer Referenzen in der patristischen Literatur dar („nothing but references“ 17 ), ein direkter Zugriff auf die Volltexte ist (bisher noch) nicht möglich� 18 Nutzen lassen sich die Daten allerdings schon jetzt für breit angelegte statistische Analysen im Hinblick auf regionale, zeitliche und quantitative Verteilung der Zitation biblischer Texten. 19 Für textkritische Arbeit ist die Datenbank aber auch zukünftig nur eingeschränkt einsetzbar, da zwar bei angekündigter Vernetzung mit den Volltextdatenbanken TLG und LLT ein Zugriff auf die Texte möglich wäre, aber in diesen Datenbanken die historisch-kritischen Informationen über die Textüberlieferung und Varianten in den patristischen Texten selbst fehlen; also die mögliche Kontamination der patristischen Handschriftenüberlieferung durch biblische Hss�, die im Vergleich zu den vom jeweiligen Verfasser zitierten Textvariante abweichen 15 Mellerin weist darauf hin, dass 100�000 Einträge schon in der Datenbank implementiert wurden, aber noch 400.000 weitere „unverified hard-copy references“ (Mellerin, Issues, 13) ungescannt in Kisten liegen� 16 Vgl. Harmon, Note; Merkt, Projekt, 586f. 17 Mellerin, Issues, 12� 18 Angekündigt ist eine „textual phase“, die vorsieht bestehende Textdatenbanken (TLG; LLT etc) mit Biblindex zu vernetzen. Vgl. Mellerin, New Ways, 180, ausführlich Hue-Gay/ Mellerin/ Morlock, TEI-encoding� 19 Vgl. dazu Mellering, New Ways, 181-188. Digital Humanities und Exegese 39 können, nicht kritisch evaluiert werden kann� Hier ist nach wie vor zwingend die Einsicht einer historisch-kritischen Edition notwendig� Digitale Methoden wurden, wie im besprochenen Beispiel, bisher vorwiegend zum digitalen Festhalten herkömmlich wahrgenommener Intertextualität eingesetzt� Doch wie sieht es mit der automatischen Erkennung und Bewertung von Text-Reuse-Phänomenen? Die vom eTraces-Projekt bzw� weiterführend von der eTrap-Nachwuchsgruppe (http: / / www�etrap�eu/ ) angewendeten Text Mining-Methoden bei der Erkennung und Analyse von solchen Phänomenen in historischen Texten sind zukunftsweisend� 20 5 Handschriften, Textkritik und Edition Nie hatten Exegetinnen und Exegeten einen besseren Zugang zu Bibelhandschriften� Die von den wichtigsten Sammlungen vorgenommenen Massendigitalisierungsprojekte von Handschriften haben zur Folge, dass ein einfacher Internetzugang ausreicht, um sich Bilder einer wachsenden Zahl der wichtigsten Bibelhandschriften in zunehmend brauchbarer Auflösung anschauen zu können. Dies ist insofern wichtig, als Hss. der grundlegende Wissensrohstoff der BW sind� Einerseits hängt von deren sachgemäßen Analyse die (Re-)Konstruktion des der Exegese zugrundeliegenden Textes ab, andererseits bestimmen die anvisierten Methoden wiederum die zielführende Erschließung der hss� Texte� Beides ist nun tief vom digitalen Medienwandel geprägt� In der neutestamentlichen Textkritik hat sich die von Gerd Mink entwickelte und der Editio Critica Maior des Novum Testamentum Graecum zugrunde liegenden ‚Kohärenzbasierte Genealogische Methode‘ (KBGM) als der neue Standard etabliert� 21 Das Beibehalten der bisher angewandten ‚lokal-genealogischen Methode‘ (LGM) als Teil der KBGM wird gemeinhin mit den Phänomenen des gleichzeitigen Gebrauchs von textgeschichtlich unabhängigen Vorlagen - man spricht hier von ‚hochgradiger Kontamination‘ - sowie der unabhängigen und zufälligen Mehrfachentstehung gleicher Varianten begründet. Vereinfacht dargestellt verfährt die KBGM folgendermaßen: Eine quantitative Ermittlung des Übereinstimmungsgrad der Texte der bezeugenden Handschriften lässt schon eine Hypothese über die Wahrscheinlichkeit einer genealogischen Abhängigkeit zu, kann aber die genealogische Richtung noch nicht entscheiden� Deswegen spricht man hier von ‚prägenealogischer Kohärenz‘� Das durch die LGM erstellte Ergebnis ist ein lokaler Stammbaum für jede Variantenstelle, der auch 20 Vgl. Büchler u. a., Measuring; Büchler u. a, Text Re-use Detection. 21 Vgl. dazu grundlegend Mink, Problems; Mink, Contamination; Wachtel, Method. 40 Juan Garcés / Jan Heilmann gleich eine Hypothese über die wahrscheinlichste Entstehungsgeschichte an dieser Stelle repräsentiert� Der Summe aller so entwickelten Stammbäume kann man eine ‚genealogische Kohärenz‘ ablesen, die wiederum mithilfe u. a. des Vergleichs mit der prägenealogischen Kohärenz zu einer stemmatischen Kohärenz und somit schließlich zu einer „definitve[n] Hypothese über den einfachsten genealogischen Zusammenhang aller Zeugen“ sowie einer Hypothese des Ausgangstextes dieser abstrahierten Textgeschichte führt� Es handelt es sich bei der KBGM also um einen hybriden Methodenkomplex, der der traditionellen Anwendung der LGM die neu entwickelte digitale Berechnungen der „Kohärenz“ als „Ergänzung und Korrektiv“ 22 gegenüberstellt� Digitale Ansätze verstehen sich hier also nicht als Ersatz, sondern als Vervollständigung und Verbesserung bestehender Methoden, indem diese mit innovativen Methoden interagieren� An dieser Stelle sei ferner auch auf den New Testament Virtual Manuscript Room 23 verwiesen, der kollaborative Erschließungsarbeit der Handschriften ermöglicht und sich insbesondere auch für den didaktischen Einsatz eignet� 24 Die Vorteile kollaborativer Erschließungs- und Transkriptionsarbeit im digitalen Zeitalter gegenüber der früheren textkritischen Arbeit müssen an dieser Stelle nicht weiter erläutert werden� 25 Einen Einblick in einen digitalen Ansatz, der in der Analyse intensiver auf digitale Berechnungen basiert, gewährt die Dissertation von Stephen Carlson� 26 Sie ist auch gleichzeitig ein Beispiel für einen disziplinenübergreifenden Methodentransfer� Die Phylogenetik nämlich - eine Teildisziplin der Biologie, die sich mit der Erforschung der Stammesgeschichte von Lebewesen beschäftigt - setzt seit den 1960er Jahren Computerprogramme ein, die anhand von verglichenen Merkmalen Stammbäume konstruiert. Zwar sind die auffälligen Analogien zwischen der Phylogenetik und der in den Philologien betriebenen Stemmatologie schon in den 1970er Jahren bemerkt worden, in der neutestamentlichen Wissenschaft ist aber die Anwendung besagter Ansätze bisher eher auf Zurückhaltung gestoßen� 27 Die insgesamt 1624 Varianteneinheiten der 92 kollationierten Zeugen zum Galaterbrief wurden von Carlson in zwei Schritten analysiert� Im ersten Schritt lies Carlson ein von ihm geschriebenes Programm nach dem in der Phylogenetik gefolgtem Parsinomie-Prinzip mehrere Stemmata erstellen� Diese Stemmata sind noch nicht ausgerichtet (sie sind unoriented), d� h� sie besagen noch nichts über die genealogische Richtung der Handschriften- 22 Siehe der Untertitel von Mink, Contamination� 23 http: / / ntvmr�uni-muenster�de/ de 24 Vgl. den Beitrag von T. Flemming in diesem Heft. 25 Vgl. dazu mit weiterführenden Hinweisen auf die Literatur Houghton, Scriptorium. 26 Vgl. Carlson, Text. 27 Siehe aber Wachtel u. a., Vorlage; Wachtel u. a., Pathways. Digital Humanities und Exegese 41 texte zueinander bzw� haben noch nicht einen genealogischen Ausgangspunkt identifiziert. Sie zeigen aber schon wahrscheinliche, wenn auch genealogischrichtungsoffene, Beziehungen zwischen den Handschriftentexten. Anders als bei der Berechnung der prägenealogischen Kohärenz der KBGM aber wurde hier das Phänomen der Kontamination - in der Biologie wird dieses Phänomen als ‚Retikulation‘ bezeichnet - mit berechnet� Das Parsimonie-Prinzip, das in der Geisteswissenschaft besser als Ockhams Rasiermesser bekannt ist, gebietet ja die höchste Sparsamkeit im Umgang mit Hypothesen und Theorien� In der Phylogenetik spricht man auch gerne von ‚Kosten‘, die bei der hypothetischen Erstellung von Stammbäumen anfallen� Mit Allan Dickermans ‚Hypertree‘-Ansatz berechnet Carlsons Programm für jeden Fall der Kontamination zusätzliche ‚Kosten‘ in Form von der Streichung von Verbindungslinien (Kanten). Das Ergebnis ist demnach im Idealfall das hypothesensparsamste Stemma� Die Einberechnung der wahrscheinlichen Kontamination im ersten automatisierten Schritt hat eine Reihe von Vorteilen. Einer davon ist, dass im Gegensatz zur im INTF praktizierten Einbeziehung der lokalen Stemmata dieser arbeits- und hypothesenintensive Schritt ausfallen kann� In einem zweiten Schritt greift Carlson auf interne Kriterien der traditionellphilologischen Analyse zurück, um das Stemma anhand der Knoten oder Zweige auszurichten, die dem ältesten Wortlaut am nächsten kommt� Carlson behilft sich der Arbeit des INTF und der Hortschen Theorie des ‚neutralen Texts‘, um den Bereich zu identifizieren, an dem sich diese häufen und findet einen ‚inneren Ast‘, der Codex Sinaiticus mit Codex Vaticanus/ P46 verbindet. Bemerkenswert ist, dass Carlsons Rekonstruktion des ältesten Wortlautes lediglich an zwölf Stellen von dem des Novum Testamentum Graece abweicht� Dennoch erscheint eine Diskussion dieses Ansatzes gerade wegen der genannten methodologischen Implikationen notwendig� Der in den oben erwähnten Methoden zugrundeliegende Text ist angemessenerweise ein abstrakter, ‚linguistischer‘ Text, der nur das erfasst, was für die Rekonstruktion eines ältesten Wortlauts wesentlich zu sein scheint� Orthographische Varianten, Akzente, sinngebende Textgestaltung und dergleichen wurden für die Textkollation nicht berücksichtigt� Das hat einmal praktische Gründe: Die Aufnahme solcher Merkmale würde eine Kollationstabelle überkomplizieren� Es hat aber auch textbegriffliche Gründe: Der für die gängigen Rekonstruktionen angenommene Textbegriff ist ein abstrakter. Im Rahmen der zunehmenden Zahl zugänglicher Bibelhandschriftendigitalisate und - vor allem - der digitalen Erschließung derer Texte in Form von XML-ausgezeichneten Transkripten stoßen sich Forscher zunehmend auf den Informationsverlust, den diese Abstraktion erlaubt� Insbesondere haben sogenannte ‚Paratexte‘ - Material, das den ‚eigentlichen‘ Text begleitet, wie z� B� Einführungen, Inhaltsbeschreibungen, Glossen, 42 Juan Garcés / Jan Heilmann Kolophone und dergleichen - das Augenmerk der Textwissenschaft gefunden� Im Rahmen der Vorarbeiten für die ECM schreibt die Forschergruppe an der KiHo Wuppertal/ Bethel, dass man sich von der zusätzlichen Erschließung der Paratext-Elemente „Einblicke in das kulturgeschichtliche Setting der Apk-Hss�“, sowie die erfolgreiche Verbindung sozialgeschichtlicher und textkritischer Fragen erhofft. 28 Nicht zuletzt hat es eigens auf dieses Phänomen ausgerichtete Projekte, wie das „Paratexts of the Bible“-Projekt 29 ins Leben gerufen� Ein weiteres, wichtiges Thema im Rahmen des digitalen Medienwandels ist die Frage, inwiefern das digitale Medium das Grundkonzept einer Edition verändert� Das INTF hat hierzu in Zusammenarbeit mit dem ITSEE einen interessanten Prototyp entwickelt� 30 Festzuhalten ist an dieser Stelle, dass das digitale Edieren von Texten eine wichtige Unterscheidung nicht nur praktisch möglich, sondern auch notwendig macht: nämlich die Trennung von Inhalt und Form und damit auch die Trennung von Erschließung und historischer Rekonstruktion� 31 Die digitale Erschließung der Textdaten in der Form der Erfassung aller für das wissenschaftliche Verständnis wichtigen Merkmale kann nun eigenständig gedacht und präsentiert werden� Dies ist eine grundlegende und wichtige Differenzierung, die allerdings auch - unnötigerweise 32 - zu Missverständnissen führen kann� Wenn beispielsweise ein etablierter DH-Spezialist zugespitzt sagen kann, „gedruckte Editionen sind eigentlich nur digitale Editionen, deren Kernstück der Öffentlichkeit vorenthalten wird“ 33 , dann ist nicht damit gemeint, dass die historisch-kritische Rekonstruktion eines Textes (auch in gedruckter Form) im digitalen Zeitalter nicht mehr notwendig oder erstrebenswert sei� Historischkritische Rekonstruktionen bleiben als Hypothesen über die historische Gestalt eines Textes für geschichtswissenschaftliches Arbeiten unverzichtbar� Es geht vielmehr darum, dass die erschlossenen Daten nicht mehr einer solchen Rekonstruktion lediglich als Dokumentation und Begründung der historischkritischen Entscheidungen unterworfen werden� Für die wachsende Zahl der Wissenschaftler, die nicht nur an einer verlässlichen Textrekonstruktion, sondern vor allem an der Erforschung der Textgeschichte interessiert sind, sind diese neuen Möglichkeiten äußerst hilfreich� 28 Müller u� a�, Die Apokalypse, 11f� 29 S� http: / / www�paratexbib�eu/ 30 http: / / nttranscripts�uni-muenster�de/ AnaServer? NTtranscripts+0+start�anv 31 Sahle, Digitale Editionsformen I, 281� 32 So unsere Bewertung der polemischen Stellungnahme Meins, Editionen, zur beachtlichen Studie von Patrick Sahle, die in drei Bänden erschienen ist� 33 Jannidis, Digitale Literaturwissenschaft, 4� Digital Humanities und Exegese 43 6 Potentiale und Grenzen Am Beispiel der textgeschichtlichen Forschung lassen sich Potentiale und Grenzen digitaler Forschungsansätze in der Exegese exemplarisch diskutieren� So ist es zunächst evident, dass digitale Analyse- und Erschließungsverfahren angesichts der großen Anzahl an Handschriften (allein etwa 5�700 griechische Hss� und Fragmente 34 und zusätzlich zu den Testimonien noch einmal eine größere Zahl an Versionalhandschriften) und Textvarianten 35 analogen Verfahren weit überlegen sein sollten� Außerdem ermöglicht die konsequente Anwendung digitaler Verfahren in der Textkritik, dass diese auch für Nichtspezialisten einsehbar und nachprüfbar wird� Sowohl die Handschriften als auch deren digitale Erschließung in Form von Transkripten (ausgezeichnet in TEI-XML) sind über einen Internet-Zugang nicht nur einsehbar, sondern auch für eigene Forschungsbemühungen nachnutzbar� Die von Rechnern umgesetzten Algorithmen sind an sich nicht unmittelbar von Arbeitshypothesen und Vorannahmen abhängig. Sie können ihre Aussagekraft aber nur innerhalb angenommener, hypothetischer Szenarien erweisen� Der empirische und vorwiegend quantitative Ansatz digitaler Analysemethoden dient grundlegend der Überprüfung von Hypothesen� 36 Aber man darf hier von keiner falschen Dichotomie von qualitativer und quantitativer Auswertung ausgehen: „[I]n der Praxis geht jeder sinnvollen quantitativen Auswertung ohnehin eine qualitative Begutachtung/ Interpretation voraus und folgt jeder sinnvollen quantitativen Auswertung eine qualitative Interpretation der Resultate�“ 37 Dies schließt auch die der Analyse zur Verfügung stehenden erschlossenen Daten mit ein� Die grundlegende Frage ist also: Inwiefern stellen die erschlossenen Daten und die daran vorgenommenen Berechnungen eine zielführende Repräsentation der zu untersuchenden Realität dar? Welchen Informationsverlust hat man bei der Erschließung der handschriftlichen Texte in Kauf genommen und stellt dieser (notwendige) Informationsverlust eine inakzeptable Verzerrung für die zu untersuchende Frage dar? Welcher Aspekt der Textgeschichte wird durch die algorithmische Berechnung erhellt bzw� inwiefern kann man diesen Aspekt argumentativ legitimieren? An dieser Stelle sollte klar sein, dass der sinnstiftende Rahmen solcher empirischer Versuche nicht dem Computer, 34 Vgl. Metzger/ Ehrman, Text, 52 35 Gurry, Number, 113, schätzt die Anzahl der Varianten nur in den griechischen Hss. auf ca. 500�000� 36 Korrekter sollte man hier von der Falsifizierung der Nullhypothese sprechen, also der Hypothese, die die zu prüfenden Hypothesen verneint. Vgl. hierzu im korpuslinguistischen Kontext Gries, Statistik, 35� 37 Gries, Statistik,11� 44 Juan Garcés / Jan Heilmann sondern der von Forschern formulierten Fragestellung und Evaluierung zu entnehmen ist� 38 Die Integration datenanalytischer Methoden in das philologische Instrumentarium bringt einen entscheidenden Vorteil mit sich: Die Beweise bzw. Falsifizierungen von Hypothesen können nun anhand der Daten und analytischen Schritte nachvollzogen werden� Bedingung ist hierbei aber die Zurverfügungstellung beider Elemente, die idealerweise standardkonform und ausreichend dokumentiert erzeugt wurden� Für die textgeschichtliche Forschung ist nicht mehr nur die Rekonstruktion eines bestimmten Wortlauts von zentralem Interesse, sondern die zur Rekonstruktion führenden Daten und die analytischen Schritte, die daran vorgenommen wurden� Es handelt sich also in gewisser Hinsicht um eine Umkehrung der sich im Druckzeitalter durchgesetzten Priorität von öffentlich publizierten und in der privaten Forschung genutzten Daten. Das Neuformulieren von methodischen Schritten der Erschließung und Analyse bietet eine neue Chance, herkömmliche Annahmen grundsätzlich neu zu durchdenken� Dabei erweisen sich erstaunlich viele methodische Schritte als grundsätzlich algorithmisch� Diese Schritte sollten getrost Computern überlassen werden� Im Idealfall sollte der Computer den Forscher entlasten zugunsten der denkerischen Arbeit der Exegese (die Interpretation und Auslegung der Texte, die Formulierung von Hypothesen und Entwicklung von Modellen), die sich nicht auf einen Algorithmus reduzieren lässt� Ein grundlegendes Beispiel für das Hinterfragen herkömmlicher Annahme ist die Erkenntnis, dass sowohl der exegetische Arbeit prägende „philologische Habitus“ - also das „kontingente[,] aber gleichwohl wirksame[] Set von Wahrnehmungs-, Bewertungs- und Denkkategorien, das den Umgang mit den 38 Das bedeutet z� B� für die Rekonstruktion des Textes des Neuen Testaments, dass diese auf ein mit Methoden der historischen Kritik gewonnenes textgeschichtliches Modell angewiesen ist; d� h� konkret: auf eine Entscheidung, welcher Text rekonstruiert werden soll� In der neutestamentlichen Textkritik hat man sich u� E� zurecht darauf verständigt, den ‚Ausgangstext‘, also den Text, der am Anfang der Hss�-Transmission stand, zu rekonstruieren� Das , was am Anfang der Hss�-Transmission stand, kann aber nur historisch bestimmt werden und bleibt in den aktuellen Ansätzen definitorisch unterbestimmt. Stehen Einzeltexte, wie Holmes, Initial Text, 659, ganz entsprechend des alten Urtext-Paradigmas formuliert, am Anfang der Hss-Transmission oder muss nicht vielmehr davon ausgegangen werden, dass (womöglich noch einmal redaktionell bearbeitete) Sammlungen den Anfang bilden? Zudem sind textkritische Entscheidungen auch im neuen Paradigma noch entlang des binären Prinzips primär/ sekundär orientiert� Es wäre aber zu diskutieren, ob der Text am Anfang der Hss�-Transmission zwingend der älteste erreichbare Text ist oder ob sich in den Hss� nicht durch das Phänomen der Kontamination Spuren älterer, nicht mehr vollständig rekonstruierbarer Textfassungen erhalten haben können, wie etwa jüngst von Klinghardt, Evangelium, postuliert wurde, aber auch unabhängig von der Richtigkeit seiner historischen Thesen über das für Marcion bezeugte Evangelium gilt� Digital Humanities und Exegese 45 philologischen Gegenständen prägt“ 39 - als auch das Forschungsobjekt selbst - die Bibel - stark vom medientechnologischen Kontext geprägt sind� Dieser Sachverhalt eröffnet eine wichtige Chance: „Das methodologische Potential der Digital Humanities läge dann weniger darin, alte Gegenstände mit neuen Methoden zu analysieren, als darin, neue Fragen auch an alte Texte zu formulieren� So könnte nicht zuletzt sichtbar werden, dass auch die Einstellung, die wir scheinbar natürlich gegenüber Texten einnehmen, Ausdruck einer bestimmten historischen Situation ist�“ 40 Was die Geschichte der biblischen Texte angeht, heißt dies: Exegese kann sich im Rahmen des digitalen Medienwandels einem neuen, erweiterten Textbegriff öffnen, der nunmehr die aufgrund ihrer Kontingenz wegabstrahierten Phänomene (alles, was im Rahmen der materiellen Gegebenheiten der Textrezeption anfiel) wieder als Teil des Textes zu verstehen� Aus diesen Überlegungen ist aber auch abzuleiten, dass der Einsatz digitaler Methoden in den Bibelwissenschaften einem pragmatisch orientierten Ökonomieprinzip unterliegen sollte� D� h� nur solche Forschungsprozesse sollten digital durchgeführt werden, bei denen der durch den Einsatz digitaler Methoden entstehende Aufwand eine zeitliche Ersparnis gegenüber einem traditionellen Ansatz haben und dadurch z� B� mehr Zeit für das eigentliche Denken zur Verfügung steht; außerdem sollten Aufwand und zu erwartender wissenschaftlicher Erkenntnisgewinn in einem ausgeglichenen Verhältnis stehen. 41 Das bedeutet, dass die Anwendung digitaler Methoden z� B� ausschließlich auf bereits gut erforschte biblische Einzeltexte sehr gut begründet sein müsste� Zudem gibt es zahlreiche methodische Zugriffe auf die biblischen Texte, bei denen es schwer vorstellbar ist, dass sie mit digitalen Methoden durchführbar werden� Dazu zählen insbesondere die traditionsgeschichtliche, 42 die formgeschichtliche, die redaktionsgeschichtliche Analyse und religions-, zeit- und sozialgeschichtliche Fragestellungen, aber etwa auch das Instrumentarium der Narratologie� 39 Limpinsel, Digitalisierung, in Anlehnung an Bourdieu und Wacquant� 40 Limpinsel, Digitalisierung� 41 So auch das Urteil bei Vergari, Aspects, 191. 42 Der Grund hierfür ist, dass Traditionen sich nur schwer konkret beschreibbar fassen lassen� Es gibt vielversprechende aber noch ausbaufähige Ansätze, Topoi beispielsweise mittels Topic Maps zu umschreiben und diese Topic Maps als heuristisches Konstrukt zur Erkennung besagter Topoi zu nutzen� 46 Juan Garcés / Jan Heilmann 7 Hochschuldidaktische Perspektiven 43 Bibelprogramme und Suchmöglichkeiten im Internet (z� B� TLG) werden in den aktuellen Methodenbüchern weitgehend als Hilfsmittel aufgeführt, die als Ersatz traditioneller Hilfsmittel in Form von gedruckten Medien verstanden werden� Dies deutet darauf hin, dass eine wirkliche Integration digitaler Methoden und Forschungsansätze in den Methodenkanon der exegetischen Fächer noch aussteht� Digitale Methoden werden in der Logik analoger Analyseverfahren betrachtet und vermittelt� Dabei ist anzumerken, dass z� B� digitale Literaturverwaltung, computer- oder basierte Verfahren zur Unterstützung des wissenschaftlichen Workflows, digitale Kollaborationsmöglichkeiten zwar gemäß der oben stehenden Definition nicht als digitale Forschungsmethoden im engeren Sinne verstanden werden, aber in didaktischer Hinsicht berücksichtigt werden sollten� Doch wie genau könnten digitale Forschungsmethoden in die Ausbildung in den exegetischen Fächern integriert werden? Welches Wissen und welche Fähigkeiten sind gleichsam als Minimalstandards unabdingbar? Welche Aspekte können darüber hinaus im Sinne einer Spezialisierung angeboten werden? Ein wichtiges Ziel der Integration digitaler Methoden in die Lehre in den Bibelwissenschaften besteht aus unserer Sicht darin, Studierende dazu zu befähigen, mit den Spezialisten aus der Informatik (bzw� mit Spezialisten, die in den DH ausgebildet wurden) produktiv zusammenarbeiten zu können� Diese Fähigkeiten benötigen nicht nur zukünftige Forscherinnen und Forscher, die voraussichtlich zu einer Generation gehören werden, für die digitale Methoden in den Geisteswissenschaften zu einer Selbstverständlichkeit werden; vielmehr werden Kenntnisse und Fähigkeiten, die durch die Auseinandersetzung mit den Methoden der digitalen Geisteswissenschaft entwickelt werden, zunehmend insbesondere auch für Lehrerinnen und Lehrer (digitale Lehr-/ Lern-Angebote; Nutzung digitaler Medien durch die Schülerinnen und Schüler usw�) sowie für Pfarrerinnen und Pfarrer (z� B� Angebote der Kirchen im Internet) relevant� Das bedeutet, Studierende müssen in der Lehre der exegetischen Fächer nicht im engeren Sinne lernen, selbst zu programmieren oder sogar eigene Softwarelösungen zu entwickeln� 44 Eine informatische Grundausbildung kann im Rahmen des Curriculums in den Bibelwissenschaften nicht geleistet werden� 43 Weiterführend sei auf die Monographie zur bibeldidaktischen Reflexion neuer, digitaler Medien von S. Scholz verwiesen. Vgl. Scholz, Bibeldidaktik. Diese hat jedoch andere didaktische Kontexte im Blick und nicht die Hochschuldidaktik 44 Hier grenzen wir uns dezidiert von den Lehr-/ Lerninhalten neuerer DH-Studiengänge bzw� von Zielkompetenzen von DH-AbsolventInnen ab, wie sie etwa von P� Sahle beschrieben worden sind. Vgl. P. Sahle, DH studieren! Digital Humanities und Exegese 47 Wünschenswert wären allerdings einige Minimalstandards, die im Rahmen des Curriculums adressiert werden sollten; dazu der folgende Vorschlag zur Ausbildung von Grundkompetenzen digitaler Geisteswissenschaften in der Exegese, wobei wir uns am Kompetenzrahmen des Strategiepapiers der Kultusministerkonferenz „Bildung in der digitalen Welt“ 45 orientieren� Die folgenden Formulierungen verstehen sich als Beschreibung von Zielkompetenzen, die bei Abschluss des Studiums in den exegetischen Fächern als Mindeststandard zu erreichen wäre� 46 Die Studierenden… Suchen, Verarbeiten und Aufbewahren - … kennen und verwenden fachspezifische digitale bibliographische Hilfsmittel (möglichst) im Zusammenhang mit einem Literaturverwaltungsprogramm� - … kennen und nutzen die Grundfunktionen gängiger Bibelprogramme: z� B. für die Konkordanzarbeit, zur Identifizierung von Strukturen, also für die Beantwortung sprachlich-syntaktischer und semantischer Fragestellungen� - … verwenden einfache Datenbankstrukturen, um ihre Forschungsdaten zu dokumentieren� Kommunizieren und Kooperieren - …nutzen digitale Möglichkeiten, gemeinsam exegetische Fragestellungen zu bearbeiten und die Ergebnisse kollaborativ zu formulieren� Produzieren und Präsentieren - … benennen die wichtigsten Strukturmerkmale und Anwendungsbereiche von digitalen Auszeichnungssprachen (XML) in der exegetischen Forschung� - … transkribieren gut lesbare griechische Handschriften (Papyri und frühe Majuskeln) biblischer Texte und zeichnen diese in XML aus� - … nutzen digitale Präsentationsmöglichkeiten (z� B� Blogs, Wikis), um die Ergebnisse ihrer exegetischen Arbeit zielgruppenorientiert darzustellen� 45 Vgl. Sekretariat der Kultusministerkonferenz, 15-18. Für den Kompetenzbereich Schützen und sicher Agieren lassen sich u. E. keine fachspezifischen Kompetenzziele formulieren. 46 Die Perspektive würde sich ein wenig verschieben, wenn die Eingangskompetenzen aus der schulisch-informatischen Ausbildung (im digitalen Zeitalter sind Programmiersprachenkenntnisse eigentlich eine essentielle Kulturtechnik) anders aussehen würden� 48 Juan Garcés / Jan Heilmann Problemlösen und Handeln - … setzen digitale Methoden und Werkzeuge bedarfsgerecht, bezogen auf die exegetische Fragestellung und zielorientiert ein� - … benennen die algorithmischen Strukturen in verwendeten Werkzeugen und setzen diese in einen Bezug zu den etablierten exegetischen Methoden� Analysieren und Reflektieren - … filtern Informationen im digitalen Raum unter der Maßgabe fachspezifischer Relevanz und beurteilen ihre wissenschaftliche Validität anhand von Kriterien wie Nachvollziehbarkeit, Transparenz der Entscheidungen und Schlussfolgerungen, Quellenbezug etc� - … benennen Potentiale digitaler Methoden für die wissenschaftliche Exegese� - … reflektieren und problematisieren Implikationen digitaler Methoden (insbesondere des Einsatzes, der Transparenz bzw� Intransparenz von Algorithmen) und Forschungsansätze für wissenschaftliche Erkenntnisprozesse in der Exegese� Das heißt, dass sie grundlegende analytische Algorithmen kennen und die Auswirkungen der Analyseparadigmen einschätzen können� 47 - … reflektieren die Interdependenz von Medientechnologien und Auffassungen von Texten, insbesondere im Hinblick auf die Textgrundlage wissenschaftlicher Exegese� Um Studierenden zu ermöglichen, Kompetenzen im Sinne dieser Vorschläge zu erlangen, sind curriculare Modifikationen in der Hochschullehre der exegetischen Fächer notwendig� Es wäre zwar möglich, die Ausbildung dieser Kompetenzen vollständig institutionell zu delegieren� So bieten viele Studiengänge Möglichkeiten der Spezialisierung im Rahmen eines Studium-Generale-Programms u� ä�; zahlreiche Universitäten bieten mittlerweile Masterprogramme für DH an; ein besonders vielversprechendes Format erscheint das Zertifikatsprogramm ‚Digital Humanities‘, das an der Universität Passau 48 angeboten wird und im Gegensatz zu den Masterprogrammen einen niedrigschwelligeren Zugang für eine größere Anzahl von Studierenden in geistes- und sozialwissenschaftlichen Fächern erreichen kann� U� E� wäre es aber in mindestens zweifacher Hinsicht suboptimal, das Angebot zur Ausbildung von Grundkompetenzen digitaler Geisteswissenschaft vollständig zu delegieren: a) Die genannten For- 47 Konkret: Studierende verstehen die Theorie hinter der technischen Umsetzung und können fachspezifische Modifikationen selbst vornehmen oder in Auftrag geben. Sie nutzen digitale Werkzeuge (Bibelsoftware, TLG) nicht nur als ‚Black Box‘, sondern können nachvollziehen, was ‚unter der Motorhaube‘ geschieht, welche die Grenzen des so Erreichbaren sind und welche Anpassungen notwendig sind, diese Grenzen zu verschieben� 48 http: / / www.phil.uni-passau.de/ zertifikat-dh/ Digital Humanities und Exegese 49 mate können nur fachübergreifende Kompetenzen der digitalen Geisteswissenschaften an Hand exemplarischer Gegenstände ausbilden� Die Ausbildung fachspezifischer Grundkompetenzen digitaler Geisteswissenschaften ist dagegen auf eine Auseinandersetzung mit dem konkreten fachlichen Forschungsgegenstand angewiesen und bedarf der fachlichen Expertise der jeweiligen Fachvertreterinnen und Fachvertreter. b) Die Integration der Ausbildung fachspezifischer Grundkompetenzen digitaler Geisteswissenschaft in die exegetischen Fächer hat daneben außerdem eine (hoch)politische Dimension und Relevanz, die berücksichtigt werden soll� Es ist eine hochschulpolitische Realität, dass sich die geisteswissenschaftlichen Fächer im Wettbewerb um finanzielle Ressourcen mit Forschungsansätzen im Bereich der Informatik und im Speziellen mit Einrichtungen für DH konkurrieren� Strategien der interdisziplinären Kooperation scheinen in dieser Hinsicht vorteilhafter als solche der institutionellen Abgrenzung zu sein� Dabei darf es natürlich nicht darum gehen, aus rein opportunistischen Gründen bloß einem Trend zu folgen� Das Kriterium für den Einsatz digitaler Methoden in der exegetischen Forschung - und damit auch für die Integration der Kompetenzentwicklung in das hochschulische Curriculum - muss ein zu erwartender fachwissenschaftlicher Erkenntnisgewinn sein� Dass es vielversprechende Anwendungsmöglichkeiten digitaler Methoden in den exegetischen Wissenschaften gibt, versuchten wir oben anzudeuten� Aus der Fachperspektive der Exegese sind die Informatik und die DH weitere Hilfswissenschaften, welche die bereits existierende große Zahl an Hilfswissenschaften im 21� Jh� ergänzt� Und die Entwicklung von Kompetenzen im Bereich der etablierten Hilfswissenschaften (z� B� literaturwissenschaftliche und linguistische, altphilologische, papyrologische, epigraphische und ikonographische Grundkompetenzen) ist ein unhinterfragter Bestandteil des akademischen Unterrichts in den Bibelwissenschaften� In nicht allzu ferner Zukunft wird dies für die DH ebenfalls zutreffen. Die Diskussion darüber sollte in jedem Fall jetzt beginnen. Literatur Büchler, Marco u� a�: Towards a Historical Text Re-use Detection, in: Biemann, Chris/ Mehler, Alexander (Hg�): Text Mining: From Ontology Learning to Automated Text Processing Applications, Cham 2014, 221-238� Büchler, Marco u. a.: Measuring the Influence of a Work by Text Re-Use, in: Dunn, Stuart/ Mahony, Simon (Hg�): The Digital Classicist 2013 (BICS�SP 122), London 2013, 63-79� Carlson, Stephen C�: The Text of Galatians and Its History (WUNT II/ 385), Tübingen 2015� 50 Juan Garcés / Jan Heilmann Dershowitz, Idan u� a�: Computerized Source Criticism of Biblical Texts, JBL 134 (2015), 253-271� Ebner, Martin/ Heininger, Bernhard: Exegese des Neuen Testaments� Ein Arbeitsbuch für Lehre und Praxis, Paderborn 2007� Egger, Wilhelm/ Wick, Peter: Methodenlehre zum Neuen Testament� Biblische Texte selbständig auslegen, Freiburg 6 2011� Finnern, Sönke/ Rüggemeier, Jan: Methoden der neutestamentlichen Exegese� Ein Lehr- und Arbeitsbuch (UTB 4212), Tübingen 2016� Garcés, Juan: The Seventy and Their 21st-Century Heirs� The Prospects for Digital Septuagint Research, in: Clivaz, Claire u� a� (Hg�): Digital Humanities in Biblical, Early Jewish and Early Christian Studies (Scholarly Communication 2), Leiden 2014, 95-143� Gries, Stefan Th�, Statistik für Sprachwissenschaftler, Göttingen 2008� Gurry, Peter J.: The Number of Variants in the Greek New Testament. A Proposed Estimate, NTS 62 (2016), 97-121� Harmon, Steven R�: A Note on the Critical Use of Instrumenta for the Retrieval of Patristic Biblical Exegesis, JECS 11 (2003), 95-107� Holmes, Michael W�: From „Original Text“ to „Initial Text“� The Traditional Goal of New Testament Textual Criticism in Contemporary Discussion, in: Ehrman, Bart D�/ Holmes, Michael W� (Hg�): The Text of the New Testament in Contemporary Research� Essays on the Status Quaestionis (NTTSD 42), Leiden 2 2013, 637-688� Houghton, Hugh A� G�: The Electronic Scriptorium: Markup for New Testament Manuscripts, in: Clivaz, Claire u� a� (Hg�): Digital Humanities in Biblical, Early Jewish and Early Christian Studies (Scholarly Communication 2), Leiden 2014, 31-54� Hue-Gay, Elysabeth u� a�: TEI-Encoding of Text Reuses in the BIBLINDEX Project, in: Büchler, Marci/ Mellerin, Laurence (Hg�): Computer-Aided Processing of Intertextuality in Ancient Languages, https: / / jdmdh�episciences�org/ page/ intertextualityin-ancient-languages Special Issue, erscheint 2017� Jannidis, Fotis, Konzeptpapier Digitale Literaturwissenschaft, online veröffentlicht in: Digitalität� Theorien und Praktiken des Digitalen in den Geisteswissenschaften, 04.07.2016. http: / / digigeist.hypotheses.org/ 114, letzter Zugriff am 18.07.2017. Kenny, Anthony J� P�: A Stylometric Study of the New Testament, Oxford 1986� Klinghardt, Matthias: Das älteste Evangelium und die Entstehung der kanonischen Evangelien (TANZ 60), Tübingen 2015� Limpinsel, Mirco: Was bedeutet die Digitalisierung für den Gegenstand der Literaturwissenschaft? , in: ZfdG 2016, PDF Format ohne Paginierung� DOI: 10.17175/ 2016_009; Erstveröffentlichung: 26.09.2016, letzter Zugriff am 19.07.2017. Mellerin, Laurence: Methodological Issues in Biblindex� An Online Index of Biblical Quotations in Early Christian Literature, in: Vinzent, Markus u. a. (Hg.): Papers Presented at the Sixteenth International Conference on Patristic Studies held in Oxford 2011. Volume 2: Biblical Quotations in Patristic Texts (SP 54), Leuven 2013, 11-32. Mellerin, Laurence: New Ways of Searching with Biblindex, the online Index of Biblical Quotations in Early Christian Literature, in: Clivaz, Claire u� a� (Hg�): Digital Digital Humanities und Exegese 51 Humanities in Biblical, Early Jewish and Early Christian Studies (Scholarly Communication 2), Leiden 2014, 177-190� Merkt, Andreas u� a�: Das Novum Testamentum Patristicum (NTP)� Ein Projekt zur Erforschung von Rezeption und Auslegung des Neuen Testamentes in frühchristlicher und spätantiker Zeit, EC 6 (2015), 573-595� Morton, Andrew Q�: Literary Detection� How to Prove Authorship and Fraud in Literature and Documents, New York, NY 1978� Mealand, David L�: Positional Stylometry Reassessed� Testing a Seven Epistle Theory of Pauline Authorship, NTS 35 (1989), 266-286� Mealand, David L�: The Extent of the Pauline Corpus� A Multivariate Approach, JSNT 18 (1995), 61-92� Mealand, David L�: The Seams and Summaries of Luke and of Acts, JSNT 38 (2016), 482-502� Meins, Friedrich: Digitale Editionen für die Altertumswissenschaften: Eine Auseinandersetzung mit P� Sahles Kritik kritischer Texteditionen, DCO 2 (2016), 49-57� Metzger, Bruce M�/ Ehrman, Bart D�: The Text of the New Testament� Its Transmission, Corruption, and Restoration, New York 4 2005� Mink, Gerd: Problems of a Highly Contaminated Tradition� The New Testament: Stemmata of Variants as a Source of a Genealogy for Witnesses, in: van Reenen, Pieter u. a� (Hg�): Studies in Stemmatology II, Amsterdam/ Philadelphia, PA 2004, 13-85� Mink, Gerd: Contamination, Coherence, and Coincidence in Textual Transmission� The Coherence-Based Genealogical Method (CBGM) as a Complement and Corrective to Existing Approaches, in: Wachtel, Klaus/ Holmes, Michael W� (Hg�): The Textual History of the Greek New Testament. Changing Views in Contemporary Research (SBLTCS 8), Leiden 2011, 141-216� Müller, Darius u� a�: Die Apokalypse� Teststellenkollation und Auswertungen (ANTF 49), Berlin/ Boston, ME 2017� Munson, Matthew: Biblical Semantics� Applying Digital Methods for Semantic Information Extraction to Current Problems in New Testament Studies, Diss� Theologische Fakultät, Universität Leipzig, 2016� Sahle, Patrick: Digitale Editionsformen. Teil 1: Das typografische Erbe; Teil 2: Befunde, Theorien und Methodik; Teil 3: Textbegriffe und Recording (Schriften des Instituts für Dokumentologie und Editorik 7-9), Norderstedt 2013� Sahle, Patrick: DH studieren! Auf dem Weg zu einem Kern- und Referenzcurriculum Milestone 2�3�3� DARIAH-DE� Aufbau von Forschungsinfrastrukturen für die e- Humanities. file: / / / C: / Users/ janhe/ Downloads/ DARIAH-M2-3-3_DH-programs_1_1. pdf, letzter Zugriff am 06.07.2017. Sahle, Patrick: Digital Humanities? Gibt’s doch gar nicht! , in: Baum, Constanze/ Stäcker, Thomas (Hg�), Grenzen und Möglichkeiten der Digital Humanities� ZfdG, Sonderband 1, Marbach u. a. 2015. DOI: 10.17175/ sb001_004, letzter Zugriff am 06.07.2017. Scholz, Stefan: Bibeldidaktik im Zeichen der Neuen Medien� Chancen und Gefahren der digitalen Revolution für den Umgang mit dem Basistext des Christentums (Ökumenische Religionspädagogik 5), Berlin 2012�