KONDE - Kompetenznetzwerk Digitale Edition

Weißbuch

Projekt

Ausgangslage

Editionen als die Erschließung und Verfügbarmachung von Quellen – das umfasst vorwiegend Texte, aber auch Bilder und Artefakte – sind die Grundlage jeglicher geisteswissenschaftlich orientierter Forschung. Digitale Editionen (DE) sind ein Produkt der Digital Humanities (DH), in dem computergestützte Methoden zur Erstellung, Erforschung und Verbreitung von wissenschaftlich fundierten Quellenveröffentlichungen herangezogen werden. Zeichnet sich schon die ‘klassische’ Edition durch historisch gewachsene Diversität aus, erhält dieses Forschungsgebiet durch die Erweiterung um den Aspekt der digitalen Bearbeitung eine weitere Dimension an Komplexität: Neben den wissenschaftshistorisch betroffenen Fachwissenschaften (Editionsphilologie, Historische Hilfswissenschaften) diskutieren und beeinflussen nun auch andere Forschungsbereiche (z.B. Layout- und Texterkennung, Datenvisualisierung, Historische Fachinformatik, Computerlinguistik) die Entwicklung und Umsetzung von DE. Diese Diskussion widmet sich nicht nur der Frage um das Verhältnis von Quelle und Edition, sondern ganz gezielt auch dem Mehrwert, den die Digitalität einer Edition erzeugt. DE sind also eines der grundlegenden Forschungsgebiete in den digitalen Geisteswissenschaften und sind darüber hinaus als Querschnittsmethode von größter Relevanz für deren den interdiszipinären Charakter.

Die DE strebt eine Loslösung der Edition von fachspezifischen Einschränkungen an; das bezieht sich z.B. auf die gravierenden Unterschiede zwischen geschichtswissenschaftlich und germanistisch orientierter Editionswissenschaft. Digitales Edieren eröffnet Forschungsfragen, die über die fachwissenschaftliche Fragestellung hinausgehen bzw. diese ergänzen müssen. DE sind also auch an informationswissenschaftliche Fragestellungen gebunden, wobei hier das Verhältnis von Information und Wissen gegenüber der Benutzbarkeit einer Edition im Mittelpunkt steht.

Einer der Gründe für den Paradigmenwechsel von ‘klassischer’ zu DE ist die Veränderung am wissenschaftlichen Arbeitsplatz, die von einer Transmedialisierung gekennzeichnet ist: Alle editorischen Verfahren werden mittlerweile in einer digitalen Arbeitsumgebung an digitalen Dokumenten ausgeführt. Konsequenterweise sollte daher auch das Ergebnis editorischer Arbeit digital sein. Das schafft gleichzeitig die Grundlage für eine Vielzahl an Derivaten, die neben dem gedruckten Lesetext u.a. Text-Bild-Relation, unterschiedliche Textdarstellungsvarianten, textgenetische Dokumentation, Darstellung und Analysen oder die Auswertungen und Visualisierungen der Textdaten und von in den Texten beschriebenen Daten umfassen kann. Eine Voraussetzung dafür ist aber, dass die Variantenvielfalt innerhalb der digitalen Forschungsumgebung zwar ihren experimentellen Charakter beibehält aber mittelfristig zu generischen Lösungen hingeführt wird, damit nicht nur die Möglichkeit einer vielfältigen Präsentation vorhanden ist, sondern die erarbeiteten Daten auch nach den gängigen Richtlinien einer Langzeitarchivierung (LZA) zugeführt werden können.

Zurzeit gibt es allerdings neben einigen wenigen Repositorien (Fokus: Archivierung) und Arbeitsplattformen (Fokus: Transkription und Publikation) ausschließlich proprietäre Ansätze zu DE, die bislang geringe Akzeptanz in den Fach- und Editionswissenschaften gefunden haben. Das wird zum ersten durch die Arbeit an Datenaustauschstandards insbesondere im Rahmen der Text Encoding Initiative (TEI) aber auch im Kontext von Bildreferenzierung (IIIF) und Metadatenharvesting (Canonical Text Services, correspSearch) angestrebt. Zum zweiten wird an Qualitätskriterien für DE gearbeitet, wie es durch das deutsche Institut für Dokumentologie und Editorik (IDE) im Rahmen seines Rezensionsorgans RIDE, mit den Antragsrichtlinien für literaturwissenschaftliche Editionen der DFG oder Initiativen der MLA vorangetrieben wird. Schließlich bereiten ForscherInnen editionenübergreifende Werkzeuge (CollateX, nodegoat, Pelagios) zur Datenanalyse und -aufbereitung vor, die als individuelle Module in die Genese und Präsentation einer DE eingebunden werden können. Ein Desiderat ist also noch immer eine domänen- und disziplinenübergreifende, modular ausgerichtete Forschungsinfrastruktur, in der die Funktionen des Repositoriums auf eine editorische Arbeitsumgebung und Publikationsplattform treffen, in der editionsspezifische Analysemodule nach Bedarf für Forschungsfragen aktiviert werden können.

Die Universität Graz als Antragstellerin ist durch die Mitarbeit am Marie-Curie ITN "DiXiT" Teil der führenden internationalen Forschergruppe im Bereich DE und kann auf langjährige, einschlägige Erfahrung mit dem Geisteswissenschaftlichen Asset Management System (GAMS) zurückgreifen, in dem eine einheitliche Infrastruktur für die unterschiedlichsten fachwissenschaftlichen Anforderungen verwendet wird. Diese Stellung wird zusätzlich durch die Kooperation am Austrian Centre for Digital Humanities (mit der ÖAW und der Uni Wien), einer Professur der Digital Humanities und dem geisteswissenschaftlichen Forschungsschwerpunkt “Digital Humanities und Digitale Edition” innerhalb und außerhalb der Universität gestärkt.

Ziele

Das vorliegende HRSM-Projekt zielt auf den Aufbau und die Weiterentwicklung einer Forschungs­infrastruktur für DE. Es versteht sich deshalb als eine Maßnahme für die Etablierung der Community im Fachbereich Digitale Geisteswissenschaften in Österreich aber auch darüber hinaus.

Das Projekt zielt ab auf

  1. die Erarbeitung einer Best-Practice Lösung für eine eng in LZA-Repositorien eingebundene Publikationsplattform für DE,
  2. die Erarbeitung eines inhaltlichen und strategischen Konzepts zur Bündelung der Kompetenzen und den Aufbau einer nationalen digitalen Infrastruktur für Editionsprojekte, um den sich wandelnden Anforderungen an Editionen aber auch an moderne wissenschaftliche (digitale!) Forschung gerecht zu werden,
  3. die Entwicklung von Konzepten für eine Übernahme des im Projekt entwickelten Referenzmodells für DE durch einschlägige Gedächtnisinstitutionen,
  4. die Definition von Workflows und Standards für die systematische und institutionenübergreifende Digitalisierung und Zurverfügungstellung von Quellenmaterial,
  5. die Entwicklung von Prototypen zur Texteingabe bei der Erfassung handschriftlicher (historischer) Dokumente in Abstimmung mit, aber auch in Erweiterung der geltenden Standards auf einer möglichst fein codierten Mikrotransliteration (mehrschichtig-dynamische Editionstechnik) und damit sowohl paläografische, text- als auch sprachanalytische Untersuchungen unterstützt,
  6. die (Weiter)entwicklung von Werkzeugen für die Verarbeitung des digitalen Materials mittels (semi)automatischer Verarbeitungsschritte (z.B. Texterkennung in Handschriften und Inschriften, heuristische und inferenzstatistische Auffindung von strukturellen Zusammenhängen in und empirische Analysen von Sprach- und Textkorpora etc.) und deren systematische Auswertung (z.B. Bildanalyse, Metadatenanreicherung, Directed Information, Graphical Models, Word Embeddings, Interaktions- und soziale Netzwerke etc.),
  7. den Aufbau und die Etablierung einer einschlägigen Fortbildungsinfrastruktur zur Vermittlung der im Projekt erarbeiteten Standards,
  8. den Aufbau und die Schaffung von Best-Practice Beispielen von Open Source und Open Access Strategien für DE im Sinne zeitgemäßer Open Science Richtlinien.