Mit dem Titel „Zukünfte des digitalen Kulturerbes“ reiht sich das fünfte Vortragspanel in den visionären Kanon der DHd2022 Konferenz ein. Unter dem übergeordneten Motto „Kulturen des digitalen Gedächtnisses“ umfasst die 8. Jahrestagung des Verbands „Digital Humanities im deutschsprachigen Raum“ die ganze Breite digitaler Forschungsstrategien in den Geisteswissenschaften im Hinblick auf Erinnerungskultur.
Mut zur Lücke. Das Wissen um die blinden Flecken in den Digital Humanities
Ein Konferenzbericht zum fünften Vortragspanel „Zukünfte des digitalen Kulturerbes“ der 8. Jahrestagung des Verbands „Digital Humanities im deutschsprachigen Raum“.
Dieser Kanon, der vielleicht vielmehr als „Anti-Kanon“ bezeichnet werden sollte, setzt sich mit aktuellen und künftigen Potenzialen digitalen Arbeitens mit Kulturerbe auseinander. Die Bezeichnung „Anti-Kanon“ ist dabei keineswegs negativ zu deuten, sondern viel mehr als progressives und mutiges Erforschen digitaler Methoden an den Grenzbereichen bestehender Disziplinen. Dieses mutige Erforschen lässt es zu, etwaige Fehlstellen in der eigenen Praxis zu erkennen und wissenschaftlich zu reflektieren. Dabei ist es diese enthüllende Fertigkeit, die die Digital Humanities als „Transformationswissenschaft“[1] und Bindeglied technischer und geisteswissenschaftlicher Disziplinen so wertvoll macht.
In dem fünften Vortragspanel „Zukünfte des digitalen Kulturerbes“, moderiert von Miriam Rürup vom Moses Mendelssohn Zentrum, Potsdam, vereinen sich drei Vorträge unterschiedlicher Natur und Methodik. Während Michael Krewet und Philipp Hegel, die ersten Panelisten, die Möglichkeiten und Grenzen digitaler Verfügbarmachung und Annotation aristotelischer Handschriften ausloten, widmet sich Gerben Zaagsma den sozio-politischen Fragestellungen im Umgang mit Digitalisierung von Kulturgut. Anschließend lenkt Nicole High-Steskal den Blick auf das Thema Inklusion und die Nutzung von Sprache zur Zugänglichkeit von Kulturerbe.
Mit dem Titel „Die Aktualität des Unzeitgemäßen. Mikrofilme des Aristotelesarchivs im digitalen Zeitalter“ sprechen Krewet und Hegel eines der Kernprobleme digitalen Arbeitens mit Kulturerbe an, nämlich der Lizenzierung und in der Folge Zugänglichkeit von Bildmaterial, in diesem Fall Digitalisaten der aristotelischen Handschriften. Die vom Aristotelesarchiv online zur Verfügung gestellten digitalisierten Handschriften sind aufgrund ihrer diversen Eigentumsverhältnisse und Nutzungsrechte nur zu gewissen Bedingungen einsehbar und nutzbar. Dabei unterscheiden Krewet und Hegel zwischen der Verfügbarkeit der digitalisierten Bilddateien und der entsprechenden Metadaten. Für jeweils beides gibt es standardisierte Schnittstellen, die eine nachfolgende Auswertung der Forschungsdaten wie zum Beispiel semantische Annotationen, möglichen machen. Während dabei Metadaten allen Nutzer:innen offen zur Verfügung stehen, können Nutzer:innen mit eingeschränkten Zugriffsrechten nur auf die Metadaten, nicht aber das Bildmaterial zugreifen. Zusätzlich wird gemäß Hegel aktuell bereits eine reine Textfassung der Handschriften verfasst, welche anstatt der digitalisierten Bilder treten soll und allen Nutzer:innen verfügbar gemacht werden könne.
Dabei werfen Hegel und Krewet die Frage auf, ob die reinen Metadaten und Annotationen ohne Zugriff auf die Digitalisate der Handschriften überhaupt einen Nutzen haben können. Die Referenten kommen dabei zu dem Schluss, dass die reinen Metadaten durchaus auch objektunabhängig nutzbar sind, da sie einen selektiven Forschungsfokus auf Bereiche wie gestalterischen Zusammenhang oder auch der Auswertung der Transkriptionen und Inhalte erlauben. So werden die Daten des Aristotelesarchivs in ihrer Gesamtheit zwar nicht den FAIR Prinzipien (Findability, Accessibility, Interoperability, Reusability) gerecht, doch kann dieser Hemmschuh mittels digitaler Methoden zu einem gewissen Maße umgangen werden, wodurch die Inhalte der Handschriften sekundär verfügbar gemacht werden können.[2]
Angesichts der Tatsache, dass nur wenige Expert:innen dazu in der Lage sind, aristotelische Handschriften zu entziffern, dürfte die digitale Transkription und Annotation für den Großteil der sich mit dem Fachgebiet beschäftigenden Wissenschaftler:innen oder Interessent:innen am Ende von größerem Nutzen sein, als die ursprüngliche Handschrift als Scan des Mikrofilms alleine.
Die Frage der Zugänglichkeit kulturellen Erbes im digitalen Raum ist jedoch nicht nur eine juristische, sondern auch eine politische, wie der zweite Vortrag „The Digital Archive and the Politics of Digitization“ von Gerben Zaagsma deutlich herausstellt. Zaagsma befasst sich mit der Frage nach den politischen Rahmenbedingungen der Digitalisierung und deren Auswirkungen auf die Geschichtswissenschaft. Dabei konstatiert Zaagsma, dass die Digitalisierung und die anschließende Kuration der Digitalisate bereits eine erste Selektion darstellen, also nicht neutral sind und bei der darauf aufbauenden Forschung berücksichtig werden müssen. Als Konsequenz unterstreicht der Referent die Notwendigkeit einer kritischen Betrachtung von Werkzeugen, Methoden, Algorithmen, Code, Interface und digitalen Quellen und verweist auf die damit verbundenen Risiken, die dem demokratisierenden Potenzial der Digitalisierung inhärent sind. Gemäß Zaagsma handelt es sich dabei historisch betrachtet, um eine Bewegung weg vom technischen Determinismus hin zu einem methodologischen und epistemologischen.
Als „politics of preservation“[3] beschreibt Zaagsma in diesem Zusammenhang die bereits bestehenden Beschneidungen wissenschaftlicher Primärquellen durch die archivarische Auslese und Zusammenstellung und bezeichnet Archive im Allgemeinen als „powerful actors and potential gatekeepers, in the production of historical knowledge“[4]. Die Digitalisierung dieser Archivalien würde damit zu einer Selektion der Selektion und vermutlich impliziert Zaagsma dabei, dass in den seltensten Fällen gesamte Archivkonvolute digitalisiert werden. Die Begründung hierzu bleibt Zaagsma jedoch schuldig, auch wenn davon ausgegangen werden kann, dass es zumeist budgetäre oder kapazitive Gründe haben wird, dass archivalische Bestände nur selektiv digitalisiert werden.
Im Weiteren umreißt Zaagsma die grundlegende Vernetztheit von Archiven mit der Konstruktion von vielfältigen Identitäten und Erinnerungen auf lokaler, regionaler, nationaler, globaler, glokaler[5] und supranationaler Ebene. Dabei spielt die Nation als strukturgebendes Element insofern eine essenzielle Rolle, als dass das Verständnis von ‚Nation‘ selbst zunehmend auf digitaler Ebene diskutiert wird. Darüber hinaus verweist Zaagsma auf die Problematik des Postkolonialismus und das Spannungsverhältnis zwischen dem globalen Norden und dem globalen Süden, sowohl in politischer als auch in ökonomischer Hinsicht. Die Herausforderung europäischer Kulturinstitutionen besteht im Besonderen darin, die Kolonialgeschichte Afrikas in ihren Digitalisierungsvorhaben zu reflektieren und zu berücksichtigen, da die Digitalisierung von nationalem Kulturerbe ebenso wie die Objekte selbst identitätsstiftend ist.
Das bereits erwähnte Spannungsverhältnis zwischen dem globalen Norden und globalen Süden spiegelt sich in der statistischen Auswertung der digitalisierten Kulturgüter wider. Bezüglich der Menge digitalisierter Objekte überrascht der weite Vorsprung Westeuropas und Nordamerikas wenig und lässt sich vor allem ökonomisch und strukturell begründen. Doch auch wenn der globale Norden relativen Vorsprung in der Digitalisierung von Kulturgütern genießt, so ist bisher nur ein Bruchteil der vorhandenen Kulturgüter digitalisiert worden. (Z.B. sind in europäischen Museen erst 31% aller Güter digitalisiert worden[6].). Zaagsma macht darauf aufmerksam, dass diese unsichtbare Lücke nicht digitalisierter Objekte beim wissenschaftlichen Umgang mit digitalen Kulturdaten mitgedacht und reflektiert werden muss.
Zusammenfassend nennt Zaagsma sechs „Digital Cultural Heritage Transparency Guidelines“: „Funding, Selection criteria, Metadata, Access, Interface and Search options, Links to relevant “offline” sources”[7], die das digitale historische Arbeiten strukturieren sollen. Außerdem ist das kritische Hinterfragen digitaler historischer Ressourcen sowie die Zusammenarbeit mit digital arbeitenden Archivar:innen und Bibiothekar:innen von grundlegender Bedeutung für das politische Bewusstsein und die Verantwortung im Rahmen der Digitalisierung von Erinnerungskultur. Abschließend verweist Zaagsma mit besonderem Nachdruck darauf, dass die noch nicht digitalisierten Objekte nicht in Vergessenheit geraten dürfen, und fordert ein Nachdenken darüber, wie diese in den Digital Humanities berücksichtigt und mit einbezogen werden können.
Beim Thema Zugänglichkeit und Verfügbarkeit dürfen jedoch nicht nur non-digital Objekte nicht vergessen werden, sondern auch der Bereich Inklusion sollte beim digitalen Arbeiten durchweg mitgedacht werden. Nicole High-Steskal veranschaulicht in ihrem Vortrag „What’s in a name? Die Rolle der Sprache zur Kultivierung von inklusiven Zugängen zu Kulturerbe“, dass die Forschung der Digital Humanities zum gegenwärtigen Zeitpunkt auch sprachlich stark westlich geprägt ist und damit Nationen anderer Landessprachen den Zugang zu digitalem Kulturerbe erschwert. Bezeichnet wird dieser Umstand als ‚Monolingualism‘, ‚Linguistic imperialism‘, ‚Language bias‘ oder ‚Western code‘.[8] Die Basis für High-Steskals Vortrag bildet das CELSUS-Projekt (Corpus of Ephesian Literature) am Österreichischen Archäologischen Institut (ÖAI) der Österreichischen Akademie der Wissenschaften (ÖAW), dessen Ziel es war, Ephesos-Publikationen des ÖAI zu digitalisieren und Open Access zur Verfügung zu stellen. Vor allem sollte damit der Zugriff auf die österreichische Datenbasis für türkische Kolleg:innen verbessert werden.
Als Leitlinien ihres Vortrags nennt High-Steskal Sprache, Netzwerke und Technologie als Schlüssel zu Inklusion. Dabei ist die Einbindung der Landessprache einer Nation, dessen Kulturerbe digital erfasst und erforscht werden soll, nicht nur eine Frage der Inklusion. Gemäß High-Steskal kann die Landessprache, in die das Kulturerbe eingebunden ist, auch inhaltlich von Bedeutung sein. Im Falle des CELSUS-Projektes erläutert High-Steskal beispielhaft den Nutzen der dreisprachigen Übersetzung eines Ephasos-Reiseführers in Deutsch, Englisch und Türkisch. Mittels dieses Reiseführers konnte das Corpus um eine Reihe von Begrifflichkeiten auf allen drei Sprachen erweitert und online zur Verfügung gestellt werden.
Doch nicht nur das Sprachverständnis selbst ist relevant für eine wissenschaftliche Arbeit unter FAIR und CARE (Collective Benefit, Authority of Control, Responsiblity, Ethics) Prinzipien, sondern auch die Vernetzung der Wissenschaftler:innen untereinander ist bedeutsam in Bezug auf Inklusion. Dabei kritisiert High-Steskals die Ballung gegenseitiger Rezeption im globalen Norden und stimmt dabei mit Zaagsmas Argumentation des Spannungsverhältnisses zwischen globalem Norden und Süden überein. Durch das Fehlen von mehrsprachigen Übersetzungen werden Publikationen aus dem globalen Süden oftmals in der Forschung des globalen Nordens nicht berücksichtigt. High-Steskal verweist dabei auf das Netzwerk GO::DH, das „versucht durch eine offene Publikationsplattform, interkulturellen und transdisziplinären Ansätzen aus unterrepräsentierten Regionen eine Bühne zu bieten und dadurch verstärkt die Bildung von Netzwerken zu unterstützen“[9].
Als Negativbeispiel berichtet die Referentin von einer experimentellen Reverse-Image-Suche, welche unbekannte und nicht verlinkte Übersetzungen der Ephasos-Topologie auf weiteren Sprachen hervorbrachte. Diese waren weder über Wikidata noch über Geodaten auffindbar. Dieses Beispiel steht dabei symptomatisch für die Notwendigkeit einer globalen wissenschaftlichen Vernetzung.
Damit diese Vernetzung praktiziert werden kann, muss jedoch ebenso die notwendige Technologie zur Verfügung stehen. Dazu gehört die Stromversorgung, eine stabile Internetverbindung, Computerzugang und Lizenzen für bestimmte Programme. Gerade für Wissenschaftler:innen in Ländern, in denen obige Kriterien nicht der Standard sind, ist es wichtig, diverse Bearbeitungsmöglichkeiten von Plattformen (z.B. über das Mobiltelefon) anzubieten.
Sowohl in der technischen, sprachlichen und strukturellen Bearbeitung digitaler Kulturdaten als auch in Bezug auf politische Perspektiven und Zugangsfragen kann als gemeinsamer Konsens des fünften Panels der Begriff der „Diversität“ gefolgert werden. Beim Nachdenken über die Zukunft der Digital Humanities scheint es sich also klar herauszukristallisieren, dass den Herausforderungen im Rahmen neuer, transdisziplinärer Forschungsmethoden nicht nur technisch-praktisch begegnet werden muss, sondern vor allen Dingen und mit größter Aufmerksamkeit auch sozio-strukturell und multikulturell.
Dieser Beitrag entstand im Rahmen eines Reisestipendiums der Gerda-Henkel-Stiftung.