Login

Registrieren
merken
Julia Menzel | 29.12.2018 | 332 Aufrufe | Artikel

Symposium „Forschungsinfrastrukturen in den digitalen Geisteswissenschaften. Wie verändern digitale Infrastrukturen die Praxis der Geisteswissenschaften?“ (26. bis 28. September 2018)

Tagungsbericht von Anja Fischer

Die Digital Humanities stehen im Zentrum intensiver Diskurse, wobei die Frage nach der Daseinsberechtigung im Vordergrund steht. Dürfen sie als eigenständige Fachdisziplin mit Studium und Lehre angesehen werden oder ist DH nur eine Modeerscheinung, die ihre Blüten in diversen anderen Fachbereichen treibt, um dort die Forschung durch digitalisierte Datenmengen zu durchsetzen? Das Symposium zeigt in den Vorträgen die Grenzen der Digital Humanities auf, aber auch, an welchen Stellen ein Nutzen durch die Aufbereitung und Digitalisierung von Daten entstehen kann.

Das Symposium an der Universität Bayreuth wurde durch Sybille KRÄMER, Martin HUBER und Claus PIAS eröffnet, welche die geladenen Referent*innen und Gäste an allen weiteren Tagen durch das dreitägige Programm führten.            
Den ersten Vortrag präsentierten Hanno EHRLICHER und Jörg LEHMANN, die anhand der Revistas culturales 2.0 zeigten, dass die Digitalisierung den Forschungshorizont von einst nationaler Ebene auf eine internationale anhebt. Revistas culturales 2.0 erweitert die klassische Herangehensweise in der literaturwissenschaftlichen Forschung um den Punkt der Datenerhebung und deren Analyse, indem digitalisierte spanischsprachige Kulturzeitschriften studiert und vom Forschenden individuell – abhängig von seiner Fragestellung oder seinen Forschungsmethoden –  katalogisiert und zugeordnet werden. Dies bietet den Vorteil, dass die Forschenden nicht im Vorfeld von klassischen Etikettierungssystemen beeinflusst werden, wie es sonst in Bibliotheken der Fall ist. Ressourcenmangel führt im Bibliothekswesen dazu, dass die Klassifizierungen nicht immer auf Richtigkeit überprüft werden können oder alten Standards unterliegen und somit nicht viel Raum für Interpretation ermöglichen. Berechtigterweise endete der Vortrag mit der Frage, wie der Dialog zwischen Forschung und Bibliothekswesen in Zukunft aussehen sollen, damit den Forschenden mehr Freiheit für Interpretation, Forschung und Methoden gegeben werden könne. Möglicherweise muss die Kernkompetenz der Bibliotheken, das klassische Katalogisieren, an den Forschenden übertragenen werden; interdisziplinär, um eine internationale Vernetzung der Disziplinen zu ermöglichen und die Freiheit in Forschung und Methode zu gewähren.      

Gunhild BERG schilderte in ihrem Vortrag, dass einst die industrielle Revolution für Umbrüche im menschlichen Zusammenleben sorgte. Diese Revolution war Initialzündung für weitere bahnbrechende Erfindungen, Globalisierung, für Umwälzungen in der Forschung und Grundlage für den Erkenntnisfortschritt, der die Entwicklung der Zivilisation maßgeblich beeinflusste. Sie zeigte auf, dass die Digitalisierung ebenfalls einen Paradigmenwechsel hervorruft, denn zeitliche und räumliche Distanzen wurden bereits völlig aufgebrochen. Der Fortschritt in der Digitalisierung liege darin, dass Daten allgemein zugänglich gemacht werden und somit Wissen aller Disziplinen offen liege. Für die Forschung im Allgemeinen bedeute das nun, dass die Grenze zwischen Experiment und geisteswissenschaftlichen Disziplinen vollständig verschwimme, was der eigentliche Paradigmenwechsel sei, denn sie teilten sich in der Anwendung der Methoden nun dasselbe infrastrukturelle Netz. BERGS Vortrag leitete damit zum nächsten Vortrag über, der sich mit der Forschungsdatenkultur als Utopie oder Dystopie beschäftigte.      

Heike NEUROTH und Ulrike WUTTKE erörterten anhand mehrerer Projekte, vor welchen Herausforderungen und Problemen die Geisteswissenschaften in Bezug auf Forschungsdaten stehen und was schon erreicht worden ist. Fehlender Konsens in den Geisteswissenschaften über die Definition der Forschungsdaten, die Standardisierung der Metadaten sowie über Annotationen führen zur Stagnation in der Digitalisierung und Organisation der vorhandenen Daten. Projekte, die sich zumeist mit Digitalisaten eines Autors befassen oder einen zeitlich oder thematisch begrenzten Abschnitt einer Epoche betrachten, zeigen verschiedene Nutzungsszenarien auf, unterliegen aber zum Teil ebenso Paradigmen analoger Editionen. Die Konklusion des Vortrags war, dass zwar eine Tendenz zur Standardisierung der Metadaten vorhanden sei, eine völlige Strukturierung der Daten, die international Verwendung finden kann, momentan praktisch aber nicht realisierbar erscheine.

Den culture clash zwischen Natur- und Geisteswissenschaft beschrieb Bernhard RUNZHEIMER mit eindrücklichen Beispielen. Mittels des Projekts Handschriftencensus (HSC) wurde die prekäre Situation verdeutlicht, in der sich viele Vorhaben befinden. Arbeitsbeziehungen seien zum Teil durch Klischees vorbelastet oder scheiterten schon daran, dass kein Konsens zwischen den Mitarbeitern gefunden werden könne, wohin das Projekt letzten Endes gehen soll. Zusätzlich zum potentiellen zwischenmenschlichen Desaster geselle sich noch die Aufarbeitung veralteter Systeme, beispielsweise Datenbanken aus dem vorigen Jahrzehnt. Als wäre dies noch nicht genug, würden Projekte auch durch eine zu dünne Personaldecke gefährdet. Zum Schluss ist zu sagen, dass er herausarbeiten konnte, vor welchen mehr oder weniger trivialen Problemen die Geisteswissenschaften bei der Digitalisierung stehen können.

Das erste Keynote wurde von Michael HAGNER vorgetragen, der sich mit Open Access (OA), wissenschaftlichen Publikationen und digitalem Kapitalismus befasste. Wissenschaftliche Publikationen standen für lange Zeit nur einem begrenzten Publikum zur Verfügung, da sie von internationalen Großverlagen in Zeitschriften publiziert wurden, die nur durch Bibliotheksabonnements zur Verfügung standen. Innerhalb der nächsten Jahre werde es in der EU zu einer rigorosen Open Access Politik kommen, bei welcher die Folgekosten bisher nicht errechnet worden seien. Der Anspruch der Allgemeinheit, populistisch betrachtet der Anspruch der Steuerzahler, welche die Wissenschaft zu Teilen finanziere, auf den öffentlichen Zugang zu wissenschaftlichen Texten jeglicher Art sein zwar ein legitimer, allerdings ergebe sich dadurch die Frage, welche Schriften als OA vorliegen müssen und welche auch in der Bibliothek nachgeschlagen werden können. Für kommerzielle Anbieter sei das Bedürfnis nach Zugänglichkeit zu möglichst vielen wissenschaftlichen Texten ein lukratives Geschäft, unter welchem allerdings die Qualität leide, denn die Kriterien der Veröffentlichung würden erodieren. Ein weiterer Kritikpunkt war die Bevormundung der Wissenschaftler*innen, die selbst über die Veröffentlichung ihrer Arbeiten entscheiden sollten, aber durch OA zum Publizieren gezwungen seien. Neben den Naturwissenschaften seien nun auch vermehrt die Geisteswissenschaften von OA betroffen, wobei hier im Zentrum die Wissenschaftler*innen als Buchautor*innen stünden. Es scheine in Vergessenheit zu geraten, dass OA einst dazu gedacht war, das Monopol der Großverlage aufzubrechen und nicht die Forschenden zu bevormunden. Ein möglicher Lösungsansatz OA voranzubringen sei, eine Kategorisierung der Publikationen (online abrufbare Artikel und Publikationen, die in Bibliotheken der Öffentlichkeit zur Verfügung stehen) zu veranlassen.

Als zweite Keynote am zweiten Tag erläuterte Petra GEHRING, weshalb Infrastrukturen ein Politikum seien und auch die Geisteswissenschaften eine Forschungsinfrastruktur benötigen. In naher Zukunft soll eine Nationale Forschungsdateninfrastruktur ermöglicht werden, die Forschungsdaten deutschlandweit erfasst und sichert. Die bisherigen Insellösungen, die nur einen umständlichen Umgang mit den vorhandenen Daten gestatteten, und die heterogene Datenlandschaft sollen dadurch in einem einfach verzweigten System fusioniert werden. Dieses System soll anschließend auch in die European Open Science Cloud integriert werden, um internationale Forschung ohne Sorge des Datenverlusts zu ermöglichen.

Martin RASPE nahm die Zuhörer mit auf eine Exkursion in die technologische Vergangenheit und zu den Ursprüngen des Computers. An diesem Wendepunkt der Geschichte begann die Arbeitserleichterung für die Forschung und die Entwicklung zu neuen Forschungsmethoden. Er demonstrierte außerdem, welchen Vorteil die Digitalisierung für die Kunstgeschichte mit sich brachte und inwiefern sich die Bilddaten-Repositorien von Metadaten der anderen Geisteswissenschaften unterscheiden. Er zeigte des Weiteren auf, dass ein Datensatz nur so gut ist, wie derjenige, der ihn einträgt. Für Kunsthistoriker eröffne die detailreiche Darstellung im digitalen Bereich einen Erkenntniszuwachs, da selbst Informationen im Mikrobereich betrachtet und studiert werden könnten. Um einen Auszug aus seinem Vortrag zu zitieren, der die Digitalität sehr gut zusammenfasst: „Es ist vielleicht ein Kennzeichen des Digitalen, dass es herkömmliche Kategorien sprengt und nach einer potentiellen Entgrenzung des Wissens strebt“.

Mirjam BLÜMM und Lisa KLAFFKI zeigten mit Hilfe von DARIAH-DE, wie die Einbindung kleinerer Infrastrukturen in eine große offene Infrastruktur gelingen kann. Von der Projektplanung bis hin zur Förderung und Entwicklung wurde das Vorhaben vorgestellt. Ziel des Projekts ist es, dass über die Fachdisziplinen hinaus nützliche Daten auffindbar gemacht und nutzerfreundlich dargestellt werden. Im Folgenden gingen Mark FICHTNER, Tobias GRADL und Canan HASTIK auf die Nachhaltigkeit des Projekts ein und präsentierten die Funktionsweise der Tools. Interessant ist hierbei die präzise generische Suchfunktion, die eine Fehlerbehebung durch umfangreiche Formen der Aggregation durchführt.

Ein weiteres Projekt, vorgestellt von Swantje DOGUNKE und Timo STEYER, bei dem sich um eine verlässliche Infrastruktur bemüht wird, ist der vom BMBF geförderte Forschungsverbund Marbach Weimar Wolfenbüttel (MWW), der zusammen mit dem Literaturarchiv Marbach, der Klassik Stiftung Weimar und der Herzog August Bibliothek Wolfenbüttel die Sichtbarkeit der Forschungsaktivitäten erhöhen will. Die beteiligten Partner versuchen durch Digitalisierungsinitiativen nicht nur die Nachhaltigkeit der Daten zu stärken, sondern auch einen virtuellen Forschungsraum zu schaffen, der Nutzer*innen die Gelegenheit bieten soll, in Kooperativen einer Forschungstätigkeit nachzugehen, ohne durch Lokalität oder Zeit beschränkt zu werden. Abhängig von den Nutzer*innen wurde ein Raum geschaffen, der den Bedarfen aller genügen sollte. Die größte Herausforderung war die Entwicklung der Tools und ihre barrierefreie Nutzbarkeit, auch für Nutzergruppen, die wenig Erfahrung mit virtuellen Forschungsräumen mitbrachten.

Ulrich Johannes SCHNEIDER zeigte im dritten Keynote-Vortrag des Symposiums, dass sich Bibliotheken meist den Bedürfnissen verschiedener Gruppen angepasst haben. Die Wörter „digitale Dienstleister“ aus dem Titel seines Vortrags erinnerten ein wenig an den Einzelhandel und die Anpassung an die Wünsche der Kund*innen. Belegt mit Bildern wurde die Entwicklung der Bibliotheken verdeutlicht – von der analogen Textsammlung hin zum digitalen Raum. Im Zentrum steht hier nicht nur die länderübergreifende Kooperation, um Digitalisate zu erarbeiten, sondern auch der Kontakt mit den Nutzer*innen der Bibliothek. Das Aufgabenspektrum der Bibliotheken sei dabei in den letzten Jahrzehnten gewachsen. Vom Vermitteln von Wissen und Informationen bis hin zur Suchmaschine müsse mittlerweile alles abgedeckt werden. Vor allem die Suchmaschine stelle Bibliotheken vor eine Problematik, was das Metadaten-Management betreffe. Als größtes Problem kristallisierte sich jedoch auch hier der Geldmangel heraus, der in vielen Bereichen die Entwicklung hemmt.

Im letzten Keynote-Vortrag ging Gerhard LAUER auf die Veränderung ein, die in den nächsten Jahren auf die geisteswissenschaftlichen Disziplinen zukommen werden. Außerdem wurde ein Blick auf die Möglichkeiten und Grenzen der digitalen Infrastrukturen geworfen. Auch er stimmte der Bezeichnung einer Revolution in Bezug auf die Digital Humanities zu, denn sie führen zu einer Entgrenzung des Forschungsfeldes. Das Forschen werde insofern vereinfacht, als dass nicht mehr ganze Sammlungen oder Bücher gelesen werden müssen, um ein komplexes Thema zu erarbeiten. Zusätzlich sei es möglich, in virtuellen Bibliotheken an alten Manuskripten zu forschen, ohne diese in der Realität je gesehen zu haben. Des Weiteren führe die Verfügbarkeit verschiedenster Schriften zu einer Erschließung des kulturellen Erbes, wie es bisher noch nie stattgefunden habe. Maschinell können Muster in einem Text erkannt werden und Zuordnungen computergestützt getätigt werden, die von Menschen fehlerhaft durchgeführt werden. Dies wiederum schaffe den größten Reibungspunkt zwischen den klassischen Geisteswissenschaften und den Digital Humanities. Forschungstradition und Kompetenz würden durch neue Methoden scheinbar entwertet. Grundsätzlich biete die Digitalisierung für die Forschung mehr, als sie ihr nehme und müsse deswegen zukünftig vermehrt in der Lehre Einzug halten.

Julia NANTKE machte in ihrem Vortrag auf die Nachteile aufmerksam, die der Fokus auf ‚Standardtexte‘ der literaturwissenschaftlichen Forschung mit sich bringt. Primär im deutschsprachigen Raum falle auf, dass fast ausschließlich männliche Autoren bereits kanonisiert als Gesamtwerke vorliegen und außerdem solche, welche traditionell als zeitlos gelten. Trotzdem könne durch umfangreiche Digitalisierungsmaßnahmen den Forscher*innen Einblicke in Erstausgaben gewährt werden, die ihnen vermutlich sonst verborgen blieben. Im Moment scheine es noch unklar zu sein, ob die Bevorzugung bereits kanonisierter Texte nur eine Übergangsphase sei.

Dass digitale Infrastruktur neue Möglichkeiten für Forschungsfragen schaffen kann, zeigten Michael KREWET und Philipp HEGEL anschaulich am Beispiel aristotelischer Handschriften. Das Werk de interpretatione liegt mit 150 griechischsprachigen Handschriften vor und mache damit eine analoge Erforschung nahezu unmöglich. Hohe Kontamination durch Kopiervorgänge stelle die Forschenden vor ein Rätsel, was die Verwandtschaftsverhältnisse der einzelnen Texte betreffe. Durch Digitalisierung der einzelnen Texte seies möglich, dass eine qualitative und quantitative Auswertung getätigt und ein erster Vergleich angestellt werden könne. Dies sei nur ein Beispiel, wie die Infrastruktur mit passenden Werkzeugen die Forschungsfelder entgrenzen kann.

Abschließend ist zu sagen, dass Bewegung in die Geisteswissenschaften kommt. Viele kleine und große Projekte demonstrieren, wie die Forschung durch digitale Infrastrukturen bereichert wird. Dass mit jeder Revolution auch ein grundlegender Wandel einhergeht, ist allen bewusst – auch wenn dieser Wandel an einigen Stellen sehr schmerzhaft ist und die althergebrachte Ordnung verwirft. Die Frage „Quo vadis“ an die Geisteswissenschaften hat eine klare Antwort: es wird digital.

Programmheft zum Symposium (859.53 KB)

Kommentar erstellen

HJHME6