Die Wissensspeicher der Zukunft werden Netzwerke sein. Diese Ansicht vertritt Prof. Dr. Jürgen Renn vom Max-Planck-Institut für Wissenschaftsgeschichte. Wie Netzwerke die Produktion und Verbreitung von Wissen beeinflussen, davon berichtet Prof. Renn in seinem Vortrag im Rahmen der Tagung "Die Zukunft der Wissensspeicher". Dabei liefert er nicht nur begriffliche Überlegungen, sondern gibt auch historische Beispiele für Wissensnetzwerke von der Antike bis in die Neuzeit. Hiervon ausgehend werden im Anschluss Prognosen und Forderungen für das Internet als Wissensnetzwerk der Zukunft formuliert.
Die Zukunft der Wissensspeicher. Forschen, Sammeln und Vermitteln im 21. Jahrhundert
Zwei Tage lang tauschten sich Anfang März Wissenschaftlerinnen und Wissenschaftler in der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste in Düsseldorf über ihre Erfahrungen bei der Speicherung von Wissen in Bibliotheken, Museen und Archiven aus. In zwölf Beiträgen wurden Dynamiken des Wissens, Wissensräume und Wissenswege entworfen und zur Diskussion gestellt. Präsentationen aus der Praxis und Reflexionen über die Folgen des digitalen Wandels ergänzten sich und regten dazu an, konkrete digital verortete Projekte kritisch zu überprüfen
Reaktionen auf den Beitrag
Kommentar
Kommentar
In einzelnen Situationen müssen die Interessen der Wissenschaft sicher auch nach außen - also z.B. gegenüber der Wirtschaft oder der Politik - vertreten werden, etwa in der Frage der Netzneutralität oder bei Lizenzstreitigkeiten. In erster Linie sind die angesprochenen Probleme aber doch Interna des Wissenschaftsbetriebs. Renn spricht dies im Zusammenhang mit OpenAccess und seiner Forderung nach einem Umbau der Wissensökonomie an. Wissenschaftliche Institutionen sind froh, keine Abonnements mehr zahlen zu müssen. Das Bewusstsein, dass die zuvor an die Verlage delegierten Tätigkeiten nun intern geleistet werden müssen und Investitionen in Personal und Infrastruktur erfordern, ist meistens geringer ausgeprägt. Analog werden Institutionen zunehmend weniger Softwarelizenzen zahlen, dafür aber mehr Programmierer anstellen.
Natürlich ist es betrüblich, beim Kampf um eine bessere Zukunft von wenig flexiblen Institutionen wie Universitäten abzuhängen. Dennoch, so finde ich, hätte Renn seinen Vortrag weniger besorgt und dafür tatendurstiger beschließen können. Bekanntlich gibt es nichts gutes, außer man tut es. Leider sind Wissenschaftlerinnen und Wissenschaftler bei der Entwicklung leistungsfähiger, offener Infrastrukturen oft seltsam abwesend.
Seit einiger Zeit beschäftige ich mich mit der Abbildung von Forschungsdaten mittels des Ressource Description Frameworks (RDF, http://www.w3.org/TR/rdf11-primer/). Eifrig eingesetzt wird diese Technologie einzig in der Biologie, vereinzelt auch in anderen Naturwissenschaften. In den meisten Wissenschaftsbereichen ist sie aber kaum bis gar nicht bekannt, obwohl es sich hier um eine der vielversprechendsten Technologien zum Aufbau semantischer Infrastrukturen (wie von Renn gefordert) handelt. Wenn es um die technische Umsetzung dieses idealistischen Konzeptes in Software zum Aufbau eines 'Semantic Web' (http://www.w3.org/standards/semanticweb/) geht, fällt die Aufgabe einmal mehr an kommerzielle Anbieter, vor allem weil entsprechende Investitionen von Seiten der Wissenschaft fehlen (dankbare Ausnahme ist dabei das Vitro Framework, http://github.com/vivo-project/Vitro).
Auch bei der Bereitstellung technischer Infrastruktur und im Bereich der 'Client-Server-Asymmetrie' sehe ich wenig Grund zum Verzagen. Kürzlich bin ich auf gleich zwei Softwarelösungen - CKAN (http://ckan.org/) und VIVO (http://vivoweb.org/) - gestoßen, welche den Aufbau von Datennetzwerken ermöglichen, die sich aus autonomen Installationen zusammensetzen. Diese stehen vollkommen unter Kontrolle der teilnehmenden Institutionen (analog zu ähnlichen Lösungen als Alternative zu kommerziellen sozialen Netzwerken, wie z.B. Diaspora, http://diasporafoundation.org/). Auch hier sind die technischen Mittel gegeben. Es ist an der Wissenschaft, in die Entwicklung und Weiterentwicklung sowie in die Installation und Wartung solcher Systeme zu investieren.
Leider beobachte ich in meinem wissenschaftlichen Umfeld ein weitgehendes Desinteresse bis hin zu Abneigung gegenüber elektronischer Datenverarbeitung. Ich habe den Eindruck, dass man sich kommerziellen Anbietern eher an die Brust wirft, als dass diese uns irgendetwas wegnehmen. Stattdessen fehlt ein Bewusstsein für digitale Infrastrukturen und die Realisierung der Tatsache, dass (zumindest grundlegenste) Programmierkenntnisse längst zum Handwerkszeug der meisten Wissenschaflerinnen und Wissenschaftler gehören sollten.
Kommentar
Die neuen Möglichkeiten kollaborativer Arbeit, wie Wiki-Technologien und verteilte Versionsverwaltungssysteme, umgehen zentralisierte Strukturen wie Fachzeitschriften, institutionelle Verbünde und wissenschaftliche Gesellschaften (vgl. das Beispiel zur Renaissance der Relativitätstheorie), um sich wieder der Arbeitsweise des Tractatus de Sphaera anzunähern. Mehrere Forschende führen gemeinsam ein Werk fort und erhalten es durch ständige Reproduktion auf aktuellem Stand und in leistungsfähigem Zustand (vgl. OpenSource Software).
Im Unterschied zu mittelalterlichen und frühneuzeitlichen Kopierarbeiten können die individuellen Beiträge zur Änderung des Gesamten sehr viel feiner den einzelnen Beitragenden zugewiesen werden. Autorenschaft bezieht sich nicht auf das Werk, sondern auf einzelne Revisionen, Kommentare, Commits oder Blobs. Zumindest die letzten beiden Nennungen zeigen, dass moderne Netzwerktechnologien spätestens seit der Jahrtausendwende eine Phase der 'Spiegelung konventioneller Strukturen' überwunden hat und eine eigene Strukturierung von Wissensinhalten schafft. Diese orientiert sich nicht an der Selbstdeklarierung der Verfassenden, sondern an der Programmlogik der von ihnen verwendeten Sprachen. Zudem besteht heute die technische Möglichkeit, Werke auf verschiedenen Ebenen ('Zweigen') weiterzuentwickeln und diese Versionen danach wieder zusammenzuführen, ohne dabei die Metainformationen über die Genese des Werkes zu verlieren. Diese Entwicklungen kann man doch wohl mit Fug und Recht als qualitative Quantensprünge des Traktatwesens bezeichnen.
Die Beschäftigung mit historischen Wissensnetzwerken hat, wie alle historische Forschung, zwei Gesichter: Was wissen wir über die Vergangenheit und was wissen wir nicht? Ein Großteil antiker Netzwerke zur Wissensvermittlung bleibt uns notgedrungen unbekannt. Nach welchen Gesetzmäßigkeiten zirkulierten die menschlichen Wissensträger? Wie viele und welche vergänglichen (oder auch unvergänglichen) Speichermedien gab es, die nicht bis in unsere Zeit überdauert haben?
Diese Betrachtung ruft das schwerwiegendste Problem der digitalen Wissensvermittlung ins Gedächtnis. Welche bleibenden Werke hinterlassen unsere leistungsstarken und effizienten Werkzeugen kommenden Generationen? Vielleicht sollten wir uns bei aller Bemühungen zur Schaffung eines 'Web des Wissens' mehr Sorgen noch um die materielle Nachhaltigkeit dieser Prozesse machen?