Simon Ganahl
June 15, 2015 DOI: 10.13095/uzh.fsw.fb.102 editorial review CC BY 4.0 |
print comment |
Keywords:
Tag error: <txp:tru_tags_from_article /> -> Textpattern Notice: tru_tags_from_article tag is not registered while parsing form article_keywords on page default
textpattern/lib/txplib_publish.php:563 trigger_error()
textpattern/lib/txplib_publish.php:409 processTags()
textpattern/publish/taghandlers.php(4301) : eval()'d code:2 parse()
textpattern/publish/taghandlers.php:4301 eval()
php()
textpattern/vendors/Textpattern/Tag/Registry.php:138 call_user_func()
textpattern/lib/txplib_publish.php:559 Textpattern\Tag\Registry->process()
textpattern/lib/txplib_publish.php:409 processTags()
textpattern/plugins/tru_tags/tru_tags.php:121 parse()
tru_tags_if_has_tags()
actor-network |
digital humanities |
digital media |
distant reading |
mapping |
modes of existence
Ein Geist geht um an den ehemals geisteswissenschaftlichen Instituten, denen er bereits ausgetrieben worden war. So tritt dieser Zeitgeist keineswegs durchsichtig auf, sondern ganz handfest, in Nullen und Einsen sozusagen. Denn es hat sich bis in die Dekanate der philosophischen Fakultäten durchgesprochen, dass die jüngeren Kollegen ihre Bücher nicht mehr mit Federkielen schreiben. Man will ja dem Gang der Weltgeschichte nicht nachhinken, auch in der ehemaligen Residenzstadt nicht, und deshalb sucht die Universität Wien nun einen Professor oder noch lieber eine Professorin für Digital Humanities. Es ist also eine digitale Humanistin gefragt, die sich vor allem "mit kritischen Methoden der Digitalisierung, des Umgangs mit Massendaten sowie der semantischen Erschließung und des Forschens mit unterschiedlichen digitalisierten Quellengattungen" auskennt.[1]
Was die Ausbildung angeht, sind etwa ein Doktorat "in einem historisch-kulturwissenschaftlichen Fach verbunden mit fundierten Kenntnissen in der Informatik" erforderlich.[2] Die Wunschkandidatin sollte, mit anderen Worten, Geschichte studiert und Programmieren gelernt haben, um Quellen tief in Datenmeeren zu versenken, aus denen frisches Wissen abgeschöpft werden kann. Ist die Zukunft der Geisteswissenschaften so berechenbar? Sollen sich Absolventen der digitalen Geschichte, Philosophie oder Literaturwissenschaft aussuchen können, ob sie bei Archiven, Geheimdiensten oder Marketingunternehmen arbeiten? Denn die Methoden, mithilfe von Computern Ordnungsmuster in Datenbanken aufzudecken, werden nicht nur in Nationalbibliotheken angewandt, sondern weit professioneller in jenen politischen und wirtschaftlichen Organisationen, die unser Verhalten überwachen und lenken.
Die sogenannten Digital Humanities bedeuten keineswegs den Untergang der Fächer, die an deutschsprachigen Universitäten als Geistes- und Kulturwissenschaften gelehrt werden. Ganz im Gegenteil. Aber das, was Wissenschaftler in Österreich, Deutschland und der Schweiz bisher unter diesem Namen unternehmen, beschränkt das weite Forschungsfeld auf einen gepflegten Nutzgarten. Tatsächlich liegen textanalytische Verfahren am Ursprung der Disziplin: Schon 1949 begann der jesuitische Theologe Roberto Busa, an seinem Index Thomisticus zu arbeiten – eine in Zusammenarbeit mit IBM erstellte Konkordanz der Schriften Thomas von Aquins, die als Pionierarbeit der Digital Humanities gilt. Es waren auch in der Folge Computerlinguisten, die erste Fachzeitschriften und wissenschaftliche Organisationen gründeten. Im Rahmen der Text Encoding Initiative (TEI) setzte sich dann die Extensible Markup Language (XML) als Standard für digitale Editionen durch.
Manifest der Digital Humanities
Kein Zweifel also, dass die Archivierung und Auswertung großer Datenmengen ein wichtiges Gebiet der Digital Humanities darstellt. In den englischsprachigen Ländern, allen voran die USA, haben sich die digitalen Humanistinnen aber längst von ihren Gründervätern emanzipiert. Eine Gruppe rund um den Literaturwissenschaftler Jeffrey Schnapp, der inzwischen in Harvard lehrt, veröffentlichte 2009 ein Manifest, das zu einer qualitativen Wende in den Digital Humanities aufruft. Es gehe nicht darum, massenhaft Daten zu sammeln und zu analysieren, um die Resultate dann in traditionellen Aufsätzen zu publizieren, die eventuell als PDF-Dateien online gestellt werden. Digital Humanities 2.0 grabe vielmehr das akademische Feld um, das sich im 19. Jahrhundert als Wissenschaften vom Menschen an den Universitäten etablierte. Die wichtigsten Konsequenzen sind laut Schnapp und seinen Mitstreitern:
1. Wissenschaftliche Forschung kann und soll nicht nur in Textform publiziert werden. Unsere Gegenwart eröffnet eine Vielzahl von medialen Möglichkeiten, Wissen zu schaffen und zu verbreiten, denen sich die akademische Welt weitgehend verschließt. Gedruckte Artikel und Bücher mögen weiterhin die Medien sein, in denen Theorien entwickelt und große Analysen angestellt werden. Aber wäre es nicht angemessener, die Quellen und Recherchen auf Blogs und Webseiten zu dokumentieren, Ergebnisse in Filmen zu veranschaulichen, auf interaktiven Karten und in mobilen Applikationen Interessierte zur Mitarbeit einzuladen?
2. Um das zeitgenössische Repertoire medialer Praktiken in der Forschung zu entfalten, genügt es nicht, sich neben der fachwissenschaftlichen Arbeit Grundkenntnisse der Informatik anzueignen. Ja, Historiker und Philosophen sollen wissen, was die Computersprachen HTML und CSS regeln, wie Datenbanken im back-end und Benutzeroberflächen im front-end zusammenhängen, welche Formate einen Austausch von Daten erleichtern. Aber ist es ihre Angelegenheit, Programme zu entwickeln, Webseiten visuell zu gestalten? Nein, für diese Aufgaben gibt es Experten, Programmierer und Designer, mit denen Forscher eng zusammenarbeiten müssen. Das heißt, dass Digital Humanities nicht mit dem Typus des isolierten Gelehrten vereinbar sind, sondern Teamwork wie in naturwissenschaftlichen Laboren oder den darstellenden Künsten erfordern.
3. Digitale Humanisten pflegen das geisteswissenschaftliche Denken – die kostbaren Fähigkeiten, Begriffe zu bilden, die Gegenwart historisch zu beleuchten, das kulturelle Erbe zu bewahren. Sie ziehen sich aber nicht in Nischen zurück, sondern versuchen sich als Kuratoren des Wissens, die aus mannigfaltigen Bezügen konsistente Ensembles schaffen. Diese Werke sollen gründlich durchdacht und recherchiert sein, jedoch auch solide finanziert, kollektiv umgesetzt und multimedial veröffentlicht werden. Ihre Leiter müssen deshalb in der Lage sein, größere Forschungsprojekte zu organisieren und ihre Ergebnisse so verständlich wie möglich zu kommunizieren. Denn fern davon, sich nur in Fachsprachen an Experten zu richten, darf das Wissen der Digital Humanities unterhaltsam sein und Massen erreichen.
Virtuelles Flanieren in HyperCities
Zur neuen Generation digitaler Humanisten gehört der Germanist und Judaist Todd Presner, der an der University of California, Los Angeles (UCLA) eine Online-Plattform mit dem Titel HyperCities aufbaute. Das Projekt nutzt Google Maps, um reale Städte im Internet multimedial zu erweitern. Anfangs standen historische Studien im Vordergrund, bei denen gescannte Stadtpläne über die digitale Karte gelegt und mit Archivbildern, Film- oder Tonaufnahmen und 3-D-Modellen animiert werden. HyperCities ermöglicht ein virtuelles Flanieren, das die Zeitschichten gegenwärtiger Orte auffächert. So lässt sich etwa die Ruine des Anhalter Bahnhofs rekonstruieren, wo ab 1942 tausende Juden ins KZ Theresienstadt transportiert wurden, oder herausfinden, dass der Berliner Stadtplan von 1936 die geographische Fläche nach Längen- und Breitengraden exakt abbildet, während in der DDR-Karte von 1977 Ostberlin systematisch vergrößert erscheint.
Zuletzt verlagerte sich der Schwerpunkt auf die Archivierung aktueller Proteste. Von Juni 2009 bis Februar 2010 diente HyperCities zum Beispiel als Plattform, um die Aufstände gegen die iranischen Präsidentschaftswahlen in Teheran zu dokumentieren: Die teilweise minütlichen Einträge markieren die Orte der Erhebungen auf der digitalen Karte, beschreiben kurz das Geschehen und zeigen Fotos oder Videos der Demonstranten, die auf sozialen Netzwerken erschienen waren. 2011 wurden sowohl Twitter-Nachrichten ägyptischer Protestanten in Echtzeit festgehalten als auch Texte und Bilder lokalisiert, die Betroffene des Tsunamis in Japan online verbreiteten. Alle Projektdaten können in der Keyhole Markup Language (KML), einem Standardformat für Geoinformationssysteme, heruntergeladen werden. Außerdem stehen der Quellcode der Datenbank sowie der Benutzeroberfläche von HyperCities im Internet zur freien Verfügung.
Digitale Humanisten wie Presner lassen sich nicht von der Informatik leiten, sondern gehen den geisteswissenschaftlichen Fragen nach, die unsere mediale Gegenwart aufwirft. In seinem Buch HyperCities, das 2014 bei Harvard University Press erschien, beschreibt er thick mapping als ein Verfahren, um der zielgerichteten Geschichtsschreibung zu entkommen.[3] Wenn Geschichte konsequent räumlich verstanden wird, können Ereignisse nicht mehr logisch aufeinanderfolgen. Orte verweisen auf Orte und spannen ein Beziehungsnetz auf, das mannigfaltige Verbindungen erlaubt, Möglichkeitsräume statt chronologischer Abfolgen. Methodisch ist HyperCities mit dem in alle Richtungen wuchernden rhizome verwandt – einem Konzept von Gilles Deleuze und Félix Guatarri, das die Baumstruktur hierarchischer Wissensordnungen ersetzen soll.[4]
Kollektive Analyse von Existenzweisen
Während Presner noch humanistisch träumt, massenweise Biografien zu kartografieren, hat Bruno Latour die "übermenschlichen" Konsequenzen aus dem Rhizom gezogen. In einer Reihe von Studien über die Arbeit in naturwissenschaftlichen Laboren begann der französische Soziologe, Sachverhalte als Netzwerke aus menschlichen und nicht-menschlichen Akteuren zu beschreiben. Seine Untersuchungen zeigten, dass Handlungen keine persönlichen Willensakte zugrunde liegen, sondern Gefüge darstellen, in denen Menschen und Dinge zusammenwirken: Schlüssel schließen Räume ab, Messer schneiden Brot, Seifen entfernen Schmutz usw. Da in den vergangenen Jahren alles Mögliche als Akteur-Netzwerke versammelt wurde, entwickelt Latour sein Verfahren nun weiter, um die Wahrheitswerte zu analysieren, die sich in diesen heterogenen Ensembles ausdrücken. Was ist in den spezifischen Erfahrungen gegeben, welche die europäische Moderne herausbildete? So lautet die grundlegende Frage, die sein aktuelles Buch über die Existenzweisen behandelt.[5]
Es stellt gleichsam eine provisorische Antwort dar, die seit ihrem Erscheinen kollektiv überarbeitet wird. Denn Latour hat mit einem Team aus Forschern, Programmierern und Designern eine Online-Plattform eingerichtet, wo Leser nach der Anmeldung sowohl auf den publizierten Text samt Anmerkungen und Glossar zugreifen als auch persönliche Notizen speichern können. Die Idee ist, die Kulturtechnik des close reading in Zeit und Raum zu erweitern, sodass die Diskussion nicht auf einen Seminarraum beschränkt bleibt. Erwünscht sind allerdings keine anonymen Kommentare, sondern ernsthafte Beiträge, die vor der Publikation auf der Webseite ein Begutachtungsverfahren durchlaufen. Werden die Ergänzungen oder Einwände von den Redakteuren akzeptiert, sollen sie unter Angabe der Autoren in die Neuauflage des Buchs einfließen.
Man wird sehen, ob die finale Version von Existenzweisen als freies, gemeinschaftliches Werk herauskommt oder der Meister und seine Verleger die kreative Menge nur ausgebeutet haben werden. Eine Praxis, die sich als crowdsourcing in Unternehmen längst etabliert hat. Latour geht es mit seinem Experiment jedenfalls um einen Gegenentwurf zu den distant readings, wie sie etwa Franco Moretti an seinem Literary Lab in Stanford durchführt.[6] Anstatt ausgewählte Schriften langsam und genau zu lesen, wertet der italienische Literaturwissenschaftler abertausende Texte aus, die es nicht in den Kanon schafften. Moretti ist ein Makroanalytiker, der die Literaturwissenschaft mithilfe des Computers zu einer quantitativen Disziplin umbauen will. Seine marxistische Haltung tritt in den Studien trotzdem deutlich zutage: einerseits in der betonten Freude am kollektiven und transparenten Forschen, anderseits in den Ergebnissen, die der Vorstellung zuwiderlaufen, dass die Literaturgeschichte von einzelnen Autorengenies vorangetrieben wird.
Allerdings teilt Moretti mit seinen Kollegen, die objektiver auftreten, den Standpunkt, wonach die Fakten der Makroanalysen härter seien als die Interpretationen traditioneller Geisteswissenschaftler. Und so hegen wir den frommen Wunsch, dass jene digitale Humanistin, die künftig am Wiener Universitätsring forschen wird, ganz menschlich, allzu menschlich bleibt. Der Computer beflügelt nämlich den Geist, trägt ihn aus dem Bürofenster über die Residenzstadt und das Reich bis in den Himmel, wo sich die großen Zusammenhänge überblicken lassen, die – einmal erkannt – keinen Raum für Diskussionen mehr lassen. Wer sollte an den Kulturgesetzen zweifeln? Die Maschinen dringen zu den letzten Dingen vor. Unsere digitale Humanistin verweilt hoffentlich bei den vorletzten, um von den Nahaufnahmen, wie es bei Siegfried Kracauer heißt, "beiläufig über das Ganze zu schwenken".[7]
[1] Zit. nach Ausschreibung der Universität Wien unter URL: http://personalwesen.univie.ac.at/fuer-mitarbeiterinnen/professorinnen/job/prof/singleview/article/an-der-historisch-kulturwissenschaftlichen-fakultaet-der-universitaet-wien-ist-die-stelle-einereine-4 (31.5.2015).
[2] Ebenda.
[3] Vgl. Todd Presner u. a.: HyperCities. Thick Mapping in the Digital Humanities. Cambridge, MA: Harvard University Press 2014, S. 49–65.
[4] Vgl. Gilles Deleuze u. Félix Guattari: Mille plateaux. Capitalisme et schizophrénie. Paris: Les Éditions de Minuit 1980, S. 9–37.
[5] Vgl. Bruno Latour: Enquête sur les modes d'existence. Une anthropologie des Modernes. Paris: Éditions La Découverte 2012.
[6] Vgl. Franco Moretti: Distant Reading. New York: Verso 2013.
[7] Siegfried Kracauer: History. The Last Things Before the Last. New York: Oxford University Press 1969, S. 134–135: "As I see it, the vast knowledge we possess should challenge us not to indulge in inadequate syntheses but to concentrate on close-ups and from them casually to range over the whole, assessing it in the form of aperçus."