Impressum Disclaimer Über Litlog Links
DHd-Tagung 2016
Leute, lernt programmieren

Die Digital Humanities sind ein junges, dynamisches, interdisziplinäres Wissenschaftsfeld, das Computer- und Geisteswissenschaften zusammenbringt. Die dritte Tagung des deutschsprachigen DH-Verbundes fand diesen März in Leipzig statt. Cosima Mattner berichtet und reflektiert die Veranstaltung.

Von Cosima Mattner

»Modellierung – Vernetzung – Visualisierung: Die Digital Humanities als fächerübergreifendes Forschungsparadigma« – so lautete das Leitthema der 3. Tagung des Digital Humanities im deutschsprachigen Raum e.V., die vom 7. bis 12. März 2016 in Leipzig stattfand. GeisteswissenschaftlerInnen, ComputerlinguistInnen, InformatikerInnen und vielen ForscherInnen, die sich der Schubladisierung verwehren, wurde ein buntes Programm geboten: als Auftakt gab es Workshops zu digitalen Forschungsumgebungen wie TextGrid und DARIAH-DE, zu wissenschaftlichem Bloggen oder zu Visualisierungsmethoden für historische Quellenkorpora. Hauptgang waren dann Vortragssektionen und Panels zu verschiedensten Forschungsprojekten und Themen, die die Digital Humanities derzeit bewegen. Zum Beispiel gibt es da die Suche nach dem Minimalkonsens, wie digitale Editionen zu erstellen seien, um geisteswissenschaftliche Gegenstände nachhaltig zu konservieren und nutzbar zu machen. Bestehende Frameworks und Workflows stellten u.a. Thomas Stäcker (Herzog-August-Bibliothek Wolfenbüttel) und Christian Thomas (BBAW) vor und zur Diskussion (diese wurde dann leider aus Zeitmangel in eine der obstreichen Kaffeepausen verschoben.) Darüber hinaus behandelten die rund 100 Beiträge der Tagung unter anderem den Korpusaufbau und dessen -annotation – also die Frage, nach welchen Kriterien und Methoden ein Textbestand zusammenzustellen und zu digitalisieren sei, damit er für den jeweiligen Forschungszweck eine repräsentative und valide Datenbasis darstellen kann. Außerdem wurde diskutiert, wie eine Bearbeitung von Textkorpora zum Beispiel mittels Graphdatenbanken funktionieren sollte. Visualisierungsmöglichkeiten, Funktionen virtueller Forschungsumgebungen und Analysewerkzeuge waren zentrale Themenpunkte der Tagung.

Die vielförmige Postersession wurde eingeleitet durch einen Posterslam, der dem Unterhaltungsfaktor eines guten Poetry-Slam in nichts nachstand. Der poster award ging an die interinstitutionelle Forschungsgruppe um Peer Trilcke, Frank Fischer, Mathias Göbel, Dario Kampkaspar und Christopher Kittel, die basierend auf der small-world-Netzwerktheorie (Watts & Strogatz 1998) eine digitale Netzwerkanalyse von Dramen vorlegten – visualisiert als chinesischer Seidenteppich. Neben dem Posterpreis wurden von DARIAH-DE, CLARIN und DHd neun Reisestipendien an beitragende TeilnehmerInnen verliehen. Außerdem erhielten zwei NachwuchswissenschaftlerInnen den Lisa-Lena Opas-Hänninen Preis: Jan Oliver Rüdiger (Kassel) und die Autorin dieses Textes, Cosima Mattner (Göttingen), wurden für außergewöhnliche Forschungsleistungen im Bereich der digitalen Geisteswissenschaften ausgezeichnet. Mehr zum Programm findet sich hier und hier.

Digesting the keynotes

Gerahmt wurde das Spektakel durch zwei Keynotes, die beide einen Appell in die Welt der »Digitalen Geistis« schickten – wobei dieser sich auch an die sich hierhin verirrten sogenannten Quants (jemand, der der Welt vorwiegend mit statistisch-mathematischen Analyseverfahren begegnet) richtete. In Kurzfassung waren die Botschaften: Leute, lernt programmieren und Leute, programmiert und nutzt nur sinnvolle und dem Gegenstand angemessene Algorithmen.

Prof. Dr. Katharina Zweig – Biochemikerin, Informatikerin und Sozioinformatikerin (Kaiserslautern) – warnte in ihrer Eröffnungsansprache vor einem vorschnellen, undurchsichtigen und unaufgeklärten Umgang mit Algorithmen. Was algorithmisch errechnete Zahlen über einen untersuchten Gegenstand aussagten, hänge davon ab, welcher Art diese Daten sind und ob der Algorithmus diesem Datentyp angemessen ist ( – weil er zum Beispiel auf diesem »trainiert«, soll heißen auf den Gegenstand zugeschnitten programmiert wurde). Zweig mahnte zur Vorsicht vor »algorithmischer Legendenbildung«, wodurch fehlerhafte Interpretationspraktiken sich ritenhaft kulturell etablieren und unreflektiert vollzogen werden könnten.

Exemplarisch brachte Zweig das beliebte Maß der Betweenness centrality ins Gespräch und erläuterte, wann dieses Maß rechtmäßig genutzt werden sollte und wann nicht. Um beispielsweise das zentralste Erzählkonzept in David Copperfields Texten »herauszualgorithmisieren« sei dieses Maß nicht das adäquate Mittel, was sie wie folgt begründet: Es gibt 60 verschiedene Zentralitätsindices, die verschiedenen Netzwerken und ihren spezifischen Netzwerkflüssen modellhaft zugeordnet sind. Diese Indices geben für ein Netzwerk x an, welches die zentralsten Knoten in diesem Netzwerk sind. Die Betweenness-Zentralität – eine dieser 60 – zeigt die Anzahl der kürzesten Pfade an, die durch einen Knoten führen. Um dieses Maß anwenden zu können braucht es also ein Netzwerk und dessen spezifischen Netzwerkfluss. Ein Textkorpus mit Nomen und Adjektiven sei aber eigentlich kein Netzwerk, so Zweig, da hier der Netzwerkfluss fehle. Deshalb sei die Anwendung eines Zentralitätsindex hier auch nicht sinnvoll. Zwar lieferte Zweig keinen Vorschlag, wie die Frage nach den zentralsten Erzählkonzepten alternativ zu lösen sei – ihre Kernbotschaft war aber: Um valide Ergebnisse zu erhalten, muss einer digitalen Analyse eine gründliche und systematische Aufbereitung der zu untersuchenden Daten vorausgehen. Außerdem sollte die Anwenderin ihren Algorithmus verstehen – klar: wie in jeder anderen Sprache wollen Syntax, Semantik und Pragmatik beherrscht sein, um sinnvoll kommunizieren zu können und keinen Stuss zu erzählen.

Diese Ausführungen führte Prof. Dr. Daniel Keim (Konstanz) dann in gewisser Weise fort: in seiner Abschlusskeynote stellte er die Arbeitsteilung Mensch – Computer für die Digital Humanities vor. Während in bisherigen technischen Revolutionen der Mensch sich für industrielle Produktionsprozesse selbst überflüssig gemacht habe, sei er aus digitalen Analysevorgängen bisher nicht wegzudenken. Sein klares Nein zur Streichung des Menschen in Digitalen Geisteswissenschaften begründete der Lehrstuhlinhaber für Datenanalyse und Visualisierung mit der Unfähigkeit von Computern, flexibel und kreativ mit Datenmengen umzugehen: Die Anwendung eines Algorithmus und die Analyse der erhobenen Daten bräuchten Kreativität, Sinn für den Einzelfall und Flexibilität. Das habe der Mensch dem PC (noch) voraus – und sei damit (noch) nicht aus der Digitalen Geisteswissenschaft wegzudenken. Keim entließ alle menschlichen Anwesenden mit der beruhigenden take-home-message Albert Einsteins:

Computers are incredibly fast, accurate, and stupid; humans are incredibly slow, inaccurate, and brilliant; together they are powerful beyond imagination.

In diesem Sinne konnte Leipzig eindrücklich unter Beweis stellen: wenn ich nicht überrannt werden will von schnellen Computern und von schnelle Computer missbrauchenden Menschen, dann muss und will ich algorithmisch lernen. Aufklärung geht weiter – Leute, lernt programmieren.



Metaebene
 Veröffentlicht am 7. April 2016
 Kategorie: Wissenschaft
 Ausschnitt des Posters DRAMEN ALS ›SMALL WORLDS‹? von Peer Trilcke, Frank Fischer, Mathias Göbel, Dario Kampkaspar, Christopher Kittel
 Teilen via Facebook und Twitter
 Artikel als laden
 RSS oder Atom abonnieren
 Ein Kommentar
Ähnliche Artikel