Beitrag

Big data

Der neue Hype scroll to top

"Big data" ist ein buzzword der aktuellen digital humanities. Große Datencorpora werden auf Frequenzen oder Muster von Signalen sprachlicher, akustischer oder visueller Art untersucht. Ziel ist es, auf empirisch breiter Grundlage z.B. historische Entwicklungen aufzuzeichnen und dadurch die gängige Einzelwerkdeutung durch eine Massenanalyse zu ersetzen. Franco Moretti hat das in den Literaturwissenschaften vorgemacht, indem er in einem Verfahren, das er "distant reading" nennt, große Mengen von elektronisch erfassten englischen Romanen des 18. und 19. Jahrhunderts auf den Wandel von Konzepten untersucht. Lev Manovich versucht Ähnliches für Bilder, die er auf ihre visuelle Struktur im Wandel etwa eines narrativen Zusammenhanges hin untersucht. Die stark wachsenden Sammlungen von digitalen Text- und Bildcorpora (in wenigen Jahren wird die Bayerische Staatsbibliothek ihren gesamten Bestand bis um 1900 online anbieten, prometheus verfügt über fast 1 Millionen, Foto Marbug über 2 Millionen Bilder) werden hier immer mehr Möglichkeiten bieten. Ob sich im kunstgeschichtlichen Nachwuchs auch Leute finden werden, die sich an solche Studien herantrauen? Ansätze gibt es immerhin, ich verweise auf Martin Papenbrocks und Joachim Scharloths Untersuchung von NS-Ausstellungen. Die hier abgebildete, klickbare Darstellung ist übrigens relativ simpel und visualisiert die Ankaufsdaten von Textilien im New Yorker Cooper-Hewitt-Museum.

2 Comment(s)

  • Hubertus Kohle
    28.09.2012 07:19
    D'accord

    Ich auch!

  • Robert
    27.09.2012 12:50
    Buzz Word & Realität & Zukunft

    Es stimmt, dass Big Data gerade ein Hype-Thema ist und dies nicht nur in der digital humanities.
    Was hinter Big Data eigentlich steht, ist aber weitaus mehr als die aufgezeigten Analyseinstrumente. Es handelt sich hierbei um neue technologische Ansätze, wie auf verteilten Recheninfrastrukturen Massendaten verarbeitet werden können, um aus "Rohdaten" Informationen zu erzeugen, die mit Hilfe der menschlichen Intelligenz zu Wissen gewandelt werden können.
    Das eigentlich spannenden Momentum hierbei dürfte aber die Verschmelzung individueller Datentöpfe zu einer integrierten Sicht auf bspw. ein bestimmtes Werk sein.
    Es ist nicht das Ziel, Einzelwerkdeutungen durch Massenanalyse zu ersetzen - sondern zu ergänzen, indem neue Zusammenhänge aufgedeckt werden, welche nur durch die Verarbeitung großer Corpora möglich sind.
    Stellen Sie sich einmal vor, automatisiert alle Dokumente, welche jemals zu einem bestimmten Werk veröffentlicht wurden (primär, sekundär) aus dem Web zu crawlen und mit digitalisierten Büchern aus den Bibliotheken der Welt zusammenzuführen ... dann bspw. die wichtigsten Themen oder Stimmungen aus den Texten zu extrahieren - Übereinstimmungen oder konträre Meinungen - und zusätzlich mit den von Ihnen beschriebenen Analysen zu ergänzen. Das dann graphisch zu repräsentieren, so dass wir Menschen es besser verstehen. Und als Krönung die gleiche Prozedur über mehr als nur ein Werk, über alle Werke und zusätzlich die Zusammenhänge zwischen den einzelnen Werken und die gegenseitigen Wechseleffekte ...
    So, und dann fängt der Mensch seine Arbeit an. Die Einzeldeutung beginnt nun nicht mehr auf dem leeren Blatt sondern auf der Zusammenführung des Weltwissen - soweit dies technologisch abbildbar ist.
    Das ist dann aus meiner Sicht Forschung - neues Wissen schaffen.
    Ich finde das toll.

Kommentar

Kontakt

Kommentar

Absenden