blog.arthistoricum.net

Digitale Kunstgeschichte. Plädoyer für eine Normalisierung III

Fortsetzung des Züricher Vortrages

Damit bin ich bei den Big Data, denn open access führt genau zur Ansammlung von großen Datenmengen in maschinenlesbarer Form.

Motto: Big is better - nicht immer, aber immer öfter

Die Geisteswissenschaften halten sich ja viel darauf zugute, Qualitatives gegenüber Quantitativem zu priorisieren, wir hatten das eben schon bei quick and dirty. Das ist irgendwie eine wohlfeile Forderung, denn wer würde von sich aus die Menge der Güte vorziehen? Aus dem gleichen Grund steht man ja auch mit der Forderung "quick and dirty" auf ziemlich verlorenem Posten. Aber wenn man mit dem Computer arbeitet, muss man sich nun einmal mit der Tatsache vertraut machen, dass dieser seine Vorteile vor allem in der hyperschnellen Prozessierung von  großen Datenmengen ausspielt. Und dass Quantität vielleicht auch in Qualität umschlagen kann. Es macht einfach keinen Sinn, das neue Medium an das zu ketten, was uns bislang als notwendig erschien. Wenn wir schon nicht mehr mit dem Stift schreiben, dann sollten wir uns auch ein wenig auf die Logik des anderen Schreibgerätes einlassen!

Ganz praktisch kann man sich auch als Laie mit big data beschäftigen, wenn man mit googles ngram auf Wortfrequenzanalysen in gedruckten historischen Quellen experimentiert. Meistens kommen dabei Ergebnisse heraus, die man erwartet. Dass "Lithographie" vor 1800 überhaupt nicht vorkommt, hängt mit der Tatsache zusammen, dass es diese Technik zu dem Zeitpunkt noch nicht gab. Dass der Begriff in Texten nach 1830 besonders häufig auftaucht, dürfte mit Daumier zu erklären sein. So weit so erwartbar. Aber was machen wir mit dem peak in den 1850er Jahren? Big data-Analysen führen dort, wo sie interessant sind, eher zu Fragen, als dass sie diese beantworten. So viel zur Furcht der Lordsigelbewahrer der Tradition, der Computer würde die Wissenschaftler überflüssig machen. Im übrigen führen diese big data schlicht zu einer Empirisierung des Faches und werden manches liebgewordene historische Vorurteil eventuell auch widerlegen. Sie priorisieren die Breite der Wissensproduktion gegenüber der Einzigartigkeit der produktiven Leistung, stehen also in gewisser Weise quer zu einer genialische Kreativität favorisierenden Wissenschaft, die die Kunstgeschichte lange Zeit gewesen und zuweilen jetzt noch ist. Wenn ich in einer Bilddatenbank nach einem Stichwort suche, kommen zwangsläufig  eine ganze Reihe von mir vielleicht völlig unbekannten Künstlern dabei heraus, während ich vorher allenfalls das sattsam bekannte halbe Dutzend im Kopf hatte. Entkanonisierung wäre hier das Stichwort. 

Dieses wenige zur Kunstgeschichte als Konsumentin von big data, aber im open access kann sie eben auch Produzentin davon sein. Eine zukünftige Wissenschaftsgeschichte wird wenigstens teilweise eine auf der Basis von big data in Form von maschinenlesbar veröffentlichten Forschungsarbeiten agierende sein. Wie ändert sich die Konjunktur von Künstlern und Fragestellungen? Wie deren Bewertung? By the way und horribile dictu: Könnte nicht ein zukünftiges Berufsfeld der Kunstgeschichte auch in Kunstmarkt-bezogener sentiment analysis bestehen? Also: nach dem Vorbild der Börsenanalytik, wo auf der Basis von Millionen Daten aus den social media die Einschätzung von Aktien vorherbestimmt wird, was dann natürlich in Kauf- oder Verkaufsempfehlungen mündet: Ließe sich das nicht auch für zeitgenössische (oder natürlich auch ältere) Künstler organisieren, um damit auf deren Preisentwicklung schließen zu können?

Voraussetzung für all dies ist natürlich, dass die digitale Online-Präsenz zum Normalfall der Veröffentlichung wird. Bisher ist es eher so, dass wir das Digitale als ad on auf dem Analogen betrachten, dabei müsste es natürlich andersherum sein. Das ist weniger radikal als es klingt, weil nämlich das Digitale alle anderen Medien in sich einschließt. Papier in bytes zu verwandeln ist ziemlich kompliziert, vor allem wenn man das, was drauf steht, mittels OCR auch lesbar machen  will; bytes in Papier sehr viel weniger, das druckt man einfach aus. An sich ist ja die ganze Situation schon seit 20 oder 30 Jahren einigermaßen absurd. Fast jeder produziert eine elektronische Datei, die er dann in den Verlag trägt, der diese Datei im Anschluss an die Buchproduktion wieder löscht, um damit einen ungeheuren Mehrwert zu zerstören. Was geht uns - mit Verlaub - der Verlag an, der bei paralleler online-Veröffentlichung um den Verkauf seiner Bücher fürchtet? Einmal abgesehen davon, dass das gar nicht stimmen muss: Sollen wir auf den Mehrwert der online-Präsenz, und sei es nur die bequeme Suchbarkeit, verzichten, weil wir auf sachfremde Interessen Rücksicht nehmen sollen? Let's face it: So wie die Verlage nicht deswegen Bücher produzieren, weil sie die Wissenschaft so lieben, sondern weil sie Geld verdienen wollen, so ist unser wissenschaftliches Interesse nicht identisch mit dem der Verlage. Das hat nichts mit persönlicher Abneigung zu tun, sondern langfristig mit Überlebensfähigkeit. Immer natürlich unter der Voraussetzung, dass die Analyse stimmt. Da, wo Verlage einen Mehrwert produzieren, bin ich der letzte, der deren Existenzberechtigung in Zweifel zieht. Aber wenn sie sich weiterhin weigern, moderne Veröffentlichungswege mit in ihr Kalkül einzubeziehen, bleibt nichts anderes übrig, als dass wir die Sache selber in die Hand nehmen.

 

Fortsetzung hier

0 Kommentar(e)

Kommentar

Kontakt

Kommentar

Absenden