blog.arthistoricum.net

Digitale Kunstgeschichte. Plädoyer für eine Normalisierung

Vortrag in Zürich I

Letzte Woche hat in Zürich eine Konferenz zum Thema "Digital Art History" stattgefunden. Super Stimmung, tolle Organisation. Vor allem hat mir gefallen, dass diese meist etwas langweilige Reihung von Einzelvorträgen vermieden wurde zugunsten eines workshop-Charakters, bei dem die Verteilung auf Produktion und Rezeption von vorneherein aufgebrochen schien. Am Schluss hat das gesamte Plenum sich an der Formulierung eines Manifestes beteiligt, das demnächst veröffentlicht wird. Das nenne ich kooperatives Arbeiten!

 

 

Ganz unbescheiden erlaube ich mir, meinen Beitrag hier zu reproduzieren. Da das weblog ja kurz und knapp strukturiert sein soll, teile ich das Ganze in vier Teile auf. Mal sehen, ob das Sinn macht. Also:

 

Mir wurde die Aufgabe zuteil, über die folgenden vier Bereiche einführend zu reden, die dann im weiteren Verlauf des Tages Gegenstand spezifischerer Reflexionen sein werden:

Nachhaltigkeit und Finanzierung

Digitalisierung und Recht

Big data

Archive und Sammlungen

Wenn ich richtig verstanden habe, sollen bei mir grundsätzlichere Überlegungen im Vordergrund stehen, weniger konkrete technische Realisierungsformen o.Ä. Ich muss gleich darauf aufmerksam machen, dass ich auch noch einmal auf open access zurückkomme, obwohl das gestern schon Thema war. Die Dinge hängen eben doch alle sehr zusammen. Und ich muss mich auch dafür entschuldigen, dass der Tonfall manchmal vielleicht etwas Burleskes, wenn nicht Polemisches hat. Ich finde, man muss die Dinge beim Namen nennen.

 

Zum Punkt Nachhaltigkeit und Finanzierung

Motto: Wir müssen unsere digitalen Projekte mögen.

Digitale Projekte sind eigentlich nie "fertig". Selbst dort, wo ein tool entwickelt wird, verliert dieses in der Regel seinen Reiz, wenn es nicht dem rasend schnellen Fortschritt in diesem Bereich angepasst wird. Insofern stellt sich das Problem der Finanzierung und der Nachhaltigkeit hier viel stärker als bei "normalen" Forschungsprojekten, die in sich geschlossen sind - obwohl es die ja eigentlich auch nicht gibt. Die Forschungsförderer fragen daher auch sehr deutlich nach den Verstetigungsvorstellungen, die sich wir Antragsteller so machen. Wenn wir ehrlich sind, nehmen wir solche Fragen meistens nicht sehr ernst und versprechen Dinge, die wir gar nicht halten können. Und die Förderer vergeben das Geld, obwohl sie genau wissen, dass bei den Verstetigungsvorschlägen vieles geschönt wird, denn sonst könnten sie ihre Mittel gar nicht loswerden. Mir sind auch Leute bekannt, die die Versprechungen gar nicht einhalten wollen, weil sie die Projekte im Bereich Digitales eigentlich sowieso nicht sonderlich interessieren (wenn sie sie nicht sogar klammheimlich ablehnen), darin aber eine gute Möglichkeit sehen, ihre Drittmittelbilanz aufzubessern. Immer nur nach Finanzierungen rufen, wenn sich die Laufzeit dem Ende nähert, scheint mir nicht der richtige Weg, da die Mittel nun mal nicht unbegrenzt zur Verfügung stehen. Besser wäre es wohl, die Projekte so anzulegen, dass sie in die vorhandenen Strukturen eingebaut werden können. Dafür werden wir an vielen Stellen umdenken müssen. Zum Beispiel sollten wir nicht immer nur das Neue planen, sondern auch das Alte einstampfen können. Das ist natürlich verdammt schwierig, aber der Computer hat an vielen Stellen alte Tätigkeiten überflüssig gemacht, das wird in der Kunstgeschichte auch nicht anders sein. Wir haben es bei den "sehepunkten" - allerdings mit großen Aufwand - hinbekommen, dass die Redakteurstätigkeiten jetzt fest in der Dienstbeschreibung eines wissenschaftlichen Assistenten verankert und damit hoffentlich dauerhaft gesichert sind. Besonders überlegenswert erscheint mir so etwas im Fall von übergeordneten Institutionen wie dem hiesigen oder dem Zentralinstitut für Kunstgeschichte in München. Dort ist etwa die Redaktion des zurecht ausgesprochen erfolgreichen RIHA-Journals beheimatet, die momentan projektbasiert läuft. Auch am ZI wird man sehen müssen, dass die Redaktionstätigkeit in naher Zukunft vom festen Staff übernommen wird, sonst wird die "Zeitschrift" genauso untergehen wie so viele andere Unternehmungen in dem Feld auch. Aber ich sehe auch andere Möglichkeiten. So scheint es mir vor allem unverzichtbar, dass die digitalen Projekte deutlich den originären wissenschaftlichen Schwerpunkten der Antragsteller entsprechen, so dass es in ihrem eigenen Interesse liegt, die Sache am Leben zu halten. Als ganz wesentlich könnte sich die Zusammenarbeit mit der Informatik erweisen. Diese ist ja immer wieder von vielen Schwierigkeiten geprägt. Sie hängen wohl in erster Linie damit zusammen, dass wir Kunsthistoriker/innen meistens eigentlich nur einen Programmierer brauchen, der unsere Ideen realisiert, während die Informatiker gar keine Lust haben, einfach nur unsere Servicekräfte zu sein, sondern eigene Forschungsansprüche haben. Wenn ich hier wieder ein Münchener Beispiel nehme, dann nicht, weil ich unsere Projekte so toll finde (das natürlich auch!), sondern weil ich sie eben ziemlich genau kenne: Unser crowdsourcing-Projekt "artigo" läuft auch über die eigentliche Projektlaufzeit hinaus, weil die Informatiker auf dessen Basis reihenweise Forschungsarbeiten - von der Bachelorarbeit bis hin zur Dissertation - vergeben, die in erster Linie der Datenanalyse dienen. Kann man aus den Annotationen auf das Geschlecht des Eingebers schließen? Lässt sich aus der Tagmenge auf die Stilzugehörigkeit eines Kunstwerks schließen? Oder ein Datierungshinweis destillieren? Der in Kunsthistoriker-Ohren vielleicht exotische Klang solcher Fragestellungen verweist aber auch darauf, dass wir uns von den Informatikern zu neuen Fragestellungen anregen lassen sollten. So schlimm sind die Informatiker nämlich gar nicht. Sie haben Ideen, die auf den zweiten Blick gar nicht verrückt sind! Schön wäre es im übrigen, wenn auch wir hier Forschungsanliegen fänden, die sich auch vom neuen Medium anregen lassen und den Computer nicht immer nur krampfhaft an klassische kunsthistorische Fragestellungen fesseln. Das hat nichts mit Selbstaufgabe zu tun, sondern mit wissenschaftlicher Neugierde. Aber es setzt mindestens eine bescheidene informatische/statistische Kompetenz voraus. Um dies zu erreichen, wäre es im übrigen langsam einmal an der Zeit, auch entsprechende wissenschaftliche Mitarbeiter- oder gar Professorenstellen auszuschreiben, so wie dies die Archäologie - Beispiel Göttingen - schon tut.

Noch etwas anderes, was mir sehr am Herzen liegt, gehört in den Bereich der Nachhaltigkeit: Kunsthistoriker/innen neigen gewöhnlich dazu, die Ansprüche an die Qualität ihrer Arbeit eher zu hoch als zu niedrig anzusetzen. Das führt etwa bei der Freigabe von Bilddatenbanken zu einer Parusieverzögerung tendenziell ad infinitum. Zumindestens verleitet dieser Perfektionsanspruch dazu, Forschungsergebnisse, die eigentlich zum größten Teil schon vorhanden sind, auf Jahre an der Veröffentlichung zu hindern, obwohl nur noch Details fehlen. Alternativ wird die Erschließungstiefe so hoch angesetzt, dass man in der Praxis scheitert. Mir scheint da die Vorgehensweise etwa des New Yorker Brooklyn Museums viel empfehlenswerter: Hier werden Datenblätter mit einem Vollständigkeitshinweis versehen und die fehlenden Prozente nachgeliefert, zum Teil auch an die "crowd" delegiert. In dem dortigen Museum hat man eben verstanden, dass Wissenschaft auch eine praktische und nicht nur eine theoretische Tätigkeit ist. Sicher, ich kann mein ganzes Leben damit verbringen, über die Ikonographie des heligen Bernhard im Frühbarock zu forschen. Aber ist das in der Praxis sinnvoll? Und wenn schon, dann sollte ich die Ergebnisse zu Bernhard im spanischen Frühbarock doch schon bringen, bevor auch die des Restes klar sind. Mein Plädoyer hier klingt vielleicht übermäßig pointiert, aber es bringt die Sache auf den Punkt; "publish first, filter later" und "quick and dirty". Es ist billig, sich davon zu distanzieren und die eigenen Qualitätsvorstellungen hochzuhalten. Das wird übrigens besonders gerne von denen übernommen, die aufgrund eben dieser Qualitätsansprüche bis zum Schluss eigentlich fast gar nichts Greifbares fertigbringen. Und die dann die gesammelten Dokumente nicht etwa einem anderen Bearbeiter überlassen, sondern ängstlich für sich behalten. Als Medium der prinzipiellen Offenheit verlangt das Internet den Mut, sich zur Unvollständigkeit zu bekennen. Vielleicht wird es gerade auch deswegen von vielen Vertretern unseres Faches noch immer schief angesehen. Gleiches gilt übrigens auch für die Wissenschaftspublizistik in Aufsatz- oder Buchform und hat Konsequenzen für das traditionelle peer-reviewing. Aber das will ich hier nicht auch noch aufgreifen.

Auch die Frage nach der Qualitätssicherung, die mir ebenfalls gestellt wurde, ist damit schon halb beantwortet. An dieser Stelle hat das Internet natürlich ein Problem: Es enthält ungeheuer viel, aber das, was früher einmal über die Autorität der produzierenden Institution und des Autorennamens gesichert war, löst sich jetzt in der Kakophonie vielfältigster Stimmen auf, deren Identität kaum zu klären ist, geschweige denn, dass man ihre Autorität überprüfen kann. Auch hier wird man wohl oder übel der Weisheit des „publish first, filter later“ folgen müssen. Es muss zu einer Selbstverständlichkeit werden, dass jeder professionelle Internet-Nutzer zur Bewertung der Inhalte beiträgt. Indirekt tun er oder sie es ja sowieso, indem sie diese Inhalt downloaden, zitieren, evaluieren. Ein einfaches Beispiel hierfür findet sich in prometheus, wo man seit ein paar Jahren die Qualität der gelieferten Reproduktionen mit Sternchen versehen kann. Die Notwendigkeit hierzu hat sich aus genau dem eben erwähnten Grund ergeben: Die Inhalte in prometheus werden aus verschiedensten, nur begrenzt überprüften Quellen gespeist, aber anstatt sie aufwändig im Vorfeld zu überprüfen, lässt man das im Nachhinein und von den Usern machen. Bislang alllerdings wird die Verfahrensweise viel zu wenig genutzt.

 

 

Fortsetzung hier

 

 

 

0 Kommentar(e)

Kommentar

Kontakt

Kommentar

Absenden