blog.arthistoricum.net

Nachbetrachtung zu einem Workshop zu Forschungsdaten in den Geisteswissenschaften, insbesondere bild- und objektbezogenen Wissenschaften, an der FU Berlin

Michael Müller, Georg Schelbert

 

Am 28. Februar 2019 fand an der Freien Universität Berlin ein Workshop zu „Forschungsdaten in den bild- und objektbezogenen Wissenschaften“ statt.[1] Im Folgenden versuchen die beiden Organisatoren, einige Aspekte zusammenzufassen, die sich bei den Kurzpräsentationen und der lebhaften Diskussion der Teilnehmer*innen als wichtige Fragen und Lösungsansätze abzeichneten.

I.

Ausgangspunkt war die Frage, wie Forschungsdaten in den Geisteswissenschaften erhoben, gespeichert und nachhaltig verfügbar gemacht werden können. Abgesehen von dem kaum zu bestreitenden Umstand, dass inzwischen bei praktisch jedem Forschungsprojekt digitale Daten anfallen und sich zumindest die Frage stellt, wie diese konserviert werden können, und somit die Notwendigkeit besteht, hierfür effiziente und sinnvolle Lösungen zu finden, fordern inzwischen auch die Fördereinrichtungen Konzepte zur Bereitstellung, Nachnutzung und Langzeitverfügbarkeit von Forschungsdaten. Nicht zuletzt tragen die seit 2017 laufenden Prozesse zur Bildung einer Nationalen Forschungsdateninitiative (NFDI) und die Erwartung, dass damit bald in großem Umfang Fördermittel vergeben werden, erheblich zur Dynamik dieser Diskussion bei. In diesem Zusammenhang fällt jedoch auf, dass für die Geisteswissenschaften im Allgemeinen und für die bild- und objektbezogenen Disziplinen im Besonderen das Konzept „Forschungsdaten“ noch nicht hinreichend geklärt ist. Es koexistieren unterschiedliche Vorstellungen, was unter Forschungsdaten zu verstehen ist und was ihren spezifischen Wert ausmacht.[2] Die Auseinandersetzung mit dem Thema Forschungsdaten ist noch vorwiegend auf diejenigen Bereiche fokussiert, die mit Textdaten umgehen, die also auch den engeren Bereich der Digital Humanities bilden. Auch dort finden sie aber eher in den mit Infrastrukturen befassten Sparten (Bibliotheken, Archive, Akademien) und nicht an den Universitäten statt.

Im Bereich der Archäologien, der Kunstgeschichte und verwandten Fächern stellen sich spezifische Fragen, etwa: Sind Digitalisate von Gemälden in Form von Digitalfotos bereits als Forschungsdaten zu betrachten? Stellen die Daten aus anderen technischen Aufnahmeverfahren – Radiometrie, Spektralanalyse, 3D-Erfassung – Forschungsdaten dar? Wenn ja, wo sollen sie erzeugt und gespeichert werden? Wo Wissenschaft gemacht wird – an den Universitäten? Wo die Objekte aufbewahrt, untersucht und restauriert werden – im Museum? Wie lautet die Antwort im Bereich der Archäologien und der Denkmalpflege?

Um diese und andere Fragen zu diskutieren sollte der Workshop das Thema Forschungsdaten aus der Perspektive der disziplinären Forschungsarbeit angehen. Was konkret sind Forschungsdaten in den betroffenen Fächern? Welche Forschungsdaten „fallen an“, welche werden als solche erzeugt? Wie ist das Verhältnis von Forschungsdaten und Forschungsergebnissen? Wie eng sind Forschungsdaten an die Fragestellungen und Methoden gebunden, unter denen sie erzeugt wurden? Welchen Ertrag verspricht die Zugänglichmachung von Forschungsdaten für das eigene Fach? Welche Rückwirkungen hat sie für die eigene wissenschaftliche Arbeit? Erfordert ein datenorientierter Ansatz spezifische Methoden?

II.

Für den Ablauf der Diskussion war eine vierteilige Gliederung in folgende – wie bereits zuvor abzusehen war, nicht scharf voneinander abgrenzbare – Punkte vorgesehen: 1. Wo fangen Forschungsdaten an? Forschungsprozesse und Forschungsdaten, 2. Wo hören Forschungsdaten auf? Forschungsergebnisse und Objektdokumentation vs. Forschungsdaten, 3. Wohin gehören Forschungsdaten? Datenpublikationen und Normdatenrepositorien und 4. Was bringen Forschungsdaten für die bild- und objektbezogenen Wissenschaften? Methodische Implikationen.

Zu jedem dieser Punkte wurden anhand von ein oder zwei Projekten grundsätzlichere Überlegungen vorgestellt. Dabei sollten u. a. folgende Leitfragen berücksichtigt werden: Welche Rolle (ggf. unterteilt nach zunächst vollzogenen Charakterisierungen) spielen die Daten im Forschungsprozess? Entstehen die Daten eher in der Forschung oder werden sie eher in der Forschung nachgenutzt? Bilden die Daten eine Basis für neue Forschungen? In welchem Rahmen und für welche Zeiträume ist für die Langzeitverfügbarkeit und Nachnutzbarkeit der Daten gesorgt?

Wo fangen Forschungsdaten an?

Zur ersten Frage stellte zunächst Timo Strauch (Humboldt-Universität zu Berlin) das Projekt und die Datenbank Census of Antique Works of Art and Architecture Known in the Renaissance[3] vor und erläuterte am Beispiel der aktuellen Erschließung von Zeichnungen aus der Sammlung von Eton College, dass einerseits spezifische Grundlagenforschung – hier im Sinn der Zeichnungsforschung und der Antikenrezeptionsforschung – stattfindet, andererseits aber auch wissenschaftliche Objekterschließung und -beschreibung geleistet wird. Die in ihrer Konzeption bereits vor fast vier Jahrzehnten eingerichtete und seitdem immer wieder technisch aktualisierte Datenbank des Projekts versucht diese beiden Aspekte zu vereinen. Aber gemessen an einem weitgefassten Forschungsdatenbegriff (Open Science, Dokumentation von Forschungsprozessen) zeigen sich inzwischen auch Defizite bzw. stellen sich Fragen zur zukünftigen Ausrichtung, die derzeit in einem an der BBAW angesiedelten Projekt evaluiert werden.[4]

Wo hören Forschungsdaten auf?

Als weiteres Beispiel erläuterte Kai Kappel ein in der Antragsphase befindliches Projekt zur Erforschung staufischer Kastelle in Süditalien, das zunächst als klassische Buchpublikation konzipiert ist, bei dem aber auch mit digitalen Erfassungsmethoden (in der Bauforschung) gearbeitet wird und folglich eine Publikation bzw. Verfügbarmachung der Befunde und Ergebnisse in digitaler Form gewünscht ist. Konkret wird beispielsweise Bauskulptur aufgenommen, wobei sich einmal mehr die Frage stellt, inwieweit Fotografien bereits Forschungsdaten sind und ob 3D-Repräsentationen oder überhaupt die Erstellung eines gesamten 3D-Modells einen Mehrwert für die Forschungspraxis darstellen.

Als zweiten Beitrag gab Martin Stricker einen Überblick aus den Erfahrungen der Koordinierungsstelle Wissenschaftliche Sammlungen[5] und betonte dabei, dass sich die Sammlungserschließung von der rein objektzentrierten Perspektive zugunsten einer immer stärkeren Berücksichtigung des Kontexts entferne. Entsprechend seien auch die Datenmodelle vor allem auf Beziehungen zwischen Objekten sowie zwischen Objekten und Sachverhalten ausgerichtet, in denen die eigentlichen Forschungsfragen lägen.

Besonderes Interesse erfahre auch die Frage nach dem Umgang mit multiplen Objekten (Drucke etc.), wobei hier neben Cidoc-CRM auch Datenmodelle aus dem Bibliothekswesen (FRBROO) eine Rolle spielten. Daher könne man gar nicht mehr von klassischer Objektdokumentation sprechen, es gehe eher um „epistemische Daten“ – die insgesamt weitgehend als Forschungsdaten anzusehen seien.

Wohin gehören Forschungsdaten? Datenpublikationen und Normdatenrepositorien

Georg Schelbert lenkte die Aufmerksamkeit auf den Umstand, dass gerade bei der Erforschung und Erfassung von Objekten im kulturhistorischen Kontext in erheblichem Umfang Sachverhalte erhoben werden, die bereits bekannt und an anderer Stelle dokumentiert sind. Dies ist insbesondere bei dem gezeigten Beispiel der Erschließung kunsthistorischer Fotobestände der Fall.[6] Die Bedeutung verteilter Dokumentation hat sich durch digitale Speicherformate und das Internet dahingehend entscheidend verändert, dass es inzwischen sinnvoller erscheint, diese Wissensbestände nicht noch einmal in den eigenen "Forschungsdaten" abzulegen, sondern vielmehr auf online zugängliche Ressourcen zu referenzieren. Damit ist zugleich die Frage gestellt, wo die Grenzen zwischen eigenen Forschungsdaten und übergeordnetem Wissen verlaufen. Die Konzepte von Normdaten, Fachklassifikationen, ebenso wie Linked Data und Semantic Web sind eng mit dieser Thematik verbunden und generische Wissensspeicher wie Wikidata werden zunehmend wichtiger.[7]

Was bringen Forschungsdaten für die bild- und objektbezogenen Wissenschaften? Methodische Implikationen

Anhand zweier Beispiele der Provenzienzforschung stellten Meike Hoffmann (FU-Berlin, Mosse Art Research Initiative)[8] und Meike Hopp (ZI München, Rekonstruktion des „Führerbau-Diebstahls“)[9] die Notwendigkeit in den Vordergrund, von vorhandenem Quellenmaterial, nicht von den zu erforschenden Objekten auszugehen. Beide Projekte arbeiten mit einem ähnlichen Datenmodell, bei dem (im Fall der Mosse Art Research Initiative) das zu erforschende Objekt durch eine abstrakte logische Entität repräsentiert wird, auf die Datenobjekte, die die konkret vorliegenden und literal erfassten Quellen repräsentieren, transparent und reversibel bezogen werden. Bei der von Meike Hopp vorgestellten Rekonstruktion des „Führerbau-Diebstahls“ erfolgt die Verknüpfung der einschlägigen Quellen ohne Zwischenschaltung eines „leeren“ Containers für das zu suchenden bzw. untersuchende Werk. Die beiden Forscherinnen wiesen nachdrücklich darauf hin, wie wichtig es gerade auf dem methodisch schwierigen Feld der Provenienzforschung ist, die ermittelten Quellen als Forschungsdaten möglichst vollständig zugänglich zu machen, um gemeinsam und projektübergreifend zu Ergebnissen kommen zu können, die sich im Rahmen der eigenen Arbeit nicht erschließen würden.

III.

An den kurzen Vorstellungen der Teilnehmer aus ihrer Forschungs- und Dokumentationspraxis wurde deutlich, dass die Frage, wie man methodisch reflektiert und konzeptionell konsistent mit dem im Forschungsprozess – wie in der Diskussion gesagt wurde: auch als „Beifang“ – anfallenden Material umgehen soll, noch nicht hinreichend geklärt ist. Die prinzipiellen Möglichkeiten bewegen sich zwischen zwei Positionen, die in solchen Diskussionen regelmäßig vertreten werden: Zum einen die Auffassung, die Lösung sei längst gefunden und bewährt, nämlich die Logik der wissenschaftlichen Anmerkung. Was für die Nachvollziehbarkeit der Argumentation in einer wissenschaftlichen Publikation notwendig ist, wird in geeigneter Form - so knapp wie möglich, so umfassend wie nötig - beigegeben. Digitale Publikationsformen bieten hier einen größeren Komfort, indem man eine zitierte Publikation beispielsweise direkt verlinken kann, das Prinzip des belegenden Zitierens bleibe aber erhalten. Zum anderen der Wunsch nach umfassender Bewahrung potentiell aller forschungsbezogenen Daten, was inzwischen technisch prinzipiell denkbar ist, da der überwiegende Teil dieser Daten ohnehin digital vorliegt (Textdokumente, Fotos, Scans, E-Mails …) und Speicherkapazitäten keine wirklich knappe Ressource mehr sind.

Besonders spannend und fruchtbar erscheint die Frage, wie man beide Perspektiven verbinden könnte: Die funktionale Bezogenheit auf den wissenschaftlichen Diskurs auf der einen und die durch Digitalität umsetzbare Bereitschaft, erheblich mehr zu publizieren, als die finalen Ergebnisse der eigenen Forschung auf der anderen Seite. Das setzt voraus, dass man in der Offenlegung etwa von Zwischenergebnissen, „Rohdaten“ oder Vergleichsmaterial ein epistemologisches Potenzial erkennt - und bereit ist, zu akzeptieren, dass es von anderen genutzt wird. Dann müssten Kriterien verfügbar sein dafür, was im Interesse dieser Zielsetzung sinnvoll „publiziert“ werden soll. „Alles“ wäre prinzipiell machbar (rechtlich nicht), aber epistemologisch vielleicht kontraproduktiv. Kriterien für eine methodisch fundierte Auswahl und adäquate Prozesse der Aufbereitung und Dokumentation zu erarbeiten, erscheint uns als eine ebenso dringliche wie herausfordernde Aufgabe.

Schließlich stellt sich die Frage, wie, also in welchen Infrastrukturen und mit welchen Datenmodellen, solche Daten erfasst, publiziert und auf lange Frist verfügbar gehalten werden können. Die Diskussion der Workshopteilnehmer*innen hat einmal mehr deutlich werden lassen, dass diese Infrastrukturfragen naturgemäß zunächst und vor allem aus der Perspektive der Anforderungen gesehen werden, die sich aus einem konkreten Forschungs- oder Dokumentationsprojekt ergeben. Die Vorstellung, dass sich dabei gleichsam en passant geeignete Infrastrukturen für die Forschungsdatendokumentation ergeben, wäre naiv. Dies erfordert erhebliche Anstrengungen, die unter realistischen Annahmen nicht in Einzelprojekten, sondern nur im Verbund zu bewältigen sind. Umso dringlicher erscheint es, die grundlegenden Fragen nach dem Wieso und Wozu zu adressieren. Denn ohne eine weitere Klärung von Sinn und Zweck der Forschungsdatenpublikation in den bild- und objektbezogenen Wissenschaften lässt sich kaum sinnvoll diskutieren, welche Technologien und Organisationsformen geeignet sind.

IV.

An den im Workshop diskutierten Fallbeispielen, etwa den von Timo Strauch vorgestellten Prozessen der Datenaufbereitung beim Census, wurde anschaulich, dass auf dem Weg zu Ergebnissen, wie sie in der Forschungsdatenbank am Ende publiziert werden, viel Material anfällt, das in den vorhandenen Datenstrukturen kaum zu dokumentieren ist. Die Frage, wie mit dieser Situation zu verfahren ist, wurde lebhaft diskutiert, wobei sich mindestens zwei deutlich divergierende Ansätze abzeichneten. Martin Stricker schlug als denkbare Lösung vor, die praktisch unbegrenzten Speichermöglichkeiten der digitalen Medien zu nutzen, und Informationen möglichst umfassend zu speichern, auch wenn dies in den Datenstrukturen der verwendeten Datenbanksysteme nur unzureichend möglich ist, etwa in Freitextfeldern oder durch simple Dateiablage. Eine andere Herangehensweise, mit der etwa Florian Kräutli gute Erfahrungen gemacht hat, besteht darin, die verwendete Infrastruktur um Tools und Dienste zu erweitern, die in anderen Kontexten für die Art dieser Informationen entwickelt wurden, z.B. Ticket- oder Issue-Tracking, Tools zur Dokumentation der Projektkommunikation; bewährt hat sich in diesem Zusammenhang auch die Verwendung von WordPress durch das MARI-Team für den schnellen, unkomplizierten aber nachhaltig dokumentierten Informationsaustausch. Die Diskussion der Teilnehmer*innen machte deutlich, dass in beiden Fällen noch schwierig ist, Chancen und Risiken, Stärken und Schwächen dieser Lösungen abzuschätzen. Der pragmatische Ansatz, hoch strukturierte Dokumentationssysteme zur „wilden“ Ablage heterogener und umfangreicher, im Forschungsprozess „anfallender“ Informationen zu verwenden, muss sich mit der Gefahr auseinandersetzen, dass das notgedrungen unstrukturierte Arbeiten auf den Kernbereich der der wissenschaftlichen Dokumentation übergreift. Wer generische Tools wie GitLab, Slack oder Projektmanagement-Software einsetzt, muss bedenken, dass eine zu umfassende Dokumentation dazu führen kann, dass die dokumentierten Daten auf absehbare Zeit intern bleiben müssen, weil rechtlich nicht publikationsfähiges Material (Personenrechte, Briefgeheimnis, Arbeitsrecht …) untrennbar mit Forschungsdaten im engeren Sinne vermengt sind. Hier bieten sicherlich Lösungen aus dem Kontext der Entwicklung von Open-Source-Software (z.B. GitHub) die vielversprechendsten Ansätze. Das grundsätzliche logische Problem, dass nämlich a priori nicht entschieden werden kann, welche aus Forschungsprozessen stammende Daten für zukünftige Forschung relevant sein können und daher langfristig verfügbar sein sollen, kann keine Infrastruktur lösen. Hier muss jedes Forschungsprojekt jeweils das Optimum aus vertretbarem Aufwand und zukunftsoffener Angebotsleistung zu finden versuchen.

 


[1]www.geschkult.fu-berlin.de/fachbereich/digital_humanities/Uebersicht/Termine/Workshop_Forschungsdaten.html.

[2] Vgl. Cremer, F., Klaffki, L., & Steyer, T. (2018). Der Chimäre auf der Spur: Forschungsdaten in den Geisteswissenschaften. O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 5(2), S. 142-162. https://doi.org/10.5282/o-bib/2018H2S142-162 u. Oltersdorf, J. & Schmunk, S. (2016). Von Forschungsdaten und wissenschaftlichen Sammlungen. Bibliothek Forschung und Praxis, 40(2), S. 179-185. Abruf am 25. April 2019, von doi:10.1515/bfp-2016-0036.

[3]www.census.de.

[4]www.bbaw.de/telota/projekte/census-lod.

[5]wissenschaftliche-sammlungen.de.

[6]wikis.hu-berlin.de/mediathek/Durchblick_-_Glasdiasammlung.

[7]https://www.wikidata.org.

[8]www.mari-portal.de.

[9]www.zikg.eu/projekte/projekte-zi/fuehrerbau-diebstahl.

1 Kommentar(e)

  • Hubertus Kohle
    07.05.2019 13:17
    Wichtiges Thema

    Ein sehr wichtiges Thema. Vielen Dank. Bei der Strukturierung schlage ich mich auf die Seite von Martin Stricker, also: quick and "dirty". Wir dürfen davon ausgehen, dass die "Intelligenz" der Suchalgorithmen stetig ansteigen wird und dadurch auch in unstruktruierten Daten strukturierte Ergebinsse resultieren. Die Alternative ist sehr aufwändig und in der Praxis meist unrealistisch.

Kommentar

Kontakt

Kommentar

Absenden