blog.arthistoricum.net

Halluzinierende Maschinen

Vor einiger Zeit stand ich mit drei Virtual Reality- / Artificial Intelligence-Mittelbauern um einen dieser Stehtische, die bei Konferenzen gerne im Foyer aufgebaut werden. Maschinen könnten Halluzinationen haben, sagte der eine. Das passiere dann, wenn sie einseitig „trainiert“ worden seien. Sie identifizierten dann etwa Tumore in medizinischen Aufnahmen, wo keine sind.

Die Maschine bekommt Einbildungen. Ein-gebildet hat es ihr der Mensch. Der hier gemeinte bias, die Voreingenommenheit/Schieflage/„Linksdrall“ der Maschine, besagt, dass ein – je nach Forschungszusammenhang – unzureichend zusammengestelltes Datenset selbst nach intensiver Arbeit (Training, deep learning) wiederholt falsche Ergebnisse zeitigt. Diese werden auch nicht richtiger, wenn noch mehr trainiert wird.

Wer stets und immer wieder zu Matisse arbeitet, wird seine Expertise hingegen wohl entfalten und den falschen Matisse gerade identifizieren. Das Auge ist zunehmend geschult. Der Blick, er baut auf auf kunsthistorischem Wissen. Das Dazulernen geschieht in der permanenten Konfrontation mit dem Nicht-Matisse. Die Kenntnisse erweitern sich bis hin zu einem Verständnis vom frühen, späten, untypischen Matisse. Aber wer stets und immer wieder das Dürer-Monogramm vor Augen hat, wird er eines Tages, leichtfertig, das Monogramm vorschnell „abnicken“, obwohl es gefälscht ist? Das ist, beim Kunsthistoriker wie bei der Maschine, eine Frage der Prägung.

Wenn die Maschine stets und einseitig mit Tumorbildern gespeist wird, kann es passieren, dass sie Tumore identifiziert, wo keine sind. Die Maschine halluziniert. Dysfunktional ist die wahnsinnige Maschine genau dann, wenn es ihr alleiniger Sinn sein soll, Tumore mit der Treffsicherheit des ausgefeiltesten Mediziners und noch darüber hinaus zu diagnostizieren.

Die Mittelbauer lachten. Einer blieb ernst.




0 Kommentar(e)

Kommentar

Kontakt

Kommentar

Absenden