blog.arthistoricum.net

Rückblick Tagung Weblogs

Nur damit es nicht untergeht, erlaube ich mir, hier noch mal in einem eigenen Beitrag auf die Tagung zu "Weblogs in den Geisteswissenschaften" zu verweisen, die in der letzten Woche an der Bayerischen Akademie der Wissenschaften stattgefunden hat. Infos dazu finden Sie hier, wobei vor allem die Kommentare zu beachten sind. Ab sofort stehen die Beiträge hier auch als Videocast zur Verfügung

3 Kommentar(e)

  • Noch ein spätes aber gutes Echo! :)
    http://www.youtube.com/watch?v=OH8GZIlNpSo&feature=relmfu

  • Hubertus Kohle
    16.03.2012 08:20

    Das mit dem Blablameter ist witzig, aber in einem blog wie diesem, in dem mehrere schreiben, vielleicht doch auch ein wenig abschreckend. Ich schlage vor, Sie machen mit wisenschaftlichen Texte mal ihre eigenen Versuche. Wäre doch schön zu sehen, ob ein/e renommierte/r Autor/in mit einem berühmten Artikel bestätigt werden kann - oder auch nicht. Aber so richtig ausgereift scheint mir das ja nun auch nicht :)

  • Adrian
    15.03.2012 15:16

    Sehr geehrter Herr Prof. Kohle,

    mit Interesse verfolge ich Ihre Arbeiten zur Entwicklung der Digitalen Kunstgeschichte und schaue mir nach und nach – ganz virtuell und unverschämt bequem von der Couch aus – die Vorträge der Tagung an.

    Auf Ihrer Suche nach neuen Methoden wissenschaftliche Texte in Blogs automatisch zu bewerten, habe ich ein interessantes Tool gefunden: Das BLABLAMETER*. Es bewertet Texte nach deren Verständlichkeit, dem guten Stil. Spannend ist dazu eine Entdeckung der Erfinder:

    "Benutzt Google einen ähnlichen Algorithmus?
    Wir wissen es nicht, aber wenn wir Google wären, würden wir es wohl versuchen! Unsere Stichproben bei umkämpften Suchbegriffen haben ergeben, dass sehr gut positionierte Webseiten häufig auch gute Indexwerte zeigen."

    Ein paar Ideen zur Diskussion:

    – Könnte man das Prinzip des Blablameters analog auf wissenschaftliche Texte anwenden und so vielleicht auf spannende Ergebnisse hoffen?**

    – Zeigt die Kombination mehrerer automatischer Kontrollmethoden (Plagiat-Finder, Statistiken etc.) vielleicht auffällige Muster, die alle "schlechten" Texte gemein haben?

    – Kann man das "literaturwissenschaftliche" Blablameter weiter entwickeln, mit dem Ziel "falsche Inhalte" an ihrem Stil zu erkennen, wie bei einem Test mit Lügendetektor?

    Naja, vielleicht ist das auch etwas zu phantasievoll ... 

    Hier der Link, der auch einfach so Spass machen kann: http://www.blablameter.de/


    *Blablameter in der Presse:
    http://www.zeit.de/digital/internet/2011-07/blablameter-software
    http://www.tagesspiegel.de/medien/blablameter-gehaltlosen-texten-auf-der-spur/4419286.html

    **Der Text in dieser E-Mail ergibt ein "gerade noch gutes" Ergebnis, was vielleicht auf einen nicht ganz falschen Inhalt hinweisen könnte.
    (Andererseits ist es leicht machbar, mit einem völlig unsinnigen, aber korrekt verfassten Text die Bewertung 0,00 zu erzielen ...)

    Ihr Text: 1947 Zeichen, 276 Wörter
    Bullshit-Index :0.18
    Ihr Text zeigt nur geringe Hinweise auf 'Bullshit'-Deutsch.

Kommentar

Kontakt

Kommentar

Absenden