Login

Registrieren
merken
Georgios Chatzoudis | 30.05.2018 | 354 Aufrufe | Vorträge

Computergestützte Film- und Videoanalyse

Panel "Der sehende Computer" der Jahrestagung DHd2018 | Kritik der digitalen Vernunft

Das Thema Bild- und Bewegtbildanalyse gewinnt auch in der – bis dato stark auf Text fokussierten – Digital Humanities-Community immer mehr an Bedeutung.  Anders als beispielsweise für den Bereich Text, gibt es für die Filmanalyse bislang nur wenige etablierte Verfahren und Softwarelösungen zur Erschließung und Verarbeitung von Film- und Videodaten. Wenngleich etablierte Felder aus der Informatik – wie etwa computer vision oder audio processing – vielversprechende Ansätze für die computergestützte Analyse von Film und Video bereitstellen, so erfordern diese mitunter erhebliches informatisches Know-How. Trotz dieser schwierigen Gemengelage ist – zumindest in Einzelprojekten – im Kontext computergestützter Forschung bereits zu einzelnen filmwissenschaftlichen Fragestellungen und Aspekten wie Schnittrhythmus, Farbstrukturen, Rollenverteilungen, Plotstrukturen, Filmsprache oder der globalen Zirkulation von Filmen geforscht worden. Im Rahmen des Panels werden nach einer kurzen Vorstellung der entsprechenden DHd-AG in insgesamt fünf Impulsreferaten exemplarische Ansätze zur computerbasierten Analyse von Film und Video vorgestellt und mit dem Plenum diskutiert. Im Anschluss an die Panelvorträge findet eine allgemeine Diskussionsrunde mit den Vortragenden und dem Plenum statt, in der gegebenenfalls weitere digitale Analyseansätze ergänzt und zur Diskussion gestellt werden.

00:01 Begrüßung Gernot Howanitz, Universität Passau

01:38 Thematische Einführung Niels-Oliver Walkowski, Berlin-Brandenburgische Akademie der Wissenschaften

09:22 Computergestützte Analyse von Filmsprache: Zwei Fallstudien | Vortrag von Manuel Burghardt, Universität Regensburg

20:37 Dem Film auf der Spur – Die computergestützte Auffindbarkeit von Bild, Clip, Stil | Vortrag von Adelheid Heftberger, Brandenburgisches Zentrum für Medienwissenschaften, Potsdam

31:40 Wikidata für die Zugänglichmachung von Forschungsdaten in den Filmwissenschaften | Vortrag von Claudia Müller-Birn, Freie Universität Berlin

43:05 Licht und Schatten. Methodische Herangehensweisen an die Analyse von Farbstrukturen in Filmen | Vortrag von Niels-Oliver Walkowski, Berlin-Brandenburgische Akademie der Wissenschaften

55:08 Automatisierte Verfahren für Analyse, Retrieval und Annotation von Video und Film | Vortrag von Matthias Zeppelzauer, Fachhochschule St. Pölten

68:00 Diskussion mit dem Publikum

Videoreihe "Jahrestagung DHd2018"

Panelvorträge

Manuel Burghardt, Universität Regensburg
Computergestützte Analyse von Filmsprache: Zwei Fallstudien
Für die computergestützte Analyse von Filmen bieten sich auf der visuellen Ebene eine ganze Reihe von quantitativ erfassbaren Parametern an, etwa die Analyse von Einstellungslängen und -frequenzen, Farben, Personen oder Objekten. Weiterhin bietet die Filmsprache – die in Form von Untertiteln für eine Vielzahl von Filmen bereits als textuelle Transkription vorliegt – einen niederschwelligen Analysezugang, für den viele bestehende Tools und Methoden aus der computergestützten Sprach- und Literaturanalyse angewendet werden können. Im Rahmen des Panelvortrags sollen überblicksartig zwei Ansätze zur Analyse von Film und Serien auf Basis der jeweiligen Sprachdaten vorgestellt werden. Die erste Fallstudie illustriert dabei Möglichkeiten der automatischen Berechnung von filmischen Strukturen, indem das Konzept von Marcus (1970) mathematischer Dramenanalyse auf den Bereich von TV-Serien übertragen wird. Eine zweite Fallstudie zeigt auf, wie mithilfe computergestützter Methoden ein exploratives Tool für die Analyse von Filmen umgesetzt werden kann, welches es erlaubt, einen Film nach bestimmten Figurennamen und Schlüsselwörtern zu durchsuchen. Das Ergebnis dieser Suche wird in einer interaktiven Visualisierung der Trefferszenen zur weiteren Analyse dargestellt.

Adelheid Heftberger, Brandenburgisches Zentrum für Medienwissenschaften, Potsdam
Dem Film auf der Spur – Die computergestützte Auffindbarkeit von Bild, Clip, Stil
Filmschaffende haben sich von Anfang bei ihrer Kollegenschaft sowie audiovisuellen Archiven bedient. Einerseits handelt es sich dabei um die Integration von Ausschnitten in eigene Filme; andererseits um die Übernahme stilistischer Verfahren. Auch aus einer Archiv-Perspektive ist es interessant, die Spuren von filmischer Überlieferung zu verfolgen. Solche Untersuchungen unterliegen bislang nach wie vor den Grenzen der menschlichen Recherchekapazität, der Verfügbarkeit von Quellen und auch Rollenzuschreibungen der beteiligten Institutionen. Im Panelvortrag sollen aus filmgeschichtlicher Perspektive Desiderate an die computergestützte Analyse formuliert werden, deren Umsetzung erst zögerlich erfolgt. Anhand einer Fallstudie soll das Potential aufgezeigt werden, das sich aus der multimodalen Analyse für die Filmgeschichte und v.a. die Überlieferungs- und Rezeptionsgeschichte ergeben könnte.

Claudia Müller-Birn, Freie Universität Berlin
Wikidata für die Zugänglichmachung von Forschungsdaten in den Filmwissenschaften
Wissenschaftliche Publikationen in den Geisteswissenschaften haben oft nicht die Reichweite und Nachhaltigkeit, die für HerausgeberInnen und AutorInnen wünschenswert wäre. Die Ablieferung von Faktenwissen an eine breiter rezipierte und maschinenlesbare Wissensdatenbank wie Wikidata könnte ein Ansatz sein, diese Reichweite und Nachhaltigkeit zu erzeugen. Dafür müssen allerdings nutzerzentrierte Softwarelösungen entwickelt werden, die es erlauben, dieses Faktenwissen auch niederschwellig und korrekt zu übertragen: Am Beispiel der multilingualen Open Access Zeitschrift „Apparatus – Film, Media and Digital Cultures in Central and Eastern Europe“ soll demonstriert werden, wie ein solcher Workflow zur Übertragung von Faktenwissen aussehen könnte. Einerseits werden Einträge in Wikidata mit Referenzen (Bezug auf die jeweilige Publikation) versehen, andererseits werden bestehende Einträge auch mit neuen Informationen angereichert oder sogar neu erstellt, sofern sie nicht vorhanden sind. Der Panelbeitrag zeigt das Potential für die bessere Zugänglichmachung von Forschungsdaten in den Filmwissenschaften.

Niels-Oliver Walkowski, Berlin-Brandenburgische Akademie der Wissenschaften
Licht und Schatten. Methodische Herangehensweisen an die Analyse von Farbstrukturen in Filmen
Obgleich Film als stark visuell geprägtes Medium in weiten Teilen vom Spiel der Farben, ihrer Inszenierung und Dramaturgisierung lebt, stellte die Untersuchung von Farbstrukturen Wendy Everetts (2007) zufolge innerhalb der Filmtheorie vor 10 Jahren immer noch so etwas wie „the last great wilderness, the one remaining area yet to be explored, mapped, and charted“ dar. Diese Situation hat sich bisher nicht signifikant verändert. Allerdings macht es die Entwicklung digitaler Methoden in den Filmwissenschaften während der seit dem vergangenen Zeit möglich, der Problematik neue Impulse zu verleihen. Eine Reihe von Projekten der letzten Jahre versucht genau dies zu tun. Zu nennen sind hier unter anderem Brodbecks (2011) Cinemetrics, Bakers (2015) Spectrum sowie die Projekte Movie Barcodes (Anonymus, 2016), Movie Analyzer (Burghardt et al., 2016), das ACTION Toolkit (Casey, 2014), das Projekt Film Colors (Flückiger, 2015) sowie die Arbeit von Pause und Walkowski (2017). Mit Ausnahme der letzten drei Beiträge entstammen diese Arbeiten anderen Forschungsfeldern als den Filmwissenschaften. Diese Situation sowie der Umstand, dass die computergestützte Analyse von Farbe in einem filmwissenschaftlichen Kontext ein so junges Forschungsfeld ist, lassen eine methodische Systematisierung und Diskussion verschiedener Ansätze der Farbanalyse sinnvoll erscheinen. Der Panelbeitrag wird eine solche Übersicht geben. Des Weiteren werden unterschiedliche Strategien vorgestellt, mit denen versucht wird; eine Interpretation und Vermittlung der Analyseergebnisse zu unterstützen.

Matthias Zeppelzauer, Fachhochschule St. Pölten,Österreich
Automatisierte Verfahren für Analyse, Retrieval und Annotation von Video und Film
Die manuelle Annotation von Videodaten is tüblicherweise eine zeitaufwendige Tätigkeit, die aufgrund der subjektiven Bewertungen unterschiedlicher AnnotatorInnen leicht zu Inkonsistenzen führen kann, insbesondere wenn die zu annotierenden Konzepte großen semantischen Interpretationsspielraum bieten. Automatische Annotationsmethoden basierend auf automatischen Bild- und Videoanalysemethoden aus dem Bereich des maschinellen Sehens (computer vision) bieten eine vielversprechende Alternative, um den Annotationsvorgang einerseits zu beschleunigen und andererseits zu formalisieren und zu objektivieren. In der Vergangenheit wurden zunächst automatisierte Methoden für die Erkennung von Schnitten und Einstellungsübergängen entwickelt. Darauf aufbauend wurden dann Lösungen präsentiert für die automatische Segmentierung von Videos und Filmen in einzelne semantisch kohärente Szenen. Methoden aus dem Bereich der inhaltsbasierten Bildsuche können eingesetzt werden, um nach visuellen Mustern, z.B. häufig auftretende Motive, Objekte oder Personen zu suchen. Methoden der Bewegungsanalyse ( motion tracking) können eingesetzt werden, um Kamerabewegungen oder Objektbewegungen automatisiert zu erfassen. Ergänzend zur Bildanalyse kann die akustische Analyse der Tonspur weitere interessante Einsichten in den Rhythmus und die Montage von Filmen geben. Im interdisziplinären Projekt Digital Formalism wurde ein breites Spektrum automatisierter Verfahren erfolgreich für die Analyse und die Annotation von Video- und Filmdaten eingesetzt. In diesem Impulsreferat soll das Potenzial automatischer inhaltsbasierter Analyseverfahren an kurzen Beispielen aus der Praxis illustriert werden.

Konferenz

Die Digital Humanities werden häufig als digital transformierte Bearbeitung von Fragestellungen aus den verschiedenen beteiligten Fächern beschrieben. Daneben entsteht der Eindruck, dass die DH in weiten Teilen eine daten-, algorithmen- und werkzeuggetriebene Wissenschaft sei, die von ihren unmittelbaren Möglichkeiten und ihren Praktiken dominiert sei. Wie lässt sich dies aber mit dem kritischen Anspruch der Geisteswissenschaften vereinbaren? Gibt es im Umgang mit digitalen Medien, in der Modellierung, Operationalisierung und Formalisierung der Arbeit mit Computern implizite, stillschweigend akzeptierte Agenden, die einer Reflexion durch einen „Intellectual Criticism“ bedürfen?

Die Tagung soll den Fokus auf die kritische Dimension digitaler Forschung richten und damit Denkanstöße zu Theoriebildung und Epistemologie der digitalen Forschung geben. In diesem Rahmen sollen auch gesellschaftliche, soziale und politische Dimensionen der in allen Bereichen wirksamen Digitalisierungsprozesse unter so heterogenen Begriffen wie Interaktionsformen, Partizipation, Bildung, Digital Literacy sowie Auswirkungen und Rückwirkungen der Digitalität auf Wissenschaft und Gesellschaft diskutiert werden.

Im Rahmen der Tagung sollen daher unter anderem folgende Fragen verfolgt werden:

– Kritik der Digitalisierung – Formate, Standards und Praktiken
– Kritik digitaler Angebote, Projekte und Werkzeuge
– Kritik der digitalen Methoden
– Kritik der digitalen Geisteswissenschaften (traditionelle Fächer und DH)
– Kritik der digitalen Wissenschaftstheorie
– Kritik der digitalen Gesellschaft

Darüber hinaus sind Vorträge zu allgemeinen Themen aus dem Bereich der DH sowie die Diskussion von positiven und negativen, eigenen und fremden Projektergebnissen willkommen.

Die DHd Konferenz 2018 "Kritik der digitalen Vernunft" wurde unter anderen von der Gerda Henkel Stiftung gefördert.

Kommentar erstellen

CB3V6P