• Presse
  • Kontakt
  • deutsch | english
mobile icon
Projekt

Räumliche Onlineverarbeitung dynamischer Szenen

Arbeitsgruppe Realitätsnahe Darstellungen

Laufzeit

offen

Förderung

DFG-Projekt "Viewpoint Changes in Multiple Object Tracking"

Projektbeschreibung

Welche Prozesse laufen beim Betrachten einer dynamischen Szene ab? Ein zentraler Befund aus jüngster Zeit zeigte, dass sich die Aufmerksamkeit nicht nur auf einen einzigen räumlichen Punkt beschränkt. Vielmehr können Betrachter bis zu sechs verschiedene Objekte visuell verfolgen, selbst dann, wenn sich der Blickwinkel des Betrachters kontinuierlich ändert. Wir nehmen an, dass dieses so genannte Multiple-Object-Tracking (MOT) ein wichtiger Mechanismus für die kognitive Verarbeitung audio-visueller Medien darstellt, weil es die Betrachter von Filmen oder Besucher von virtuellen Realitäten in die Lage versetzt, den Überblick über sich schnell verändernde Ereignisse zu behalten. In einer veränderten Version des traditionellen MOT Paradigmas untersuchen wir den Einfluss verschiedener Präsentationstechniken (z.B. Filmschnitte) auf die Fähigkeit des Betrachters, Objekte visuell zu verfolgen. Im Rahmen dieses Projektes entwickeln wir neuartige Ansätze zum Abgleich von Blickbewegungen mit bewegten Objekten.

Kooperationspartner

  • Georg Jahn, Universität Greifswald
  • Adriane Seiffert, Vanderbilt University, Nashville, TN, USA
  • Till Pfeiffer, PH Karlsruhe

Publikationen

  • Meyerhoff, H.S., Huff, M., Papenmeier, F., Jahn, G., & Schwan, S. (2011). Continous visual cues trigger automatic spatial target updating in dynamic scenes. Cognition, 121, 73-82. doi:10.1016/j.cognition.2011.06.001
  • Huff, M., Papenmeier, F., Jahn, G., & Hesse, F.W. (2010). Eye movements across viewpoint changes in multiple object tracking. Visual Cognition, 18 (9), 1368-1391. doi: 10.1080/13506285.2010.495878 
  • Huff, M., Meyerhoff, H. S., Papenmeier, F., & Jahn, G. (2010). Spatial updating of dynamic scenes: Tracking multiple invisible objects across viewpoint changes. Attention, Perception, & Psychophysics, 72 (3), 628-636. doi:10.3758/APP.72.3.628.
  • Papenmeier, F., & Huff, M. (2010). DynAOI: A tool for matching eye-movement data with dynamic areas of interest in animations and movies. Behavior Research Methods, 42, 179-187.
  • Huff, M., Jahn, G., & Schwan, S. (2009). Tracking multiple objects across abrupt viewpoint changes. Visual Cognition, 17 (3), 297-306.