• Presse
  • Kontakt
  • deutsch | english
mobile icon
Wissenschaftlicher Bereich
Assoziierte
Wissenschaftler/innen
Portal e-teaching
Medientechnik
Hilfskräfte und
Praktikant/innen
Verwaltung und
Hausdienst
Ehemalige
Direktorat und
Sekretariate
Alle
auswählen
Dr.  Philipp Mock
Wissenschaftlicher Mitarbeiter

Dr. Philipp Mock

Mitglied der Medientechnik.

Philipp Mock ist seit 2014 Mitarbeiter der Medienentwicklung des IWM. Schwerpunkte seiner Arbeit sind die Konzeption und Entwicklung von Anwendungen für Multi-Touch-Eingabegeräte und die Analyse von Interaktionsdaten. Im Rahmen des Forschungsprojekts „Intuitive und personalisierte Besucherinformation im Museum mit interaktiven Displays: Kontextualisiert – Multimedial – Kollaborativ“ (EyeVisit) war er an der Entwicklung von Multi-Touch-Anwendungen für interaktive Tische und mobile Endgeräte beteiligt. Weitere Themenschwerpunkte sind adaptive Nutzerschnittstellen und der Entwurf von neuartigen Eingabekonzepten (z.B. die interaktive Videokonferenzinstallation Face2Face).

2011 schloss Philipp Mock sein Studium der Informatik mit Nebenfach Medienwissenschaften (Diplom) an der Eberhard Karls Universität Tübingen ab. Seit 2011 promoviert er am Fachbereich Informatik der Universität Tübingen. Thema seiner Promotion ist die Nutzung von hochauflösenden Sensordaten zur Verbesserung der Eingabequalität von interaktiven Oberflächen. Besonderer Fokus liegt dabei auf der Nutzung solcher Daten für adaptive Lernumgebungen. Seit 2012 ist er assoziiertes Mitglied der Exzellenz-Graduiertenschule LEAD.


 

Curriculum Vitae   

Projekte

Entwicklung innovativer Interaktionsformen für Multi-Touch-Tische

Tagungsbände

Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018). Predicting ADHD risk from touch interaction data. Proceedings of the 20th ACM International Conference on Multimodal Interaction (pp. 446-454). New York, NY, USA: ACM. https://dx.doi.org/10.1145/3242969.3242986
 

Mock, P., Gerjets, P., Tibus, M., Trautwein, U., Moeller, K., & Rosenstiel, W. (2016). Using touchscreen interaction data to predict cognitive workload. In Y. I. Nakano, E. André, T. Nishida, L.-P. Morency, C. Busso, & C. Pelachaud (Eds.), Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 349-356). New York, NY: ACM.
 

Mock, P., Edelmann, J., & Rosenstiel, W. (2015). Learning instead of markers: Flexible recognition of mobile devices on interactive surfaces. In N. Streitz & P. Markopoulos (Eds.), Lecture Notes in Computer Science (Vol. 9189, p. 325–336). Cham: Springer. https://dx.doi.org/10.1007/978-3-319-20804-6_30
 

Mock, P., Jaszkowic, J., Edelmann, J., Kammerer, Y., Schilling, A., & Rosenstiel, W. (2015). keyValuate: A Framework for Rapid Evaluation of Adaptive Keyboards on Touchscreens. In B. Ploderer, M. Carter, M. R. Gibbs, W. Smith, & F. Vetere (Eds.), Proceedings of the Annual Meeting of the Australian Special Interest Group for Computer Human Interaction (pp. 361-369). New York, NY: ACM.
 

Oestermeier, U., Mock, P., Edelmann, J., & Gerjets, P. (2015). LEGO Music: Learning Composition With Bricks. Proceedings of the 14th International Conference on Interaction Design and Children (IDC '15) (pp. 283-286). New York, NY, USA: ACM.
 

Mock, P., Edelmann, J., Schilling, A., & Rosenstiel, W. (2014). User identification using raw sensor data from typing on interactive displays. Proceedings of the 19th international conference on Intelligent User Interfaces (IUI '14) (pp. 67-72.). New York: ACM.
 

Mock, P., Rosenstiel, W., Edelmann, J., & Gerjets, P. (2013). Ultrasound based positioning for museum environments - A low-cost solution for room-level localization of mobile devices. In R. Franken-Wendelstorf, E. Lindinger, & J. Kieck (Eds.), Kultur und Informatik: "Visual Worlds & Interactive Spaces" (pp. 239-246). Glückstadt: Werner Hülsbusch Verlag.
 

Mock, P., Schilling, A., Strasser W., & Edelmann, J. (2012). Direct 3D-collaboration with face2face - implementation details and application concepts. 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON) (pp. 1-4). IEEE. https://dx.doi.org/10.1109/3DTV.2012.6365479
 

Konferenzbeiträge

Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018, October). Predicting ADHD risk from touch interaction data. 20th ACM International Conference on Multimodal Interaction (ICMI). Boulder, CO, USA. [Poster]
 

Software Entwicklung

Mock, P. (2018). Matlab-Skripte zur Analyse von Interaktionsmustern mit maschinellen Lernmethoden. Tübingen: Leibniz-Institut für Wissensmedien.
 

Opel, S., Mock, P., Kupke, S., & Oestermeier, U. (2018). Tüsch: Eine interaktive multi-userfähige Stadtkarte. Tübingen: Leibniz-Institut für Wissensmedien.
 

Linke, M., Mock, P., & Oestermeier, U. (2017). Plattformunabhängiges Framework für visuelle Inhalte und Themenkarten für Multi-Touch-Geräte (Eyevisit). Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P. (2017). Prototyp: Rhythmus-Player für digitale Tanzkurse. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P. (2017). Aufbereitung und Analyse von Interaktionsmustern mit maschinellen Lernmethoden. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P. (2017). Multiple Choice Testumgebung für Multi-Touch-Geräte. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P., & Wortha, F. (2017). Experimentalsoftware: Erschließung von Kunst (Tablet und Browser). Tübingen: Leibniz-Institut für Wissensmedien.
 

Edelmann, J., Mock, P. & Oestermeier, U. (2016). 8 Objekte, 8 Museen: Eine Multitouch-Applikation für die Forschungsmuseen der Leibniz-Gemeinschaft. Tübingen: Leibniz-Institut für Wissensmedien.
 

Klemke, A., Knobloch, M., & Mock, P. (2016). SUR40Tracker - ein Windows 10 SUR40-Tracker mit Unterstützung für LEGO- und Markererkennung. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P. (2016). EyeVisit Audio- und Multimediaguide. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P. (2015). Versuchsumgebung: Face2Face-Studie - Wirkung von Video. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P., & Eisenhut, F. (2015). Erkennung von Mobilgeräten ohne optische Marker. Tübingen: Leibniz-Institut für Wissensmedien.
 

Mock, P., & Müller, J. (2015). Versuchsumgebung: Zusammenhänge zwischen Bearbeitungsverhalten von Mathe- und Deutschaufgaben mit lernrelevanten Persönlichkeitskeitsvariablen. Tübingen: Leibniz-Institut für Wissensmedien.
 

Edelmann, J., & Mock, P. (2014). PhoneTracker: Detection of Mobile Devices on Tabletop Displays with IR Touch Frames. Tübingen: IWM.
 

Edelmann, J., & Mock, P. (2014). Oz: Adaptive Keyboard Models for Microsoft PixelSense. Tübingen: IWM.
 

Edelmann, J., & Mock, P. (2014). Surface Tracker: Touch Detection Module for Microsoft PixelSense. Tübingen: IWM.
 

Jaszkowic, J., & Mock, P. (2014). Multi-touch Studie: Cognitive Load. Tübingen: IWM.
 

Jaszkowic, J., & Mock, P. (2014). Face2Face Studie: Diagnose. Tübingen: IWM.
 

Jaszkowic, J., Mock, P., & Edelmann, J. (2014). Multi-touch Studie: Adaptive Tastatur. Tübingen: IWM.
 

Mock, P. (2014). Multi-touch Studie: Eye Video. Tübingen: IWM.
 

Mock, P. (2014). Multi-touch Software SurfaceMemory. Tübingen: IWM.
 

Kontakt

Dr.  Philipp Mock

Dr. Philipp Mock

Schleichstraße 6
72076 Tübingen
Zimmer 6.433
Tel.: +49 7071 979-357
Fax: +49 7071 979-124