Mitglied der Medientechnik
Philipp Mock ist seit 2014 Mitarbeiter der Medienentwicklung des IWM. Seine Hauptforschungsinteressen sind Anwendungen, die multimodale Interaktionsdaten mit Hilfe von Algorithmen des maschinellen Lernens und künstlicher Intelligenz analysieren. Dazu zählen intelligente adaptive Bedienoberflächen und die Analyse aufgezeichneter Nutzerinteraktionen. Zudem ist er an der Konzeption und Entwicklung von Anwendungen für interaktive Oberflächen beteiligt (beispielsweise digitale Besucherinformationssysteme für Museen oder die interaktive Videokonferenzinstallation Face2Face).
Philipp Mock studierte Informatik mit dem Nebenfach Medienwissenschaft an der Universität Tübingen (Diplom 2011). Seine Promotion, die er 2017 abschloss, beschäftigte sich mit der Frage, wie hochauflösende Sensordaten genutzt werden können, um die Interaktion mit Touchscreens zu verbessern.
Eine Längsschnittstudie zur Wahrnehmung und Dynamik von Mensch-KI-Interaktion
Entwicklung innovativer Interaktionsformen für Multi-Touch-Tische
Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018). Predicting ADHD risk from touch interaction data. Proceedings of the 20th ACM International Conference on Multimodal Interaction (pp. 446-454). New York, NY, USA: ACM. https://dx.doi.org/10.1145/3242969.3242986
Mock, P., Gerjets, P., Tibus, M., Trautwein, U., Moeller, K., & Rosenstiel, W. (2016). Using touchscreen interaction data to predict cognitive workload. In Y. I. Nakano, E. André, T. Nishida, L.-P. Morency, C. Busso, & C. Pelachaud (Eds.), Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 349-356). New York, NY: ACM.
Mock, P., Edelmann, J., & Rosenstiel, W. (2015). Learning instead of markers: Flexible recognition of mobile devices on interactive surfaces. In N. Streitz & P. Markopoulos (Eds.), Lecture Notes in Computer Science (Vol. 9189, p. 325–336). Cham: Springer. https://dx.doi.org/10.1007/978-3-319-20804-6_30
Mock, P., Jaszkowic, J., Edelmann, J., Kammerer, Y., Schilling, A., & Rosenstiel, W. (2015). keyValuate: A Framework for Rapid Evaluation of Adaptive Keyboards on Touchscreens. In B. Ploderer, M. Carter, M. R. Gibbs, W. Smith, & F. Vetere (Eds.), Proceedings of the Annual Meeting of the Australian Special Interest Group for Computer Human Interaction (pp. 361-369). New York, NY: ACM.
Oestermeier, U., Mock, P., Edelmann, J., & Gerjets, P. (2015). LEGO Music: Learning Composition With Bricks. Proceedings of the 14th International Conference on Interaction Design and Children (IDC '15) (pp. 283-286). New York, NY, USA: ACM.
Mock, P., Edelmann, J., Schilling, A., & Rosenstiel, W. (2014). User identification using raw sensor data from typing on interactive displays. Proceedings of the 19th international conference on Intelligent User Interfaces (IUI '14) (pp. 67-72.). New York: ACM.
Mock, P., Rosenstiel, W., Edelmann, J., & Gerjets, P. (2013). Ultrasound based positioning for museum environments - A low-cost solution for room-level localization of mobile devices. In R. Franken-Wendelstorf, E. Lindinger, & J. Kieck (Eds.), Kultur und Informatik: "Visual Worlds & Interactive Spaces" (pp. 239-246). Glückstadt: Werner Hülsbusch Verlag.
Mock, P., Schilling, A., Strasser, W., & Edelmann, J. (2012). Direct 3D-collaboration with face2face - implementation details and application concepts. 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON) (pp. 1-4). IEEE. https://dx.doi.org/10.1109/3DTV.2012.6365479
Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018, October). Predicting ADHD risk from touch interaction data. 20th ACM International Conference on Multimodal Interaction (ICMI). Boulder, CO, USA. [Poster]
Müller, T., Mock, P., Pardi, G., Oestermeier, U., & Gerjets, P. (2024). Constable 2.0: Content sharing on the multi-touch table.
Müller, T., Mock, P., Pardi, G., Oestermeier, U., & Gerjets, P. (2024). Constable 1.0: Content sharing on the multi-touch table.
Müller, T., Mock, P., Kupke, S., & Oestermeier, U. (2023). Multitouch-Poster-Browser. Tübingen: Leibniz-Institut für Wissensmedien.
Oestermeier, U., Müller, T., Mock, P., & Kupke, S. (2023). Wespen-Tisch: Eine Multitouch-App für eine Sonderausstellung über Wespen im Naturkundemuseum Stuttgart. Tübingen: Leibniz-Institut für Wissensmedien.
Klemke, A., & Mock, P. (2022). Versuchsumgebung: IWM-Study ClickItUp01. Tübingen: Leibniz-Institut für Wissensmedien.
Oestermeier, U., & Mock, P. (2022). SwiftUI LegoMusicApp. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2021). Matlab-Framework für die Simulation von Task-Wechseln bei der Verarbeitung mehrstelliger Zahlen. Tübingen: Leibniz-Institut für Wissensmedien.
Klemke, A., Mock, P., Oestermeier, U., & Schwan, S. (2020). Versuchsumgebung: IWM-Study Obersalzberg02. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2020). Matlab-Framework für die Simulationen von Paritätsprüfungen mehrstelliger Zahlen. Tübingen: Leibniz-Institut für Wissensmedien.
Halfmann, M., Lachmair, M., & Mock, P. (2019). Versuchsumgebung – Wissensräume in virtueller Realität. Tübingen: Leibniz-Institut für Wissensmedien.
Klemke, A., Mock, P., Oestermeier, U., & Schwan, S. (2019). Versuchsumgebung: IWM-Study Obersalzberg01. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2019). Strokey: Analyse von Interaktionsdaten einer digitalen Zeichen-App. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2018). Matlab-Skripte zur Analyse von Interaktionsmustern mit maschinellen Lernmethoden. Tübingen: Leibniz-Institut für Wissensmedien.
Opel, S., Mock, P., Kupke, S., & Oestermeier, U. (2018). Tüsch: Eine interaktive multi-userfähige Stadtkarte. Tübingen: Leibniz-Institut für Wissensmedien.
Linke, M., Mock, P., & Oestermeier, U. (2017). Plattformunabhängiges Framework für visuelle Inhalte und Themenkarten für Multi-Touch-Geräte (Eyevisit). Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2017). Aufbereitung und Analyse von Interaktionsmustern mit maschinellen Lernmethoden. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2017). Prototyp: Rhythmus-Player für digitale Tanzkurse. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2017). Multiple Choice Testumgebung für Multi-Touch-Geräte. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P., & Wortha, F. (2017). Experimentalsoftware: Erschließung von Kunst (Tablet und Browser). Tübingen: Leibniz-Institut für Wissensmedien.
Edelmann, J., Mock, P., & Oestermeier, U. (2016). 8 Objekte, 8 Museen: Eine Multitouch-Applikation für die Forschungsmuseen der Leibniz-Gemeinschaft. Tübingen: Leibniz-Institut für Wissensmedien.
Klemke, A., Knobloch, M., & Mock, P. (2016). SUR40Tracker - ein Windows 10 SUR40-Tracker mit Unterstützung für LEGO- und Markererkennung. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2016). EyeVisit Audio- und Multimediaguide. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P. (2015). Versuchsumgebung: Face2Face-Studie - Wirkung von Video. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P., & Eisenhut, F. (2015). Erkennung von Mobilgeräten ohne optische Marker. Tübingen: Leibniz-Institut für Wissensmedien.
Mock, P., & Müller, J. (2015). Versuchsumgebung: Zusammenhänge zwischen Bearbeitungsverhalten von Mathe- und Deutschaufgaben mit lernrelevanten Persönlichkeitskeitsvariablen. Tübingen: Leibniz-Institut für Wissensmedien.
Edelmann, J., & Mock, P. (2014). PhoneTracker: Detection of Mobile Devices on Tabletop Displays with IR Touch Frames. Tübingen: IWM.
Edelmann, J., & Mock, P. (2014). Surface Tracker: Touch Detection Module for Microsoft PixelSense. Tübingen: IWM.
Edelmann, J., & Mock, P. (2014). Oz: Adaptive Keyboard Models for Microsoft PixelSense. Tübingen: IWM.
Jaszkowic, J., & Mock, P. (2014). Multi-touch Studie: Cognitive Load. Tübingen: IWM.
Jaszkowic, J., & Mock, P. (2014). Face2Face Studie: Diagnose. Tübingen: IWM.
Jaszkowic, J., Mock, P., & Edelmann, J. (2014). Multi-touch Studie: Adaptive Tastatur. Tübingen: IWM.
Mock, P. (2014). Multi-touch Software SurfaceMemory. Tübingen: IWM.
Mock, P. (2014). Multi-touch Studie: Eye Video. Tübingen: IWM.
Dr. Philipp Mock
Schleichstraße 6