Scientist

Dr. Philipp Mock

Dr. Philipp Mock

Portrait of Philipp Mock

Philipp Mock has been working as a member of the media development group at the IWM since 2014. He is currently working on the application of machine learning methods and artificial intelligence in human-machine interaction. In his current position, he develops software and is responsible for method consulting on machine learning algorithms.

Dr. Philipp Mock

Schleichstr. 6

72072 Tübingen

Room 6.433

+49 7071 979-357p.mock@iwm-tuebingen.de

Media Technology Department

Projects

Projects with a current term and projects that have taken place in the last 5 years are shown.

Publications

 

Articles (peer-reviewed) | Software | Other publications

Articles (peer-reviewed)

  • Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018). Predicting ADHD risk from touch interaction data. Proceedings of the 20th ACM International Conference on Multimodal Interaction (pp. 446-454). ACM. https://doi.org/10.1145/3242969.3242986

    View article


  • Mock, P., Gerjets, P., Tibus, M., Trautwein, U., Moeller, K., & Rosenstiel, W. (2016). Using touchscreen interaction data to predict cognitive workload. In Y. I. Nakano, E. André, T. Nishida, L.-P. Morency, C. Busso, & C. Pelachaud (Eds.). Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 349-356). ACM.
  • Oestermeier, U., Mock, P., Edelmann, J., & Gerjets, P. (2015). LEGO Music: Learning Composition With Bricks. Proceedings of the 14th International Conference on Interaction Design and Children (IDC '15) (pp. 283-286). ACM.
  • Mock, P., Edelmann, J., & Rosenstiel, W. (2015). Learning instead of markers: Flexible recognition of mobile devices on interactive surfaces. In N. Streitz & P. Markopoulos (Eds.). Lecture Notes in Computer Science (Vol. 9189, pp. 325–336). Springer. https://doi.org/10.1007/978-3-319-20804-6_30

    View article


  • Mock, P., Jaszkowic, J., Edelmann, J., Kammerer, Y., Schilling, A., & Rosenstiel, W. (2015). keyValuate: A Framework for Rapid Evaluation of Adaptive Keyboards on Touchscreens. In B. Ploderer, M. Carter, M. R. Gibbs, W. Smith, & F. Vetere (Eds.). Proceedings of the Annual Meeting of the Australian Special Interest Group for Computer Human Interaction (pp. 361-369). ACM.
  • Mock, P., Edelmann, J., Schilling, A., & Rosenstiel, W. (2014). User identification using raw sensor data from typing on interactive displays. Proceedings of the 19th international conference on Intelligent User Interfaces (IUI '14) (pp. 67-72). ACM.
  • Mock, P., Rosenstiel, W., Edelmann, J., & Gerjets, P. (2013). Ultrasound based positioning for museum environments - A low-cost solution for room-level localization of mobile devices. In R. Franken-Wendelstorf, E. Lindinger, & J. Kieck (Eds.). Kultur und Informatik: "Visual Worlds & Interactive Spaces" (pp. 239-246). Werner Hülsbusch Verlag.
  • Mock, P., Schilling, A., Strasser, W., & Edelmann, J. (2012). Direct 3D-collaboration with face2face - implementation details and application concepts. 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON) (pp. 1-4). IEEE. https://doi.org/10.1109/3DTV.2012.6365479

    View article

Software

  • Müller, T., Mock, P., Pardi, G., Oestermeier, U., & Gerjets, P. (2024). Constable 1.0: Content sharing on the multi-touch table. Leibniz-Institut für Wissensmedien, Tübingen.
  • Müller, T., Mock, P., Pardi, G., Oestermeier, U., & Gerjets, P. (2024). Constable 2.0: Content sharing on the multi-touch table. Leibniz-Institut für Wissensmedien, Tübingen.
  • Müller, T., Mock, P., Kupke, S., & Oestermeier, U. (2023). Multitouch-Poster-Browser.
  • Oestermeier, U., Müller, T., Mock, P., & Kupke, S. (2023). Wespen-Tisch: Eine Multitouch-App für eine Sonderausstellung über Wespen im Naturkundemuseum Stuttgart.
  • Oestermeier, U., & Mock, P. (2022). SwiftUI LegoMusicApp.
  • Klemke, A., & Mock, P. (2022). Versuchsumgebung: IWM-Study ClickItUp01.
  • Mock, P. (2021). Matlab-Framework für die Simulation von Task-Wechseln bei der Verarbeitung mehrstelliger Zahlen.
  • Mock, P. (2020). Matlab-Framework für die Simulationen von Paritätsprüfungen mehrstelliger Zahlen.
  • Klemke, A., Mock, P., Oestermeier, U., & Schwan, S. (2020). Versuchsumgebung: IWM-Study Obersalzberg02.
  • Mock, P. (2019). Strokey: Analyse von Interaktionsdaten einer digitalen Zeichen-App.
  • Halfmann, M., Lachmair, M., & Mock, P. (2019). Versuchsumgebung – Wissensräume in virtueller Realität.
  • Klemke, A., Mock, P., Oestermeier, U., & Schwan, S. (2019). Versuchsumgebung: IWM-Study Obersalzberg01.
  • Mock, P. (2018). Matlab-Skripte zur Analyse von Interaktionsmustern mit maschinellen Lernmethoden.
  • Opel, S., Mock, P., Kupke, S., & Oestermeier, U. (2018). Tüsch: Eine interaktive multi-userfähige Stadtkarte.
  • Mock, P. (2017). Aufbereitung und Analyse von Interaktionsmustern mit maschinellen Lernmethoden.
  • Mock, P., & Wortha, F. (2017). Experimentalsoftware: Erschließung von Kunst (Tablet und Browser).
  • Mock, P. (2017). Multiple Choice Testumgebung für Multi-Touch-Geräte.
  • Linke, M., Mock, P., & Oestermeier, U. (2017). Plattformunabhängiges Framework für visuelle Inhalte und Themenkarten für Multi-Touch-Geräte (Eyevisit).
  • Mock, P. (2017). Prototyp: Rhythmus-Player für digitale Tanzkurse.
  • Edelmann, J., Mock, P., & Oestermeier, U. (2016). 8 Objekte, 8 Museen: Eine Multitouch-Applikation für die Forschungsmuseen der Leibniz-Gemeinschaft.
  • Mock, P. (2016). EyeVisit Audio- und Multimediaguide.
  • Klemke, A., Knobloch, M., & Mock, P. (2016). SUR40Tracker - ein Windows 10 SUR40-Tracker mit Unterstützung für LEGO- und Markererkennung.
  • Mock, P., & Eisenhut, F. (2015). Erkennung von Mobilgeräten ohne optische Marker.
  • Mock, P. (2015). Versuchsumgebung: Face2Face-Studie - Wirkung von Video.
  • Mock, P., & Müller, J. (2015). Versuchsumgebung: Zusammenhänge zwischen Bearbeitungsverhalten von Mathe- und Deutschaufgaben mit lernrelevanten Persönlichkeitskeitsvariablen.
  • Jaszkowic, J., & Mock, P. (2014). Face2Face Studie: Diagnose.
  • Mock, P. (2014). Multi-touch Software SurfaceMemory.
  • Jaszkowic, J., Mock, P., & Edelmann, J. (2014). Multi-touch Studie: Adaptive Tastatur.
  • Jaszkowic, J., & Mock, P. (2014). Multi-touch Studie: Cognitive Load.
  • Mock, P. (2014). Multi-touch Studie: Eye Video.
  • Edelmann, J., & Mock, P. (2014). Oz: Adaptive Keyboard Models for Microsoft PixelSense.
  • Edelmann, J., & Mock, P. (2014). PhoneTracker: Detection of Mobile Devices on Tabletop Displays with IR Touch Frames.
  • Edelmann, J., & Mock, P. (2014). Surface Tracker: Touch Detection Module for Microsoft PixelSense.

Other publications

Presentations und Conferences

  • Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018, October). Predicting ADHD risk from touch interaction data. 20th ACM International Conference on Multimodal Interaction (ICMI). Boulder, CO, USA. [Poster Presentation]

CV