Wissenschaftlicher Mitarbeiter

Dr. Philipp Mock

Dr. Philipp Mock

Porträt von Philipp Mock

Philipp Mock ist seit 2014 Mitarbeiter der Medienentwicklung am IWM. Er beschäftigt sich aktuell mit der Anwendung von maschinellen Lernmethoden und künstlicher Intelligenz in der Mensch-Maschine-Interaktion. In seiner aktuellen Tätigkeit entwickelt er Software und ist zuständig für die Methodenberatung zu Algorithmen des maschinellen Lernens.

Dr. Philipp Mock

Schleichstr. 6

72072 Tübingen

Zimmer 6.433

+49 7071 979-357p.mock@iwm-tuebingen.de

Medientechnik

Projekte

Angezeigt werden die Projekte mit aktueller Laufzeit sowie Projekte, die in den letzten 5 Jahren stattfanden.

Publikationen

 

Artikel (peer-reviewed) | Software | Sonstige Publikationen

Artikel (peer-reviewed)

  • Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018). Predicting ADHD risk from touch interaction data. Proceedings of the 20th ACM International Conference on Multimodal Interaction (pp. 446-454). ACM. https://doi.org/10.1145/3242969.3242986

    Zum Artikel


  • Mock, P., Gerjets, P., Tibus, M., Trautwein, U., Moeller, K., & Rosenstiel, W. (2016). Using touchscreen interaction data to predict cognitive workload. In Y. I. Nakano, E. André, T. Nishida, L.-P. Morency, C. Busso, & C. Pelachaud (Eds.). Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 349-356). ACM.
  • Oestermeier, U., Mock, P., Edelmann, J., & Gerjets, P. (2015). LEGO Music: Learning Composition With Bricks. Proceedings of the 14th International Conference on Interaction Design and Children (IDC '15) (pp. 283-286). ACM.
  • Mock, P., Edelmann, J., & Rosenstiel, W. (2015). Learning instead of markers: Flexible recognition of mobile devices on interactive surfaces. In N. Streitz & P. Markopoulos (Eds.). Lecture Notes in Computer Science (Vol. 9189, pp. 325–336). Springer. https://doi.org/10.1007/978-3-319-20804-6_30

    Zum Artikel


  • Mock, P., Jaszkowic, J., Edelmann, J., Kammerer, Y., Schilling, A., & Rosenstiel, W. (2015). keyValuate: A Framework for Rapid Evaluation of Adaptive Keyboards on Touchscreens. In B. Ploderer, M. Carter, M. R. Gibbs, W. Smith, & F. Vetere (Eds.). Proceedings of the Annual Meeting of the Australian Special Interest Group for Computer Human Interaction (pp. 361-369). ACM.
  • Mock, P., Edelmann, J., Schilling, A., & Rosenstiel, W. (2014). User identification using raw sensor data from typing on interactive displays. Proceedings of the 19th international conference on Intelligent User Interfaces (IUI '14) (pp. 67-72). ACM.
  • Mock, P., Rosenstiel, W., Edelmann, J., & Gerjets, P. (2013). Ultrasound based positioning for museum environments - A low-cost solution for room-level localization of mobile devices. In R. Franken-Wendelstorf, E. Lindinger, & J. Kieck (Eds.). Kultur und Informatik: "Visual Worlds & Interactive Spaces" (pp. 239-246). Werner Hülsbusch Verlag.
  • Mock, P., Schilling, A., Strasser, W., & Edelmann, J. (2012). Direct 3D-collaboration with face2face - implementation details and application concepts. 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON) (pp. 1-4). IEEE. https://doi.org/10.1109/3DTV.2012.6365479

    Zum Artikel

  • Müller, T., Mock, P., Pardi, G., Oestermeier, U., & Gerjets, P. (2024). Constable 1.0: Content sharing on the multi-touch table. Leibniz-Institut für Wissensmedien, Tübingen.
  • Müller, T., Mock, P., Pardi, G., Oestermeier, U., & Gerjets, P. (2024). Constable 2.0: Content sharing on the multi-touch table. Leibniz-Institut für Wissensmedien, Tübingen.
  • Müller, T., Mock, P., Kupke, S., & Oestermeier, U. (2023). Multitouch-Poster-Browser.
  • Oestermeier, U., Müller, T., Mock, P., & Kupke, S. (2023). Wespen-Tisch: Eine Multitouch-App für eine Sonderausstellung über Wespen im Naturkundemuseum Stuttgart.
  • Oestermeier, U., & Mock, P. (2022). SwiftUI LegoMusicApp.
  • Klemke, A., & Mock, P. (2022). Versuchsumgebung: IWM-Study ClickItUp01.
  • Mock, P. (2021). Matlab-Framework für die Simulation von Task-Wechseln bei der Verarbeitung mehrstelliger Zahlen.
  • Mock, P. (2020). Matlab-Framework für die Simulationen von Paritätsprüfungen mehrstelliger Zahlen.
  • Klemke, A., Mock, P., Oestermeier, U., & Schwan, S. (2020). Versuchsumgebung: IWM-Study Obersalzberg02.
  • Mock, P. (2019). Strokey: Analyse von Interaktionsdaten einer digitalen Zeichen-App.
  • Halfmann, M., Lachmair, M., & Mock, P. (2019). Versuchsumgebung – Wissensräume in virtueller Realität.
  • Klemke, A., Mock, P., Oestermeier, U., & Schwan, S. (2019). Versuchsumgebung: IWM-Study Obersalzberg01.
  • Mock, P. (2018). Matlab-Skripte zur Analyse von Interaktionsmustern mit maschinellen Lernmethoden.
  • Opel, S., Mock, P., Kupke, S., & Oestermeier, U. (2018). Tüsch: Eine interaktive multi-userfähige Stadtkarte.
  • Mock, P. (2017). Aufbereitung und Analyse von Interaktionsmustern mit maschinellen Lernmethoden.
  • Mock, P., & Wortha, F. (2017). Experimentalsoftware: Erschließung von Kunst (Tablet und Browser).
  • Mock, P. (2017). Multiple Choice Testumgebung für Multi-Touch-Geräte.
  • Linke, M., Mock, P., & Oestermeier, U. (2017). Plattformunabhängiges Framework für visuelle Inhalte und Themenkarten für Multi-Touch-Geräte (Eyevisit).
  • Mock, P. (2017). Prototyp: Rhythmus-Player für digitale Tanzkurse.
  • Edelmann, J., Mock, P., & Oestermeier, U. (2016). 8 Objekte, 8 Museen: Eine Multitouch-Applikation für die Forschungsmuseen der Leibniz-Gemeinschaft.
  • Mock, P. (2016). EyeVisit Audio- und Multimediaguide.
  • Klemke, A., Knobloch, M., & Mock, P. (2016). SUR40Tracker - ein Windows 10 SUR40-Tracker mit Unterstützung für LEGO- und Markererkennung.
  • Mock, P., & Eisenhut, F. (2015). Erkennung von Mobilgeräten ohne optische Marker.
  • Mock, P. (2015). Versuchsumgebung: Face2Face-Studie - Wirkung von Video.
  • Mock, P., & Müller, J. (2015). Versuchsumgebung: Zusammenhänge zwischen Bearbeitungsverhalten von Mathe- und Deutschaufgaben mit lernrelevanten Persönlichkeitskeitsvariablen.
  • Jaszkowic, J., & Mock, P. (2014). Face2Face Studie: Diagnose.
  • Mock, P. (2014). Multi-touch Software SurfaceMemory.
  • Jaszkowic, J., Mock, P., & Edelmann, J. (2014). Multi-touch Studie: Adaptive Tastatur.
  • Jaszkowic, J., & Mock, P. (2014). Multi-touch Studie: Cognitive Load.
  • Mock, P. (2014). Multi-touch Studie: Eye Video.
  • Edelmann, J., & Mock, P. (2014). Oz: Adaptive Keyboard Models for Microsoft PixelSense.
  • Edelmann, J., & Mock, P. (2014). PhoneTracker: Detection of Mobile Devices on Tabletop Displays with IR Touch Frames.
  • Edelmann, J., & Mock, P. (2014). Surface Tracker: Touch Detection Module for Microsoft PixelSense.

Sonstige Publikationen

Präsentationen und Konferenzen

  • Mock, P., Tibus, M., Ehlis, A.-C., Baayen, H., & Gerjets, P. (2018, October). Predicting ADHD risk from touch interaction data. 20th ACM International Conference on Multimodal Interaction (ICMI). Boulder, CO, USA. [Poster Presentation]

CV