Proseminar "Eye Tracking"
[go to overview]Winter Term 2020 / 2021
Eye tracking beschreibt den Ansatz die Augenbewegung von Nutzern zu verfolgen und im Kontext der Umgebung oder von Bildschirminhalten zu verstehen. In diesem Proseminar sollen unterschiedliche Aspekte von Eye Tracking diskutiert und analysiert werden.
Proceedings
Vier Teilnehmer des Proseminars haben ihre Reports für die Veröffentlichung freigegeben:
- Erfassung nicht videobasierter Blickdaten von Luca Gerhards
- Filtering of Raw Gaze Data von Niels Weissörtel
- Fitt’s Law in der Blicksteuerng von Janin Reutelsterz
- Nutzbarkeitsstudien mit Blickdaten von Julika Kistner
Themen
- Physiologie des Auges [Kapitel 2 von [1]]
- Erfassung von Blickdaten - Video-basiert (Kapitel 5 von [1])
- Erfassung von Blickdaten - alles außer Video-basiert (Kapitel 5 von [1])
- Taxonomie und Modelle von Augenbewegungen (Kapitel 4 von [1])
- Filterung von Blickdaten (Kapitel 12 von [1])
- Aufmerksamkeit aus Blickdaten abschätzen (Kapitel 1 von [1])
- Experimenteller Aufbau von Blickstudien (Kapitel 13 von [1])
- Visualisierung von Blickdaten - Punkt-basiert [7]
- Visualisierung von Blickdaten - AOI-basiert [7]
- Nutzbarkeitsstudien mit Blickdaten [5]
- Photo-Tagging mit Blickdaten [6]
- Blickanalyse von Websuchen [11]
- Fitts’ Law in der Blicksteuerung [4]
- Optimierungsmodelle für Dwell-times [12]
- Online-Drift Ausgleich [13]
- Auswahl mit Blicksteuerung (Sektion 5.2 von [2])
- Texteingabe mit Blicksteuerung - Dwell-time-basiert [8]
- Texteingabe mit Blicksteuerung - Gesten-basiert [9]
- PIN-Eingabe mit Blicksteuerung [10]
- Computerspiele mit Blicksteuerung (Sektion 5.3 von [2])
Zu jedem Thema müssen mindestens zwei weitere Referenzen selbstständig gefunden und eingearbeitet werden. Weitere Themenvorschläge (mit Referenzen) sind willkommen.
Organisation
Es soll eine 30 20-minütige Präsentation zu dem gewählten Thema gehalten und ein 10 bis 12-seitiger Report eingereicht werden.
Zur Anmeldung bitte eine E-Mail mit folgendem Inhalt bis 31. August 2020 an raphaelmenges@uni-koblenz.de:
- Name
- Matrikelnummer
- Studiengang
- Fachsemester
- Auswahl dreier Themen von Interesse
Wir werden im September die Themen zuweisen und die Bewerber benachrichtigen. Die maximale Anzahl der Teilnehmer ist auf 20 Personen begrenzt. Wir können nicht garantieren, dass Sie zugelassen werden, noch dass Ihnen ein Thema von Interesse zugewiesen wird.
Alle Treffen und Präsentationen werden vorraussichtlich via Video-Konferenz stattfinden. Eine Webcam ist daher dringend notwendig. Anfang Oktober werden wir ein Vortreffen abhalten und den Ablauf des Proseminars besprechen. Der erste Entwurf des Reports muss Anfang Dezember eingereicht werden. Jeder Teilnehmer begutachtet im Dezember die Entwürfe von zwei anderen Teilnehmern (aka Peer-Review). Im Januar werden die Präsentationen im Rahmen einer Blockveranstaltung stattfinden, der finale Report muss im Februar eingereicht werden. Die Benotung folgt im März und basiert auf der Präsentation, dem Report, und der Qualität der Begutachtungsqualität von anderen Reports (Peer-Review) aus dem Dezember.
Bitte beachten Sie die allgemeinen Guidelines für ein Proseminar (Englisch): http://www.mthimm.de/teaching/general/guidelines_20170301.pdf
Klips Eintrag des Proseminars (keine Anmeldung notwendig): https://klips.uni-koblenz-landau.de/v/129665
Template für den Report (nur LaTeX zugelassen für den Report): https://www.overleaf.com/latex/templates/iclr-2020-conference-submission/qrzshcvnqxqr
Literatur
[1] Andrew T. Duchowski. Eye Tracking Methodology: Theory and Practice. Berlin, Heidelberg: Springer-Verlag, 2007.
[2] Raphael Menges, Chandan Kumar, and Steffen Staab. “Eye tracking for Interaction: Adapting Multimedia Interfaces”. In: Signal Processing to Drive Human-Computer Interaction: EEG and eye-controlled interfaces. Ed. by Spiros Nikolopoulos, Chandan Kumar, and Ioannis Kompatsiaris. Healthcare Technologies, Institution of Engineering and Technology. Institution of Engineering and Technology, 2020. Chap. 5, pp. 83–116. URL: https://digital-library.theiet.org/content/books/10.1049/pbce129e%5C_ch5.
[3] Chandan Kumar, Raphael Menges, Korok Sengupta, and Steffen Staab. “Eye tracking for Interaction: Evaluation Methods”. In: Signal Processing to Drive Human-Computer Interaction: EEG and eye-controlled interfaces. Ed. by Spiros Nikolopoulos, Chandan Kumar, and Ioannis Kompatsiaris. Healthcare Technologies, Institution of Engineering and Technology. Institution of Engineering and Technology, 2020. Chap. 6, pp. 117–144. URL: https://digital-library.theiet.org/content/books/10.1049/pbce129e%5C_ch6.
[4] Zhang X., MacKenzie I.S. (2007) Evaluating Eye Tracking with ISO 9241 - Part 9. In: Jacko J.A. (eds) Human-Computer Interaction. HCI Intelligent Multimodal Interaction Environments. HCI 2007. Lecture Notes in Computer Science, vol 4552. Springer, Berlin, Heidelberg.
[5] Claudia Ehmke and Stephanie Wilson. “Identifying Web Usability Problems from Eye-tracking Data”. In: Proceedings of the 21st British HCI Group Annual Conference on People and Computers: HCI…But Not As We Know It - Volume 1. BCS-HCI ’07. University of Lancaster, United Kingdom: British Computer Society, 2007, pp. 119–128. URL: http://dl.acm.org/citation.cfm?id=1531294.1531311.
[6] Tina Caroline Walber, Ansgar Scherp, and Steffen Staab. 2014. Smart photo selection: interpret gaze as personal interest. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’14). Association for Computing Machinery, New York, NY, USA, 2065–2074. DOI:https://doi.org/10.1145/2556288.2557025.
[7] Tanja Blascheck, Kuno Kurzhals, Michael Raschke, Michael Burch, Daniel Weiskopf, and Thomes Ertl. “Visualization of Eye Tracking Data: A Taxonomy and Survey”. In: Computer Graphics Forum 36.8 (2017), pp. 260–284. URL: http://dx.doi.org/10.1111/cgf.13079.
[8] Antonio Diaz-Tula and Carlos H. Morimoto. “AugKey: Increasing Foveal Throughput in Eye Typing with Augmented Keys”. In: Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. CHI ’16. Santa Clara, California, USA: ACM, 2016, pp. 3533–3544. URL: http://doi.acm.org/10.1145/2858036.2858517.
[9] Andrew Kurauchi, Wenxin Feng, Ajjen Joshi, Carlos Morimoto, and Margrit Betke. “EyeSwipe: Dwell-free Text Entry Using Gaze Paths”. In: Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. CHI ’16. San Jose, California, USA: ACM, 2016, pp. 1952–1956. URL: http://doi.acm.org/10.1145/2858036.2858335.
[10] Kumar, C., Akbari, D., Menges, R., MacKenzie, S., and Staab, S. 2019. TouchGazePath: Multimodal Interaction with Touch and Gaze Path for Secure Yet Efficient PIN Entry. 2019 International Conference on Multimodal Interaction, ACM, 329–338.
[11] Zhiwei Guan and Edward Cutrell. 2007. An eye tracking study of the effect of target rank on web search. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’07). Association for Computing Machinery, New York, NY, USA, 417–420. DOI:https://doi.org/10.1145/1240624.1240691.
[12] Aanand Nayyar, Utkarsh Dwivedi, Karan Ahuja, Nitendra Rajput, Seema Nagar, and Kuntal Dey. 2017. OptiDwell: Intelligent Adjustment of Dwell Click Time. In Proceedings of the 22nd International Conference on Intelligent User Interfaces (IUI ’17). Association for Computing Machinery, New York, NY, USA, 193–204. DOI:https://doi.org/10.1145/3025171.3025202.
[13] Oleg Špakov and Darius Miniotas. 2005. Gaze-based selection of standard-size menu items. In Proceedings of the 7th international conference on Multimodal interfaces (ICMI ’05). Association for Computing Machinery, New York, NY, USA, 124–128. DOI:https://doi.org/10.1145/1088463.1088486
Falls Sie bestimmte Literatur aufgrund von Bezahlschranken nicht einsehen können, kontaktieren Sie uns einfach.