Décodage des objectifs de lecture à partir des mouvements oculaires

Decoding Reading Goals from Eye Movements

October 28, 2024
Auteurs: Omer Shubi, Cfir Avraham Hadar, Yevgeni Berzak
cs.AI

Résumé

Les lecteurs peuvent avoir différents objectifs par rapport au texte qu'ils lisent. Ces objectifs peuvent-ils être décodés à partir du schéma de leurs mouvements oculaires sur le texte ? Dans ce travail, nous examinons pour la première fois s'il est possible de décoder deux types d'objectifs de lecture courants dans la vie quotidienne : la recherche d'information et la lecture ordinaire. En utilisant des données de suivi oculaire à grande échelle, nous appliquons à cette tâche une large gamme de modèles de pointe pour les mouvements oculaires et le texte qui couvrent différentes stratégies architecturales et de représentation des données, et introduisons en outre un nouvel ensemble de modèles. Nous évaluons systématiquement ces modèles à trois niveaux de généralisation : nouvel élément textuel, nouveau participant, et la combinaison des deux. Nous constatons que les mouvements oculaires contiennent des signaux très précieux pour cette tâche. Nous effectuons en outre une analyse d'erreur qui s'appuie sur des résultats empiriques antérieurs sur les différences entre la lecture ordinaire et la recherche d'information et tire parti de riches annotations textuelles. Cette analyse révèle des propriétés clés des éléments textuels et des mouvements oculaires des participants qui contribuent à la difficulté de la tâche.
English
Readers can have different goals with respect to the text they are reading. Can these goals be decoded from the pattern of their eye movements over the text? In this work, we examine for the first time whether it is possible to decode two types of reading goals that are common in daily life: information seeking and ordinary reading. Using large scale eye-tracking data, we apply to this task a wide range of state-of-the-art models for eye movements and text that cover different architectural and data representation strategies, and further introduce a new model ensemble. We systematically evaluate these models at three levels of generalization: new textual item, new participant, and the combination of both. We find that eye movements contain highly valuable signals for this task. We further perform an error analysis which builds on prior empirical findings on differences between ordinary reading and information seeking and leverages rich textual annotations. This analysis reveals key properties of textual items and participant eye movements that contribute to the difficulty of the task.

Summary

AI-Generated Summary

PDF152November 16, 2024