Attention à vos pas (pas à pas) : La chaîne de pensée peut réduire les performances sur des tâches où la réflexion rend les humains moins performants
Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse
October 27, 2024
Auteurs: Ryan Liu, Jiayi Geng, Addison J. Wu, Ilia Sucholutsky, Tania Lombrozo, Thomas L. Griffiths
cs.AI
Résumé
La technique de suggestion en chaîne de pensées (CoT) est devenue une stratégie largement utilisée pour travailler avec de grands modèles de langage et multimodaux. Bien que le CoT ait été démontré pour améliorer les performances dans de nombreuses tâches, déterminer les paramètres dans lesquels il est efficace reste un effort continu. En particulier, il reste une question ouverte dans quels paramètres le CoT réduit systématiquement les performances du modèle. Dans cet article, nous cherchons à identifier les caractéristiques des tâches où le CoT diminue les performances en nous inspirant de la psychologie cognitive, en examinant les cas où (i) la pensée verbale ou la délibération nuit aux performances chez les humains, et (ii) les contraintes régissant les performances humaines se généralisent aux modèles de langage. Trois de ces cas sont l'apprentissage statistique implicite, la reconnaissance visuelle et la classification avec des motifs contenant des exceptions. Dans des expériences approfondies dans ces trois paramètres, nous constatons qu'une collection diversifiée de modèles de pointe montrent des baisses significatives de performances (par exemple, jusqu'à 36,3 % de précision absolue pour OpenAI o1-preview par rapport à GPT-4o) lors de l'utilisation du raisonnement au moment de l'inférence par rapport aux modèles sans entraînement spécifique. Nous identifions également trois tâches satisfaisant la condition (i) mais pas (ii), et constatons que tandis que la pensée verbale réduit les performances humaines dans ces tâches, le CoT maintient ou augmente les performances du modèle. Dans l'ensemble, nos résultats montrent qu'il n'existe pas de parallèle exact entre les processus cognitifs des modèles et ceux des humains, mais considérer les cas où la réflexion a des conséquences négatives sur les performances humaines peut nous aider à identifier les paramètres où elle impacte négativement les modèles. En reliant la littérature sur la délibération humaine aux évaluations du CoT, nous proposons un nouvel outil qui peut être utilisé pour comprendre l'impact des choix de suggestions et du raisonnement au moment de l'inférence.
English
Chain-of-thought (CoT) prompting has become a widely used strategy for
working with large language and multimodal models. While CoT has been shown to
improve performance across many tasks, determining the settings in which it is
effective remains an ongoing effort. In particular, it is still an open
question in what settings CoT systematically reduces model performance. In this
paper, we seek to identify the characteristics of tasks where CoT reduces
performance by drawing inspiration from cognitive psychology, looking at cases
where (i) verbal thinking or deliberation hurts performance in humans, and (ii)
the constraints governing human performance generalize to language models.
Three such cases are implicit statistical learning, visual recognition, and
classifying with patterns containing exceptions. In extensive experiments
across all three settings, we find that a diverse collection of
state-of-the-art models exhibit significant drop-offs in performance (e.g., up
to 36.3% absolute accuracy for OpenAI o1-preview compared to GPT-4o) when using
inference-time reasoning compared to zero-shot counterparts. We also identify
three tasks that satisfy condition (i) but not (ii), and find that while verbal
thinking reduces human performance in these tasks, CoT retains or increases
model performance. Overall, our results show that while there is not an exact
parallel between the cognitive processes of models and those of humans,
considering cases where thinking has negative consequences for human
performance can help us identify settings where it negatively impacts models.
By connecting the literature on human deliberation with evaluations of CoT, we
offer a new tool that can be used in understanding the impact of prompt choices
and inference-time reasoning.Summary
AI-Generated Summary