MolReFlect: Verso Allineamenti Dettagliati Contestualizzati tra Molecole e Testi

MolReFlect: Towards In-Context Fine-grained Alignments between Molecules and Texts

November 22, 2024
Autori: Jiatong Li, Yunqing Liu, Wei Liu, Jingdi Le, Di Zhang, Wenqi Fan, Dongzhan Zhou, Yuqiang Li, Qing Li
cs.AI

Abstract

La scoperta di molecole è un campo di ricerca cruciale, che influisce su tutto, dalle medicine che assumiamo ai materiali che utilizziamo. Recentemente, i Grandi Modelli Linguistici (LLM) sono stati ampiamente adottati nella comprensione e generazione di molecole, tuttavia gli allineamenti tra le molecole e le rispettive didascalie rimangono una sfida significativa. Gli sforzi precedenti trattano spesso la molecola come una stringa SMILES generale o un grafo molecolare, trascurando gli allineamenti dettagliati tra le sottostrutture molecolari e le frasi descrittive testuali, che sono cruciali per previsioni accurate ed esplicative. In questo caso, presentiamo MolReFlect, un nuovo framework insegnante-studente progettato per eseguire contestualmente gli allineamenti molecola-didascalia in modo dettagliato. Il nostro approccio sfrutta inizialmente un insegnante LLM più grande per etichettare gli allineamenti dettagliati estrarre direttamente frasi critiche dalle didascalie delle molecole o dalle stringhe SMILES e implicarle alle rispettive sottostrutture o caratteristiche. Per perfezionare questi allineamenti, proponiamo il Riflesso Selettivo In-Contesto, che recupera i risultati di estrazione precedenti come esempi di contesto per l'insegnante LLM riflettere e permette a un LLM studente più piccolo di selezionare tra il riflesso in-contesto e i risultati di estrazione precedenti. Infine, potenziamo il processo di apprendimento del LLM studente attraverso l'Accordatura Molecolare In-Contesto a Catena di Pensiero, integrando gli allineamenti dettagliati e i processi di ragionamento nel formato a catena di pensiero. I nostri risultati sperimentali dimostrano che MolReFlect consente ai LLM come Mistral-7B di superare significativamente i baselines precedenti, raggiungendo prestazioni di stato dell'arte sul dataset ChEBI-20. Questo avanzamento non solo potenzia le capacità generative dei LLM nel compito di traduzione molecola-didascalia, ma contribuisce anche a un framework più esplicativo.
English
Molecule discovery is a pivotal research field, impacting everything from the medicines we take to the materials we use. Recently, Large Language Models (LLMs) have been widely adopted in molecule understanding and generation, yet the alignments between molecules and their corresponding captions remain a significant challenge. Previous endeavours often treat the molecule as a general SMILES string or molecular graph, neglecting the fine-grained alignments between the molecular sub-structures and the descriptive textual phrases, which are crucial for accurate and explainable predictions. In this case, we introduce MolReFlect, a novel teacher-student framework designed to contextually perform the molecule-caption alignments in a fine-grained way. Our approach initially leverages a larger teacher LLM to label the detailed alignments by directly extracting critical phrases from molecule captions or SMILES strings and implying them to corresponding sub-structures or characteristics. To refine these alignments, we propose In-Context Selective Reflection, which retrieves previous extraction results as context examples for teacher LLM to reflect and lets a smaller student LLM select from in-context reflection and previous extraction results. Finally, we enhance the learning process of the student LLM through Chain-of-Thought In-Context Molecule Tuning, integrating the fine-grained alignments and the reasoning processes within the Chain-of-Thought format. Our experimental results demonstrate that MolReFlect enables LLMs like Mistral-7B to significantly outperform the previous baselines, achieving SOTA performance on the ChEBI-20 dataset. This advancement not only enhances the generative capabilities of LLMs in the molecule-caption translation task, but also contributes to a more explainable framework.

Summary

AI-Generated Summary

PDF42November 27, 2024