TOMG-Bench: Avaliando LLMs na Geração de Moléculas Abertas Baseadas em Texto
TOMG-Bench: Evaluating LLMs on Text-based Open Molecule Generation
December 19, 2024
Autores: Jiatong Li, Junxian Li, Yunqing Liu, Dongzhan Zhou, Qing Li
cs.AI
Resumo
Neste artigo, propomos o Text-based Open Molecule Generation Benchmark (TOMG-Bench), o primeiro benchmark para avaliar a capacidade de geração de moléculas em domínio aberto de LLMs. O TOMG-Bench engloba um conjunto de dados de três tarefas principais: edição de moléculas (MolEdit), otimização de moléculas (MolOpt) e geração de moléculas personalizadas (MolCustom). Cada tarefa contém ainda três subtarefas, sendo que cada subtarefa é composta por 5.000 amostras de teste. Dada a complexidade inerente da geração de moléculas em domínio aberto, também desenvolvemos um sistema de avaliação automatizado que ajuda a medir tanto a qualidade quanto a precisão das moléculas geradas. Nossa avaliação abrangente de 25 LLMs revela as limitações atuais e áreas potenciais para melhorias na descoberta de moléculas guiada por texto. Além disso, com a assistência do OpenMolIns, um conjunto de dados de ajuste de instruções especializado proposto para resolver desafios apresentados pelo TOMG-Bench, o Llama3.1-8B conseguiu superar todos os LLMs gerais de código aberto, inclusive ultrapassando o GPT-3.5-turbo em 46,5% no TOMG-Bench. Nossos códigos e conjuntos de dados estão disponíveis em https://github.com/phenixace/TOMG-Bench.
English
In this paper, we propose Text-based Open Molecule Generation Benchmark
(TOMG-Bench), the first benchmark to evaluate the open-domain molecule
generation capability of LLMs. TOMG-Bench encompasses a dataset of three major
tasks: molecule editing (MolEdit), molecule optimization (MolOpt), and
customized molecule generation (MolCustom). Each task further contains three
subtasks, with each subtask comprising 5,000 test samples. Given the inherent
complexity of open molecule generation, we have also developed an automated
evaluation system that helps measure both the quality and the accuracy of the
generated molecules. Our comprehensive benchmarking of 25 LLMs reveals the
current limitations and potential areas for improvement in text-guided molecule
discovery. Furthermore, with the assistance of OpenMolIns, a specialized
instruction tuning dataset proposed for solving challenges raised by
TOMG-Bench, Llama3.1-8B could outperform all the open-source general LLMs, even
surpassing GPT-3.5-turbo by 46.5\% on TOMG-Bench. Our codes and datasets are
available through https://github.com/phenixace/TOMG-Bench.Summary
AI-Generated Summary