LearnLM: Migliorare Gemini per l'Apprendimento
LearnLM: Improving Gemini for Learning
December 21, 2024
Autori: LearnLM Team, Abhinit Modi, Aditya Srikanth Veerubhotla, Aliya Rysbek, Andrea Huber, Brett Wiltshire, Brian Veprek, Daniel Gillick, Daniel Kasenberg, Derek Ahmed, Irina Jurenka, James Cohan, Jennifer She, Julia Wilkowski, Kaiz Alarakyia, Kevin McKee, Lisa Wang, Markus Kunesch, Mike Schaekermann, Miruna Pîslar, Nikhil Joshi, Parsa Mahmoudieh, Paul Jhun, Sara Wiltberger, Shakir Mohamed, Shashank Agarwal, Shubham Milind Phal, Sun Jae Lee, Theofilos Strinopoulos, Wei-Jen Ko, Amy Wang, Ankit Anand, Avishkar Bhoopchand, Dan Wild, Divya Pandya, Filip Bar, Garth Graham, Holger Winnemoeller, Mahvish Nagda, Prateek Kolhar, Renee Schneider, Shaojian Zhu, Stephanie Chan, Steve Yadlowsky, Viknesh Sounderajah, Yannis Assael
cs.AI
Abstract
Gli attuali sistemi AI generativi sono ottimizzati per presentare informazioni per impostazione predefinita anziché coinvolgere gli utenti a fini di apprendimento come farebbe un tutor umano. Per affrontare la vasta gamma di possibili casi d'uso educativi per questi sistemi, riformuliamo la sfida dell'inserimento di comportamenti pedagogici come un'istruzione pedagogica successiva, in cui gli esempi di addestramento e valutazione includono istruzioni a livello di sistema che descrivono gli attributi pedagogici specifici presenti o desiderati nei successivi passaggi del modello. Questa formulazione evita di vincolare i nostri modelli a una particolare definizione di pedagogia e consente invece agli insegnanti o agli sviluppatori di specificare il comportamento del modello desiderato. Ciò apre anche la strada al miglioramento dei modelli Gemini per l'apprendimento, consentendo l'aggiunta dei nostri dati pedagogici alle miscele post-addestramento, insieme alla loro crescente serie di capacità. Entrambi rappresentano importanti cambiamenti rispetto al nostro primo rapporto tecnico. Mostreremo come l'addestramento con istruzioni pedagogiche successive produca un modello LearnLM (disponibile su Google AI Studio) che è preferito in modo significativo dagli esperti valutatori in una vasta gamma di scenari di apprendimento, con forti preferenze medie del 31\% rispetto a GPT-4o, dell'11\% rispetto a Claude 3.5 e del 13\% rispetto al modello Gemini 1.5 Pro su cui si basava LearnLM.
English
Today's generative AI systems are tuned to present information by default
rather than engage users in service of learning as a human tutor would. To
address the wide range of potential education use cases for these systems, we
reframe the challenge of injecting pedagogical behavior as one of
pedagogical instruction following, where training and evaluation
examples include system-level instructions describing the specific pedagogy
attributes present or desired in subsequent model turns. This framing avoids
committing our models to any particular definition of pedagogy, and instead
allows teachers or developers to specify desired model behavior. It also clears
a path to improving Gemini models for learning -- by enabling the addition of
our pedagogical data to post-training mixtures -- alongside their rapidly
expanding set of capabilities. Both represent important changes from our
initial tech report. We show how training with pedagogical instruction
following produces a LearnLM model (available on Google AI Studio) that is
preferred substantially by expert raters across a diverse set of learning
scenarios, with average preference strengths of 31\% over GPT-4o, 11\% over
Claude 3.5, and 13\% over the Gemini 1.5 Pro model LearnLM was based on.Summary
AI-Generated Summary