Dialog2Flow: Vooraf trainen van zachte-contrastieve actiegestuurde zin-embeddings voor het automatisch extraheren van dialogflow.

Dialog2Flow: Pre-training Soft-Contrastive Action-Driven Sentence Embeddings for Automatic Dialog Flow Extraction

October 24, 2024
Auteurs: Sergio Burdisso, Srikanth Madikeri, Petr Motlicek
cs.AI

Samenvatting

Het efficiënt afleiden van gestructureerde workflows uit ongeannoteerde dialogen blijft een onderbelicht en formidabel uitdaging in de computationele taalkunde. Het automatiseren van dit proces kan aanzienlijk bijdragen aan het versnellen van het handmatig ontwerpen van workflows in nieuwe domeinen en het mogelijk maken van de verankering van grote taalmodellen in domeinspecifieke stroomdiagrammen, wat de transparantie en controleerbaarheid verbetert. In dit artikel introduceren we Dialog2Flow (D2F) embeddings, die verschillen van conventionele zin-embeddings door uitingen te mappen naar een latente ruimte waar ze worden gegroepeerd op basis van hun communicatieve en informatieve functies (d.w.z. de acties die ze vertegenwoordigen). D2F maakt het modelleren van dialogen mogelijk als continue trajecten in een latente ruimte met onderscheidende actiegerelateerde regio's. Door D2F-embeddings te clusteren, wordt de latente ruimte gekwantificeerd en kunnen dialogen worden omgezet in sequenties van regio-/actie-ID's, wat de extractie van de onderliggende workflow vergemakkelijkt. Om D2F vooraf te trainen, bouwen we een uitgebreide dataset door twintig taakgerichte dialogdatasets te verenigen met genormaliseerde actie-annotaties per beurt. We introduceren ook een nieuwe zachte contrastieve verliesfunctie die de semantische informatie van deze acties benut om het leerproces van de representatie te begeleiden, waarbij een superieure prestatie wordt aangetoond in vergelijking met de standaard begeleide contrastieve verliesfunctie. Evaluatie tegen verschillende zin-embeddings, inclusief dialog-specifieke, toont aan dat D2F superieure kwalitatieve en kwantitatieve resultaten oplevert over diverse domeinen.
English
Efficiently deriving structured workflows from unannotated dialogs remains an underexplored and formidable challenge in computational linguistics. Automating this process could significantly accelerate the manual design of workflows in new domains and enable the grounding of large language models in domain-specific flowcharts, enhancing transparency and controllability. In this paper, we introduce Dialog2Flow (D2F) embeddings, which differ from conventional sentence embeddings by mapping utterances to a latent space where they are grouped according to their communicative and informative functions (i.e., the actions they represent). D2F allows for modeling dialogs as continuous trajectories in a latent space with distinct action-related regions. By clustering D2F embeddings, the latent space is quantized, and dialogs can be converted into sequences of region/action IDs, facilitating the extraction of the underlying workflow. To pre-train D2F, we build a comprehensive dataset by unifying twenty task-oriented dialog datasets with normalized per-turn action annotations. We also introduce a novel soft contrastive loss that leverages the semantic information of these actions to guide the representation learning process, showing superior performance compared to standard supervised contrastive loss. Evaluation against various sentence embeddings, including dialog-specific ones, demonstrates that D2F yields superior qualitative and quantitative results across diverse domains.

Summary

AI-Generated Summary

PDF52November 16, 2024