Sharingan: Het extraheren van de gebruikersactiesequentie uit desktopopnames.

Sharingan: Extract User Action Sequence from Desktop Recordings

November 13, 2024
Auteurs: Yanting Chen, Yi Ren, Xiaoting Qin, Jue Zhang, Kehong Yuan, Lu Han, Qingwei Lin, Dongmei Zhang, Saravan Rajmohan, Qi Zhang
cs.AI

Samenvatting

Video-opnames van gebruikersactiviteiten, met name desktop-opnames, bieden een rijke bron van gegevens om gebruikersgedrag te begrijpen en processen te automatiseren. Ondanks vooruitgang in Vision-Language Modellen (VLM's) en hun toenemend gebruik in videoanalyse, blijft het extraheren van gebruikersacties uit desktop-opnames een onderbelicht gebied. Dit artikel adresseert deze lacune door twee nieuwe VLM-gebaseerde methoden voor het extraheren van gebruikersacties voor te stellen: de Directe Frame-Gebaseerde Benadering (DF), die bemonsterde frames rechtstreeks invoert in VLM's, en de Differentiële Frame-Gebaseerde Benadering (DiffF), die expliciete frameverschillen incorporeert die zijn gedetecteerd via computervisietechnieken. We evalueren deze methoden met behulp van een basiszelf samengestelde dataset en een geavanceerde benchmark aangepast van eerdere werken. Onze resultaten tonen aan dat de DF-benadering een nauwkeurigheid van 70% tot 80% behaalt bij het identificeren van gebruikersacties, waarbij de geëxtraheerde actiesequenties opnieuw af te spelen zijn via Robotic Process Automation. We constateren dat hoewel VLM's potentieel tonen, het incorporeren van expliciete UI-veranderingen de prestaties kan verminderen, waardoor de DF-benadering betrouwbaarder wordt. Dit werk vertegenwoordigt de eerste toepassing van VLM's voor het extraheren van gebruikersactiesequenties uit desktop-opnames, waarbij nieuwe methoden, benchmarks en inzichten worden bijgedragen voor toekomstig onderzoek.
English
Video recordings of user activities, particularly desktop recordings, offer a rich source of data for understanding user behaviors and automating processes. However, despite advancements in Vision-Language Models (VLMs) and their increasing use in video analysis, extracting user actions from desktop recordings remains an underexplored area. This paper addresses this gap by proposing two novel VLM-based methods for user action extraction: the Direct Frame-Based Approach (DF), which inputs sampled frames directly into VLMs, and the Differential Frame-Based Approach (DiffF), which incorporates explicit frame differences detected via computer vision techniques. We evaluate these methods using a basic self-curated dataset and an advanced benchmark adapted from prior work. Our results show that the DF approach achieves an accuracy of 70% to 80% in identifying user actions, with the extracted action sequences being re-playable though Robotic Process Automation. We find that while VLMs show potential, incorporating explicit UI changes can degrade performance, making the DF approach more reliable. This work represents the first application of VLMs for extracting user action sequences from desktop recordings, contributing new methods, benchmarks, and insights for future research.

Summary

AI-Generated Summary

PDF92November 15, 2024