저자: 송재현, 이영은 저자들은 저자들의 연구에서 적은 데이터로 다국어 음성 학대 탐지를 위한 Few-Shot Learning 접근 방식을 제안한다.
Towards Cross-Lingual Audio Abuse Detection in Low-Resource Settings with Few-Shot Learning
December 2, 2024
저자: Aditya Narayan Sankaran, Reza Farahbaksh, Noel Crespi
cs.AI
초록
온라인 악플 콘텐츠 감지는 특히 저자원 환경 및 오디오 모달리티 내에서는 미개척된 분야입니다. 우리는 인도어를 사용하는 경우와 같이 저자원 언어에서 악의적 언어를 감지하기 위해 사전 훈련된 오디오 표현의 잠재력을 조사합니다. Few Shot Learning (FSL)를 사용하여 ADIMA 데이터셋을 활용하여 Wav2Vec 및 Whisper와 같은 모델에서 강력한 표현을 활용하여 다국어 악플 감지를 탐구합니다. 우리의 접근 방식은 이러한 표현을 Model-Agnostic Meta-Learning (MAML) 프레임워크 내에 통합하여 10개 언어에서 악의적 언어를 분류합니다. 우리는 다양한 샷 크기 (50-200)로 실험을 진행하여 제한된 데이터가 성능에 미치는 영향을 평가합니다. 또한, 모델 행동을 더 잘 이해하기 위해 특성 시각화 연구가 수행되었습니다. 이 연구는 저자원 환경에서 사전 훈련된 모델의 일반화 능력을 강조하며, 다국어 환경에서 악의적 언어를 감지하는 데 유용한 통찰을 제공합니다.
English
Online abusive content detection, particularly in low-resource settings and
within the audio modality, remains underexplored. We investigate the potential
of pre-trained audio representations for detecting abusive language in
low-resource languages, in this case, in Indian languages using Few Shot
Learning (FSL). Leveraging powerful representations from models such as Wav2Vec
and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset
with FSL. Our approach integrates these representations within the
Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in
10 languages. We experiment with various shot sizes (50-200) evaluating the
impact of limited data on performance. Additionally, a feature visualization
study was conducted to better understand model behaviour. This study highlights
the generalization ability of pre-trained models in low-resource scenarios and
offers valuable insights into detecting abusive language in multilingual
contexts.Summary
AI-Generated Summary