ChatPaper.aiChatPaper

beeFormer: 추천 시스템에서 의미 및 상호 작용 유사성 사이의 간극을 줄이다

beeFormer: Bridging the Gap Between Semantic and Interaction Similarity in Recommender Systems

September 16, 2024
저자: Vojtěch Vančura, Pavel Kordík, Milan Straka
cs.AI

초록

추천 시스템은 종종 텍스트 측면 정보를 활용하여 예측을 개선하는데, 특히 전통적인 협업 필터링 접근법이 사용할 수 없는 콜드 스타트 또는 제로샷 추천 시나리오에서 그렇습니다. 최근 몇 년간 추천 시스템을 위한 텍스트 마이닝 측면 정보에 대한 다양한 접근 방식이 제안되었는데, 문장 트랜스포머가 가장 주목할 만한 접근법 중 하나입니다. 그러나 이러한 모델들은 추천 시스템에 특정한 숨겨진 패턴을 활용하지 않고 의미 유사성을 예측하도록 훈련되었습니다. 본 논문에서는 상호 작용 데이터를 활용하여 문장 트랜스포머 모델을 훈련하는 beeFormer 프레임워크를 제안합니다. beeFormer로 훈련된 우리 모델이 데이터셋 간에 지식을 전이하며 의미 유사성 문장 트랜스포머뿐만 아니라 전통적인 협업 필터링 방법보다 우수한 성능을 보여줍니다. 또한 서로 다른 도메인의 여러 데이터셋에서 훈련하는 것이 단일 모델에 지식을 축적시키는 가능성을 열어주어, 추천 시스템을 위한 텍스트 표현을 채굴하기 위한 범용, 도메인에 중립적인 문장 트랜스포머 모델을 훈련할 수 있음을 보여줍니다. 저희는 https://github.com/recombee/beeformer에서 실험을 복제할 수 있도록 소스 코드, 훈련된 모델 및 추가 세부 정보를 공개합니다.
English
Recommender systems often use text-side information to improve their predictions, especially in cold-start or zero-shot recommendation scenarios, where traditional collaborative filtering approaches cannot be used. Many approaches to text-mining side information for recommender systems have been proposed over recent years, with sentence Transformers being the most prominent one. However, these models are trained to predict semantic similarity without utilizing interaction data with hidden patterns specific to recommender systems. In this paper, we propose beeFormer, a framework for training sentence Transformer models with interaction data. We demonstrate that our models trained with beeFormer can transfer knowledge between datasets while outperforming not only semantic similarity sentence Transformers but also traditional collaborative filtering methods. We also show that training on multiple datasets from different domains accumulates knowledge in a single model, unlocking the possibility of training universal, domain-agnostic sentence Transformer models to mine text representations for recommender systems. We release the source code, trained models, and additional details allowing replication of our experiments at https://github.com/recombee/beeformer.

Summary

AI-Generated Summary

PDF32November 16, 2024