Daily Arxiv

This page organizes papers related to artificial intelligence published around the world.
This page is summarized using Google Gemini and is operated on a non-profit basis.
The copyright of the paper belongs to the author and the relevant institution. When sharing, simply cite the source.

TREASURE: A Transformer-Based Foundation Model for High-Volume Transaction Understanding

Created by
  • Haebom
Category
Empty

저자

Chin-Chia Michael Yeh, Uday Singh Saini, Xin Dai, Xiran Fan, Shubham Jain, Yujie Fan, Jiarui Sun, Junpeng Wang, Menghai Pan, Yingtong Dou, Yuzhong Chen, Vineeth Rakesh, Liang Wang, Yan Zheng, Mahashweta Das

개요

본 논문은 트랜잭션 데이터에 특화된 다목적 트랜스포머 기반 파운데이션 모델인 TREASURE (TRansformer Engine As Scalable Universal transaction Representation Encoder)를 제시합니다. TREASURE는 소비자 행동과 결제 네트워크 신호를 동시에 포착하여 이상 행동 탐지, 개인화된 추천 시스템 등 다양한 응용 분야에 활용될 수 있습니다. 산업 등급 데이터셋을 통해 검증되었으며, 효율적인 훈련과 추론을 위한 입력 모듈, 고차원 범주형 속성 예측을 위한 훈련 패러다임, 그리고 이상 행동 탐지 성능을 111% 향상시키고 추천 모델을 104% 향상시키는 임베딩 제공자로서의 효과를 입증했습니다.

시사점, 한계점

시사점:
트랜잭션 데이터에 특화된 트랜스포머 모델 개발 및 성공적인 적용.
이상 행동 탐지 및 추천 시스템 성능 향상.
다양한 속성을 효과적으로 처리하는 입력 모듈 설계.
고차원 범주형 속성 예측을 위한 효율적인 훈련 방법론 제시.
산업 데이터셋을 이용한 모델 검증.
한계점:
논문에 제시된 구체적인 데이터셋 특성 및 규모에 대한 정보 부족.
TREASURE 모델의 복잡성 및 계산 비용에 대한 정보 부재.
다양한 실제 환경에서의 일반화 성능에 대한 추가적인 연구 필요.
👍