Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Adversarial Cooperative Rationalization: The Risk of Spurious Correlations in Even Clean Datasets

Created by
  • Haebom

저자

Wei Liu, Zhongyu Niu, Lang Gao, Zhiying Deng, Jun Wang, Haozhao Wang, Ruixuan Li

개요

본 연구는 생성기와 예측기의 협력 게임으로 구성된 자기 합리화 프레임워크를 조사합니다. 생성기는 원시 입력에서 가장 유익한 부분을 추출하고, 예측기는 선택된 부분집합을 입력으로 사용합니다. 생성기와 예측기는 예측 정확도를 극대화하도록 협력적으로 훈련됩니다. 이 논문에서는 협력 게임이 의도치 않게 합리화 추출 중에 샘플링 편향을 도입할 수 있다는 잠재적인 문제점을 먼저 밝힙니다. 특히, 생성기는 원래 데이터셋에서 의미적으로 관련이 없더라도 선택된 합리화 후보와 레이블 사이에 잘못된 상관관계를 의도치 않게 생성할 수 있습니다. 이어서, 상세한 이론적 분석과 경험적 증거를 사용하여 이러한 편향의 기원을 설명합니다. 연구 결과는 공격을 통해 이러한 상관관계를 검사하는 방향을 제시하며, 이를 바탕으로 예측기가 상관관계를 학습하지 못하도록 하는 지침을 추가로 제시합니다. 세 가지 네트워크 아키텍처(GRUs, BERT, GCN)를 사용하여 6개의 텍스트 분류 데이터셋과 2개의 그래프 분류 데이터셋에 대한 실험을 통해 제안된 방법이 최근의 합리화 방법보다 성능이 훨씬 뛰어날 뿐만 아니라 대표적인 LLM(llama3.1-8b-instruct)과 비슷하거나 더 나은 결과를 달성함을 보여줍니다.

시사점, 한계점

시사점: 협력적 자기 합리화 프레임워크에서 발생할 수 있는 샘플링 편향 문제를 밝히고, 이를 해결하기 위한 효과적인 방법을 제시함으로써 자기 합리화 모델의 신뢰성 및 성능 향상에 기여. 제안된 방법이 기존 방법 및 대표적인 LLM과 비교하여 우수한 성능을 보임.
한계점: 제안된 방법의 일반화 성능에 대한 추가적인 연구 필요. 다양한 데이터셋과 아키텍처에 대한 더욱 광범위한 실험 필요. 샘플링 편향 문제 해결에 대한 추가적인 이론적 분석 필요.
👍