Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

BIS Reasoning 1.0: The First Large-Scale Japanese Benchmark for Belief-Inconsistent Syllogistic Reasoning

Created by
  • Haebom

저자

Ha-Thanh Nguyen, Chaoran Liu, Koichi Takeda, Yusuke Miyao, Pontus Stenetorp, Qianying Liu, Su Myat Noe, Hideyuki Tachibana, Sadao Kurohashi

개요

BIS Reasoning 1.0은 대규모 일본어 삼단논법 추론 문제 데이터셋으로, 대규모 언어 모델(LLM)의 신념 불일치 추론을 평가하기 위해 명시적으로 설계되었습니다. 기존의 NeuBAROCO나 JFLD와 달리 일반적 또는 신념 일치 추론에 초점을 맞추지 않고, 논리적으로 타당하지만 신념과 불일치하는 삼단논법을 도입하여 인간 정렬 코퍼스로 훈련된 LLM의 추론 편향을 밝힙니다. GPT 모델, Claude 모델, 주요 일본어 LLM 등 최첨단 모델을 벤치마킹한 결과 성능에 상당한 차이가 있으며, GPT-4o는 79.54%의 정확도를 달성했습니다. 논리적으로 타당하지만 신념과 상충하는 입력을 처리할 때 현재 LLM의 중요한 약점을 확인했습니다.

시사점, 한계점

시사점:
LLM의 신념 불일치 추론 능력 평가를 위한 새로운 대규모 일본어 데이터셋 제공.
최첨단 LLM의 신념 불일치 추론에서의 취약점을 밝힘.
법률, 의료, 과학 문헌 등 고위험 영역에서 LLM 배포 시 중요한 함의 제시 (진실이 직관적 신념보다 우선되어야 함).
한계점:
데이터셋이 일본어로만 구성되어 있어 언어적 편향 가능성 존재.
현재 벤치마킹된 모델의 성능만을 반영하여 일반화에 한계 존재.
추론 편향의 근본 원인에 대한 심층적인 분석 부족.
👍