Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Meaningless is better: hashing bias-inducing words in LLM prompts improves performance in logical reasoning and statistical learning

Created by
  • Haebom

저자

Milena Chadimova, Eduard Jura\v{s}ek, Toma\v{s} Kliegr

개요

본 논문은 대규모 언어 모델(LLM)의 인지적 편향과 외부 지식 의존성을 줄이기 위해 편향을 유발할 수 있는 단어들을 해시와 같은 의미 없는 식별자로 마스킹하는 새로운 방법인 "해싱"을 제안합니다. Llama, ChatGPT, Copilot, Gemini, Mixtral 모델을 포함한 총 490개의 프롬프트에 걸쳐 세 가지 실험을 통해 해당 방법을 검증했습니다. 카이제곱 검정을 사용한 통계 분석 결과, 수정된 "Linda 문제"를 이용한 인지적 편향 감수성 평가, 빈번 항목 집합 추출 작업, 그리고 표 형태로 제시된 Linda 문제 등 모든 실험 시나리오에서 유의미한 개선을 보였습니다. 해싱은 편향 감소와 외부 지식 통합에 효과적임을 보였지만, 환각률 감소 효과는 LLM 모델 종류에 따라 일관적이지 않았습니다. 이는 편향 유발 용어 마스킹이 LLM 성능을 향상시킬 수 있음을 시사하지만, 그 효과는 모델과 작업에 따라 다름을 보여줍니다.

시사점, 한계점

시사점:
LLM의 인지적 편향 및 외부 지식 의존성 감소에 효과적인 "해싱" 기법 제시
다양한 LLM 모델과 작업에서 일관된 성능 향상 확인 (Linda 문제, 빈번 항목 집합 추출)
텍스트뿐 아니라 표 형태 입력에서도 효과 입증
편향 감소를 통한 LLM 성능 개선 가능성 제시
한계점:
환각률 감소 효과는 LLM 모델 종류에 따라 일관성이 없음
효과의 모델 및 작업 의존성 존재
👍