Sign In

Metamorphic Testing of Large Language Models for Natural Language Processing

Created by
  • Haebom
Category
Empty

저자

Steven Cho, Stefano Ruberto, Valerio Terragni

개요

본 논문은 대규모 언어 모델(LLM)의 자연어 처리(NLP) 작업에서의 결함을 탐지하기 위한 메타모픽 테스팅(MT)에 대한 연구를 제시한다. 레이블이 지정된 데이터셋 부족 문제를 해결하기 위해, 메타모픽 관계(MR)를 사용하여 LLM의 출력을 비교하고 오류를 파악한다. 총 191개의 MR을 수집하고, 대표적인 36개의 MR을 구현하여 3개의 LLM에 대한 광범위한 실험(약 56만 번의 메타모픽 테스트)을 수행했다.

시사점, 한계점

시사점:
LLM의 결함 탐지를 위한 MT의 가능성을 보여줌.
MT를 통해 LLM의 성능을 향상시킬 수 있는 기회를 제시.
다양한 NLP 작업에 적용할 수 있는 MR의 활용을 제시.
한계점:
실험에 사용된 MR의 제한적인 수.
MT의 한계점과 관련된 추가적인 연구 필요.
다양한 LLM 모델에 대한 추가적인 실험 필요.
👍