본 논문은 대규모 언어 모델(LLMs)이 인간에게는 이해할 수 없는 문자열(비자연어)을 처리하는 현상을 '버그'가 아닌, 모델 활용 가능한 잠재적 특징으로 재해석합니다. 연구 결과, 비자연어는 모델과 작업에 걸쳐 일반화될 수 있는 잠재적 특징을 가지고 있으며, 비자연어로 미세 조정된 모델은 자연어로 학습된 모델과 동등한 성능(AlpacaEval 2.0에서 평균 49.71% 승률)을 보입니다. LLMs는 비자연어를 처리할 때 노이즈를 필터링하고 필터링된 단어에서 문맥적 의미를 추론하는 것으로 나타났습니다.
시사점, 한계점
•
시사점:
◦
LLMs의 비자연어 처리 능력을 활용하여 모델 성능 향상 및 새로운 응용 가능성을 제시합니다.
◦
비자연어를 통해 모델의 잠재적 특징을 탐색하고 이해하는 새로운 연구 방향을 제시합니다.
◦
비자연어 기반 미세 조정을 통해 자연어 기반 학습과 동등한 성능을 달성할 수 있음을 보여줍니다.