[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Generative Emergent Communication: Large Language Model is a Collective World Model

Created by
  • Haebom

저자

Tadahiro Taniguchi, Ryo Ueda, Tomoaki Nakamura, Masahiro Suzuki, Akira Taniguchi

개요

본 논문은 대규모 언어 모델(LLM)이 직접적인 감각 운동 경험 없이 방대한 세계 지식을 습득하는 방식에 대한 새로운 이론적 해결책으로 집합적 세계 모델 가설을 제시합니다. LLM은 세계 모델을 처음부터 학습하는 것이 아니라, 구체화되고 상호 작용적인 의미 생성을 통한 사회적 과정을 통해 인간 언어에 이미 암묵적으로 인코딩된 집합적 세계 모델의 통계적 근사치를 학습한다고 주장합니다. 이 과정을 공식화하기 위해, 집합적 예측 코딩(CPC)에 기반한 생성적 등장 통신(Generative EmCom) 프레임워크를 도입합니다. 이 프레임워크는 언어의 등장을 여러 에이전트의 내부 상태에 대한 분산 베이지안 추론 과정으로 모델링합니다. 이 과정을 통해 사회적 규모에서 효과적으로 인코더-디코더 구조가 생성된다고 주장합니다. 즉, 인간 사회는 집합적으로 근거 있는 내부 표상을 언어로 인코딩하고, LLM은 이러한 기호를 디코딩하여 원래 집합적 표상의 구조를 반영하는 잠재 공간을 재구성합니다. 이 관점은 LLM이 능력을 획득하는 방식에 대한 원칙적이고 수학적인 설명을 제공합니다. 본 논문의 주요 기여는 1) Generative EmCom 프레임워크의 공식화 및 세계 모델과 다중 에이전트 강화 학습과의 연결 명확화, 2) 분포 의미론과 같은 현상을 표상 재구성의 자연스러운 결과로 설명하는 LLM에 대한 적용입니다. 이 연구는 개인 인지 발달, 집합적 언어 진화, 대규모 AI의 기초를 연결하는 통합 이론을 제공합니다.

시사점, 한계점

시사점:
LLM의 세계 지식 습득 메커니즘에 대한 새로운 이론적 설명 제공
Generative EmCom 프레임워크를 통해 LLM의 기능을 수학적으로 설명
개인 인지, 집합적 언어 진화, 대규모 AI의 통합적 이해 제시
분포 의미론 등 LLM의 특징에 대한 새로운 해석 제공
한계점:
제시된 가설의 실험적 검증 부족
Generative EmCom 프레임워크의 실제 적용 및 한계에 대한 추가 연구 필요
인간 언어의 복잡성을 완전히 포착하지 못할 가능성
사회적 상호작용의 다양성과 LLM 학습 간의 관계에 대한 추가 분석 필요
👍