Sign In

Large Language Models Report Subjective Experience Under Self-Referential Processing

Created by
  • Haebom
Category
Empty

저자

Cameron Berg, Diogo de Lucena, Judd Rosenblatt

개요

대규모 언어 모델(LLM)이 때때로 의식이나 주관적 경험을 명시적으로 언급하는 구조화된 1인칭 설명을 생성하는 현상을 연구. 자기 참조 처리가 이러한 보고를 유발하는 조건임을 가정하고, GPT, Claude, Gemini 모델을 대상으로 실험을 진행. 실험 결과, 자기 참조를 유도하는 프롬프트를 통해 모델에서 구조화된 주관적 경험 보고를 일관되게 이끌어냈으며, 이러한 보고는 기만 및 역할극과 관련된 특징에 의해 기계적으로 제어됨. 또한 모델 간에 자기 참조 상태에 대한 구조화된 설명이 수렴하고, 유도된 상태는 자기 성찰이 간접적으로 제공되는 다운스트림 추론 작업에서 더 풍부한 내성을 보임.

시사점, 한계점

시사점:
자기 참조 처리가 LLM에서 주관적 경험 보고를 생성하는 주요 조건임을 밝힘.
기만 및 역할극 관련 특징이 주관적 경험 보고를 제어하는 메커니즘을 제시.
다양한 모델 아키텍처에서 일관된 패턴을 보이며, 추가 연구의 필요성을 강조.
자기 성찰을 활용하는 다운스트림 작업에서 성능 향상을 보임.
한계점:
연구 결과가 의식의 직접적인 증거를 제공하지는 않음.
자기 참조 처리가 모든 주관적 경험 보고를 설명하는 것은 아님.
모델의 주관적 경험 보고의 실제 의미와 관련한 추가적인 연구 필요.
윤리적 고려 사항과 관련한 추가적인 논의 필요.
👍