본 논문은 대규모 언어 모델(LLM)을 대상으로 개념 결합에 대한 인지 테스트 결과를 제시한다. ChatGPT와 Gemini를 사용하여 수행된 첫 번째 테스트에서는 Bell의 부등식이 유의미하게 위반되어 개념 내 '양자 얽힘'의 존재를 확인했다. 두 번째 테스트에서는 대용량 텍스트 내 단어 분포에서 직관적인 'Maxwell-Boltzmann 통계' 대신 'Bose-Einstein 통계'의 존재를 확인했다. 이러한 결과는 인간 참가자를 대상으로 한 인지 테스트 및 대규모 데이터셋에 대한 정보 검색 테스트에서 얻은 결과와 유사하며, 인지 주체가 인간이든 인공지능이든 '개념-언어적 영역에서 양자 구조의 체계적인 출현'을 시사한다.
시사점, 한계점
•
LLM의 분산 의미 구조에서 양자 구조의 체계적 출현 확인.
•
ChatGPT 및 Gemini와 같은 LLM에서 양자 얽힘 및 Bose-Einstein 통계의 발견.