Sign In

Aligning Large Language Models with Procedural Rules: An Autoregressive State-Tracking Prompting for In-Game Trading

Created by
  • Haebom
Category
Empty

저자

Minkyung Kim, Junsik Kim, Woongcheol Yang, Sangdon Park, Sohee Bae

개요

대규모 언어 모델(LLM)은 동적 게임 상호 작용을 가능하게 하지만, 규칙 기반 거래 시스템에서 필수적인 절차적 흐름을 따르지 못하여 플레이어 신뢰를 저해합니다. 이 연구는 LLM의 창의적 유연성과 게임 내 거래(탐색-제안-검토-확인)의 절차적 요구 사이의 핵심적인 긴장을 해결합니다. 이를 위해, 전략적으로 구성된 프롬프트를 통해 LLM이 상태 추적 프로세스를 명시적이고 검증 가능하게 만드는 방법론인 자기회귀 상태 추적 프롬프팅(ASTP)을 소개합니다. 암묵적인 맥락적 이해에 의존하는 대신, ASTP는 LLM에게 이전 턴에서 미리 정의된 상태 라벨을 식별하고 보고하도록 합니다. 거래 무결성을 보장하기 위해, 정확한 가격 계산을 위한 상태별 자리 표시자 후처리 방법이 보완됩니다. 300개의 거래 대화를 통해 평가한 결과, >99%의 상태 준수율과 99.3%의 계산 정확도를 보였습니다. 특히, 작은 모델(Gemini-2.5-Flash)에서 자리 표시자 후처리를 사용한 ASTP는 큰 모델(Gemini-2.5-Pro)의 성능과 일치하면서 응답 시간을 21.2초에서 2.4초로 줄여, 상업용 게임의 실시간 요구 사항과 리소스 제약 조건을 모두 충족하는 실질적인 기반을 마련했습니다.

시사점, 한계점

시사점:
ASTP는 LLM 기반 게임 내 거래 시스템에서 상태 추적 및 계산 정확도를 향상시킵니다.
소형 모델에서도 대형 모델과 동등한 성능을 달성하여 리소스 효율성을 높입니다.
상업용 게임의 실시간 요구 사항을 충족하는 빠른 응답 시간을 제공합니다.
한계점:
논문에서 구체적인 한계점은 제시되지 않았습니다.
👍