Chih-Yu Chang, Milad Azvar, Chinedum Okwudire, Raed Al Kontar
LLINBO: LLM-in-the-Loop BO
개요
베이시안 최적화(BO)는 고비용 블랙박스 함수 최적화에 널리 사용되는 순차적 의사 결정 도구입니다. 최근 대규모 언어 모델(LLM)은 적은 양의 데이터 환경에서 놀라운 적응력을 보여주었으며, 양질의 쿼리 포인트를 제안하기 위해 컨텍스트 지식을 활용하여 블랙박스 최적화를 위한 유망한 도구가 되었습니다. 그러나 LLM을 최적화 에이전트로만 의존하는 것은 명시적인 대리 모델링 및 보정된 불확실성 부족, 그리고 본질적으로 불투명한 내부 메커니즘으로 인해 위험을 초래합니다. 이러한 구조적 불투명성으로 인해 탐색-활용 트레이드오프를 특성화하거나 제어하기 어려워 이론적 처리 가능성과 신뢰성이 저하됩니다. 이를 해결하기 위해, LLM과 통계적 대리 전문가(예: Gaussian Processes (GP))를 결합한 BO를 위한 하이브리드 프레임워크인 LLINBO: LLM-in-the-Loop BO를 제안합니다. 핵심 철학은 조기 탐색을 위해 LLM의 컨텍스트 추론 강점을 활용하는 동시에 효율적인 활용을 위해 원칙적인 통계 모델에 의존하는 것입니다. 구체적으로, 우리는 이러한 협업을 가능하게 하고 이론적 보장을 확립하는 세 가지 메커니즘을 소개합니다. 3D 프린팅 맥락에서 실제 개념 증명을 통해 논문을 마무리합니다. 결과 재현 코드는 https://github.com/UMDataScienceLab/LLM-in-the-Loop-BO에서 확인할 수 있습니다.
시사점, 한계점
•
LLM의 컨텍스트 추론 능력과 통계적 모델의 효율적인 활용 능력을 결합한 새로운 베이시안 최적화 프레임워크 제시