대규모 언어 모델(LLM)을 조정하는 새로운 블랙박스 튜닝 방법을 제안합니다. 이 방법은 LLM에 대한 직접적인 접근 없이, 최소한의 API 호출을 사용하여 성능을 향상시키는 것을 목표로 합니다. 핵심 전략은, LLM에 쿼리하여 얻은 "LogitMap 쌍"을 사용하여 가우시안 프로세스(GP) 대리 모델을 훈련하는 것입니다. 이 GP 모델은 프록시 모델 훈련을 안내하여 API 호출 빈도를 줄이면서, 사전 훈련된 언어 모델의 정확도를 향상시킵니다. 실험 결과, 제안된 방법은 API 쿼리 빈도를 대폭 줄이면서 기존 방법보다 높은 정확도를 달성했습니다.