E2ETune: End-to-End Knob Tuning via Fine-tuned Generative Language Model
Created by
Haebom
Category
Empty
저자
Xinmei Huang, Haoyang Li, Jing Zhang, Xinxin Zhao, Zhiming Yao, Yiyan Li, Tieying Zhang, Jianjun Chen, Hong Chen, Cuiping Li
개요
E2ETune은 미세 조정된 생성형 언어 모델을 기반으로 하는 엔드투엔드 데이터베이스 설정 조정 도구입니다. 기존의 수동 조정이나 학습 기반 접근 방식과 달리, 많은 워크로드 재실행 없이도 효율적으로 최적의 데이터베이스 성능을 위한 설정값을 찾습니다. 새로운 워크로드에 대한 설정값을 추천하며, 워크로드(입력)와 유망한 설정(출력) 간의 복잡한 매핑을 생성형 언어 모델의 시퀀스-투-시퀀스 모델링 기능을 활용하여 학습합니다. 효율적인 대량 학습 데이터 생성 프레임워크를 제안하며, 10개의 대표적인 벤치마크와 3개의 실제 환경 벤치마크를 사용하여 광범위한 실험을 통해 기존 방법보다 훨씬 빠르게 경쟁력 있는 설정을 식별하는 효율성과 효과를 입증했습니다.
시사점, 한계점
•
시사점:
◦
기존의 시간 및 자원 집약적인 데이터베이스 설정 조정 과정을 획기적으로 개선할 수 있습니다.
◦
생성형 언어 모델의 우수한 시퀀스-투-시퀀스 모델링 능력을 활용하여 복잡한 설정 조정 문제를 효과적으로 해결합니다.
◦
새로운 워크로드에 대한 설정값을 신속하게 추천하여 데이터베이스 관리자의 업무 부담을 줄일 수 있습니다.
◦
실험 결과를 통해 기존 방법보다 훨씬 빠르고 효율적으로 최적의 설정을 찾는 것을 확인했습니다.