Bài báo này đề xuất một khuôn khổ Symbiosis giải quyết các vấn đề về tiêu thụ quá mức và sử dụng không hết bộ nhớ GPU xảy ra trong quá trình tinh chỉnh các mô hình ngôn ngữ quy mô lớn (LLM) bằng kỹ thuật Tinh chỉnh hiệu quả tham số (PEFT). Các khuôn khổ hiện có có những hạn chế ở chỗ chúng yêu cầu triển khai riêng các phiên bản mô hình cơ sở cho từng tác vụ khi tinh chỉnh hoặc suy luận bằng nhiều bộ điều hợp, không hỗ trợ kết hợp các phương pháp PEFT khác nhau hoặc quản lý tài nguyên độc lập, không cho phép chia sẻ tài nguyên giữa các tác vụ suy luận và tinh chỉnh và thiếu bảo vệ quyền riêng tư. Symbiosis giải quyết các vấn đề này bằng cách phân phối mô hình cơ sở dưới dạng dịch vụ, cho phép nhiều quy trình suy luận hoặc tinh chỉnh chia sẻ lớp mô hình cơ sở. Bằng cách tách biệt việc thực thi các bộ điều hợp và lớp cụ thể của máy khách khỏi lớp mô hình cơ sở cố định thông qua kỹ thuật thực thi riêng biệt, nó mang lại sự linh hoạt trong việc quản lý tài nguyên, lựa chọn các phương pháp tinh chỉnh và đạt được các mục tiêu hiệu suất. Kết quả đánh giá sử dụng Llama2-13B cho thấy có thể tinh chỉnh số lượng bộ điều hợp nhiều hơn gấp bốn lần trong cùng một môi trường GPU trong cùng một khoảng thời gian so với các phương pháp hiện có.