Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

FedSEA-LLaMA: Một khuôn khổ phân tách liên bang an toàn, hiệu quả và thích ứng cho các mô hình ngôn ngữ lớn

Created by
  • Haebom

Tác giả

Zishuai Zhang, Hainan Zhang, Weihua Li, Qinnan Zhang, Jin Dong, Yongxin Tong, Zhiming Zheng

Phác thảo

Bài báo này đề xuất FedSEA-LLaMA, một mô hình phân vùng liên bang dựa trên bộ biến đổi cho các môi trường học tập liên bang, nhằm tận dụng dữ liệu riêng tư để cải thiện hiệu suất của các mô hình ngôn ngữ quy mô lớn (LLM) đồng thời giải quyết các vấn đề về silo dữ liệu và nhu cầu tính toán cao. FedSEA-LLaMA đảm bảo quyền riêng tư dữ liệu bằng cách phân phối hầu hết các tham số mô hình đến các máy chủ (hoặc máy khách phân tán), với chỉ một phần nhỏ được lưu trữ trên máy khách. Để giải quyết các hạn chế của các mô hình phân vùng liên bang hiện có, chẳng hạn như lỗ hổng bảo mật của mã hóa P2P, chi phí truyền thông cao do học tập và suy luận tuần tự, và vấn đề về điểm phân chia cố định, chúng tôi đề xuất truyền vector an toàn thông qua phương pháp tiêm nhiễu Gauss, giảm chi phí truyền thông thông qua nén mặt nạ chú ý và cộng tác bộ đệm KV, và điều chỉnh điểm phân chia động bởi người dùng. Kết quả thực nghiệm về hiểu ngôn ngữ tự nhiên, tóm tắt và các tác vụ trả lời câu hỏi hội thoại cho thấy FedSEA-LLaMA đạt được tốc độ huấn luyện và suy luận nhanh gấp tám lần so với LLaMA2 tập trung mà không làm giảm hiệu suất. Hơn nữa, chúng tôi chứng minh tính bảo mật và khả năng thích ứng của nó thông qua phân tích tấn công quyền riêng tư và phân tích các điểm phân chia khác nhau.

Takeaways, Limitations

Takeaways:
Chúng tôi trình bày một khuôn khổ học tập liên bang mới có khả năng cải thiện hiệu suất LLM và đảm bảo quyền riêng tư dữ liệu bằng cách tận dụng dữ liệu cá nhân.
Giải quyết hiệu quả ba vấn đề chính Limitations (mã hóa P2P, xử lý tuần tự, điểm chia cố định) của các mô hình phân vùng liên bang hiện có.
ĐạT hiệu suất tương đương với LLaMA2 tập trung và tăng tốc lên tới 8 lần trong nhiều tác vụ khác nhau, bao gồm hiểu ngôn ngữ tự nhiên, tóm tắt và trả lời câu hỏi đàm thoại.
Khả năng thích ứng với các yêu cầu công việc cụ thể thông qua điều chỉnh điểm chia động.
Limitations:
Cần nghiên cứu thêm để xác định khả năng áp dụng và mở rộng của phương pháp đề xuất vào môi trường thực tế.
ĐáNh giá độ mạnh mẽ là cần thiết cho nhiều môi trường mạng và phân phối dữ liệu khác nhau.
Cần nghiên cứu thêm về sự suy giảm hiệu suất do nhiễu Gauss và cài đặt mức nhiễu tối ưu.
Cần nghiên cứu tối ưu hóa cho các môi trường phần cứng cụ thể.
👍