Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới. Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận. Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.
Inversion-DPO: Đào tạo sau chính xác và hiệu quả cho các mô hình khuếch tán
Created by
Haebom
Tác giả
Zejian Li, Yize Li, Chenye Meng, Zhongni Liu, Yang Ling, Shengyuan Zhang, Quảng Dương, Changyuan Yang, Zhiyuan Yang, Lingyun Sun
Phác thảo
Trong bài báo này, chúng tôi đề xuất Inversion-DPO, một khuôn khổ mới để căn chỉnh các mô hình khuếch tán (DM). Các phương pháp hiện có gặp phải những vấn đề như chi phí tính toán cao cho việc học mô hình phần thưởng, độ chính xác và hiệu quả huấn luyện mô hình thấp. Inversion-DPO bỏ qua việc học mô hình phần thưởng bằng cách tái cấu trúc Tối ưu hóa Ưu tiên Trực tiếp (DPO) bằng cách sử dụng nghịch đảo DDIM. Chúng tôi trình bày một mô hình huấn luyện hậu kỳ mới bằng cách thực hiện lấy mẫu xác suất hậu nghiệm khó trong DPO khuếch tán thông qua nghịch đảo xác định từ các mẫu thắng và thua thành nhiễu. Điều này cải thiện đáng kể độ chính xác và hiệu quả mà không cần mô hình phần thưởng. Chúng tôi áp dụng Inversion-DPO cho các tác vụ tạo văn bản thành hình ảnh và tạo hình ảnh phức tạp, đồng thời chứng minh những cải tiến về hiệu suất so với các phương pháp hiện có, thể hiện khả năng tạo ra hình ảnh chất lượng cao và nhất quán phức tạp. Đối với quá trình tạo hình ảnh phức tạp sau huấn luyện, chúng tôi xây dựng một tập dữ liệu ghép đôi mới chứa 11.140 chú thích cấu trúc phức tạp và điểm số toàn diện. Inversion-DPO trình bày một phương pháp mới để căn chỉnh mô hình khuếch tán hiệu quả và chính xác, đồng thời tăng khả năng ứng dụng của nó cho các tác vụ tạo hình ảnh thực tế phức tạp. Mã có thể được tìm thấy tại https://github.com/MIGHTYEZ/Inversion-DPO .