Để Khắc phục những hạn chế của phương pháp học kích hoạt đối nghịch (ATLA) hiện có, bài báo này đề xuất phương pháp Học Kích hoạt Đối nghịch với Mục tiêu Tăng cường (ATLA). ATLA cải thiện hàm mất log-likelihood âm hiện có thành hàm mất trọng số, đảm bảo các kích hoạt đối nghịch đã học được được tối ưu hóa hơn cho các mã thông báo loại phản hồi. Điều này cho phép học các kích hoạt đối nghịch chỉ với một cặp câu hỏi-phản hồi duy nhất, đảm bảo khả năng khái quát hóa tốt cho các truy vấn tương tự khác. Hơn nữa, việc tối ưu hóa kích hoạt được tăng cường bằng cách bổ sung một hàm mất phụ trợ giúp loại bỏ các phản hồi né tránh. Kết quả thực nghiệm chứng minh rằng ATLA vượt trội hơn các kỹ thuật tiên tiến hiện có, đạt tỷ lệ thành công gần 100% trong khi yêu cầu ít hơn 80% truy vấn. Các kích hoạt đối nghịch đã học cũng có khả năng khái quát hóa tốt cho các truy vấn và LLM mới. Mã nguồn được công khai.