Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Tinh chỉnh nhãn giả đồ thị lồng nhau cho việc học thích ứng miền nhãn nhiễu

Created by
  • Haebom

Tác giả

Yingxu Wang, Mengzhu Wang, Zhichao Huang, Suyu Liu, Nan Yin

Phác thảo

Bài báo này đề cập đến vấn đề Thích ứng Miền Đồ thị (GDA) khi có nhãn đồ thị nguồn nhiễu. Khác với các phương pháp GDA hiện có vốn giả định nhãn nguồn sạch, chúng tôi đề xuất một khuôn khổ mới, Tinh chỉnh Nhãn Giả Đồ thị Lồng nhau (NeGPR). NeGPR huấn luyện trước các nhánh kép (ngữ nghĩa và tôpô) giúp tăng cường tính nhất quán lân cận trong không gian đặc trưng để giảm thiểu ảnh hưởng của nhiễu. Nó chọn các mẫu mục tiêu có độ tin cậy cao thông qua cơ chế tinh chỉnh lồng nhau để hướng dẫn quá trình thích ứng ở nhánh còn lại, và tích hợp một chiến lược điều chỉnh nhận biết nhiễu để giảm thiểu hiện tượng quá khớp và các tác động tiêu cực của nhiễu giả nhãn trong miền nguồn. Kết quả thực nghiệm cho thấy NeGPR vượt trội hơn các phương pháp tiên tiến trong môi trường nhiễu nhãn nghiêm trọng, đạt được độ chính xác cải thiện lên đến 12,7%.

Takeaways, Limitations

_____T23076____:
Chúng tôi trình bày một giải pháp hiệu quả cho vấn đề GDA trong đồ thị nguồn có nhãn nhiễu.
Hiệu suất thích ứng miền mạnh mẽ được tăng cường thông qua các cơ chế tinh chỉnh lồng nhau và các chiến lược chính quy hóa nhận biết nhiễu.
ĐạT được hiệu suất tiên tiến trên nhiều tập dữ liệu chuẩn khác nhau (cải thiện độ chính xác lên đến 12,7%)
Limitations:
Thiếu phân tích về độ phức tạp tính toán của phương pháp đề xuất.
Cần có thêm nghiên cứu về hiệu suất tổng quát cho nhiều loại tiếng ồn khác nhau.
Cần phải xác minh thêm về khả năng áp dụng và những hạn chế trong các ứng dụng thực tế.
👍