Bài báo này đánh giá thực nghiệm hiệu suất của Mạng Kolmogorov Arnold (KAN) trên phân loại dữ liệu mất cân bằng. Hiệu suất của KAN và Multi-Layer Perceptron (MLP) được so sánh và phân tích bằng cách sử dụng 10 tập dữ liệu chuẩn. Kết quả là, không giống như MLP, KAN cho thấy hiệu suất tuyệt vời trên dữ liệu mất cân bằng ngay cả khi không có chiến lược lấy mẫu lại, nhưng các chiến lược xử lý dữ liệu mất cân bằng hiện có (lấy mẫu lại, mất tiêu điểm) đã làm giảm hiệu suất của KAN trong khi chỉ có tác động nhỏ đến hiệu suất của MLP. Ngoài ra, KAN có chi phí tính toán rất cao, nhưng việc cải thiện hiệu suất của chúng bị hạn chế. Kết quả xác minh thống kê cho thấy MLP áp dụng các kỹ thuật xử lý dữ liệu mất cân bằng đạt được hiệu suất tương tự như KAN (|d| < 0,08) với mức tiêu thụ tài nguyên ít hơn. Do đó, KAN có thể được coi là một giải pháp chuyên biệt cho dữ liệu mất cân bằng thô khi đủ tài nguyên, nhưng mức tiêu thụ tài nguyên cao so với hiệu suất của chúng và khả năng tương thích thấp với các kỹ thuật lấy mẫu lại hiện có hạn chế ứng dụng thực tế của chúng. Các hướng nghiên cứu trong tương lai bao gồm cải tiến cấu trúc của KAN cho việc học mất cân bằng, cải thiện hiệu quả tính toán và sự hài hòa về mặt lý thuyết với việc tăng cường dữ liệu.