Positive-Unlabeled (PU) 학습은 긍정적 데이터와 레이블이 없는 데이터만 사용 가능한 설정을 고려하며, 부정적 데이터는 누락되거나 레이블이 지정되지 않습니다. 이 논문은 다중 클래스 PU(MPU) 학습의 문제를 해결하며, 기존 방법들이 편향되지 않은 위험 추정을 보장하지 않아 성능과 안정성을 제한하는 점을 지적합니다. 이 문제를 해결하기 위해, 적응형 손실 가중치 기반의 비용 민감형 MPU 방법을 제안합니다. 이 방법은 경험적 위험 최소화 프레임워크 내에서 긍정적 손실과 (레이블이 없는 혼합물에서 추론된) 추론된 부정적 손실 구성 요소에 데이터 종속적 가중치를 할당하여, 결과적인 경험적 목적 함수가 대상 위험의 편향되지 않은 추정치가 되도록 합니다. 제안된 추정기의 일반화 오차 경계를 설정하고, 다양한 클래스 우선순위 및 클래스 수를 포함하는 8개의 공개 데이터 세트에 대한 광범위한 실험을 통해 강력한 기준선에 비해 일관된 성능 향상을 보였습니다.