본 논문은 다양한 클라이언트 데이터, 불균형한 참여, 엄격한 통신 제약과 같은 문제를 겪는 개인화된 연합 학습(PFL)의 어려움을 해결하기 위해 FedSTAR를 제안한다. FedSTAR는 클라이언트별 스타일 요소를 공유된 콘텐츠 표현으로부터 분리하는 스타일 인식 연합 학습 프레임워크이다. Transformer 기반의 어텐션 메커니즘을 사용하여 클래스별 프로토타입을 집계하여 서버가 개인화를 유지하면서 클라이언트 기여도를 적응적으로 가중치를 부여할 수 있도록 한다. FedSTAR는 전체 모델 파라미터 대신 컴팩트한 프로토타입과 스타일 벡터를 교환하여 통신 오버헤드를 줄인다.