SuperIntelliAgent는 훈련 가능한 소규모 확산 모델 (학습자)과 고정된 대규모 언어 모델 (검증자)을 결합하여 자기 지도 학습 상호 작용을 통해 지속적인 지능 성장을 가능하게 하는 에이전트 학습 프레임워크입니다. SuperIntelliAgent는 기존의 지도 기반 미세 조정과 달리 주석 없이 자율적으로 학습합니다. 학습자는 후보 출력을 생성하고, 검증자는 단계별 추론을 통해 평가하며, 상호 작용은 Direct Preference Optimization (DPO)을 위한 선택/거부 쌍을 생성합니다. 이 과정을 통해 각 입력은 지속적인 개선을 위한 의사-훈련 신호로 변환됩니다. 이 프레임워크는 듀얼 스케일 메모리(단기 맥락 메모리, 장기 메모리)를 통합합니다. SuperIntelliAgent는 인프라에 구애받지 않으며 기존 에이전트 프레임워크에 연결 가능하며, 일반적인 추론 루프를 평생 최적화 프로세스로 전환합니다.