Vision-Language-Action (VLA) 모델은 다양한 데이터 모드를 사전 학습 단계에서 통합하고, 미세 조정 데이터가 종종 비효율적인 방식으로 수집되어 불필요한 액션 모드가 존재합니다. 본 논문에서는 VLA 정책과 다운스트림 태스크 데이터의 성공 모드에 의해 유도된 정책 간의 분포 변화로 인해 추론 시간의 불안정성이 발생함을 지적합니다. 이를 해결하기 위해, 가벼운 가짜 카운트 추정기를 액션 청크의 고충실도 검증기로 사용하는 테스트 시간 스케일링 (TTS) 프레임워크인 TACO를 제안합니다. TACO는 최대 가짜 카운트 액션을 실행하여 VLA의 일반화 능력을 보존하면서 분포 변화를 방지합니다. 이 방법은 오프라인 강화 학습의 탐색 방지 원리와 유사하며, 특히 흐름 또는 확산 기반 VLA에서 강화 학습 업데이트가 어려운 경우 계산 효율성이 뛰어납니다. RoboTwin2.0, Robotwin, LIBERO, SimplerEnv 및 듀얼 암 플랫폼을 포함한 네 가지 시뮬레이션 벤치마크에서 TACO는 다운스트림 태스크 적응 시 추론 안정성과 성공률을 크게 향상시켰습니다.