본 논문은 짧은 카메라-정면 응시 말하기 헤드 비디오로부터 수동적인 치매 선별 검사를 목표로 하며, 초기 신경 인지 변화를 언어 없이 감지하기 위한 얼굴 시간적 미세 역학 분석을 개발한다. 이는 임상의나 연구자의 적극적인 개입 없이 자연스러운 얼굴 행동을 포착하고, 장치, 주제 및 문화를 넘나들어 전송 가능한, 현장 비디오 분석을 가능하게 한다. 기존 연구들은 음성이나 스크립트 인터뷰를 우선시하여, 임상 외 사용을 제한하고 언어 및 전사에 예측을 연결하는 한계를 가진다. 본 연구는 눈 깜빡임 역학, 작은 입 및 턱 움직임, 시선 가변성, 미묘한 머리 조절과 같은 시간적 얼굴 운동 역학만으로도 치매 선별 검사가 가능한지를 분석한다. 얼굴 신호를 안정화하여 이러한 미세 움직임을 해석 가능한 얼굴 미세 역학 시계열로 변환하고, 이를 부드럽게 처리하여 짧은 윈도우를 압축된 클립 수준 통계로 요약한다. 각 윈도우는 활동 혼합(스트림 간 움직임의 상대적 점유율)으로 인코딩하여 예측 변수가 움직임의 크기가 아닌 스트림 간 분포를 분석하여 채널별 효과를 투명하게 만든다. 또한, 공개적으로 사용 가능한 현장 카메라-정면 비디오에서 수집된 새로운 데이터세트인 YT DemTalk를 소개한다. YT DemTalk는 300개의 클립(자가 보고된 치매 150개, 대조군 150개)을 포함하며, 모델 테스트 및 코퍼스 벤치마킹을 제공한다. YT DemTalk에서 시선 불안정성 및 입/턱 역학이 가장 유용한 단서로 확인되었으며, 가벼운 가중치의 얕은 분류기를 사용하여 0.953의 AUROC, 0.961의 평균 정밀도(AP), 0.851의 F1 점수, 0.857의 정확도로 치매 예측 성능을 달성했다.