단기 카메라 정면 대화형 비디오에서 수동적인 치매 선별을 목표로, 언어 없이 초기 신경 인지 변화를 감지하기 위해 안면 시간 미세 역학 분석을 개발했습니다. 임상의나 연구자의 적극적인 개입 없이, 장치, 주제 및 문화를 넘나드는 자연스러운 안면 행동을 포착하기 위해 대규모로, 현장에서 스크립트 없는 비디오 분석을 가능하게 합니다. 말이나 스크립트 인터뷰를 우선시하는 기존 자료와 달리, 말이나 텍스트 없이 눈 깜빡임 역학, 작은 입/턱 움직임, 시선 변동, 미세한 머리 조정을 포함한 시간적 안면 운동학이 치매 선별에 충분한지 분석합니다. 안면 신호를 안정화하여 이러한 미세 움직임을 해석 가능한 안면 미세 역학 시계열로 변환하고, 이를 매끄럽게 처리하여 짧은 창을 압축된 클립 수준 통계로 요약합니다. 각 창은 활동 혼합(스트림 간의 움직임의 상대적 비율)에 의해 인코딩되므로, 예측 변수는 채널별 효과를 투명하게 만들어 움직임의 크기가 아닌 스트림 간의 움직임 분포를 분석합니다. 또한, 공개적으로 이용 가능한 현장 카메라 정면 비디오에서 큐레이션된 새로운 데이터 세트인 YT DemTalk를 도입했습니다. 이 데이터 세트는 모델을 테스트하고 코퍼스에 대한 첫 번째 벤치마킹을 제공하기 위해 300개의 클립(자가 보고 치매 150개, 대조군 150개)을 포함합니다. YT DemTalk에서, 눈의 불안정성과 입/턱 역학이 가장 유익한 단서로 식별되었으며, 경량 얕은 분류기는 0.953의 AUROC, 0.961의 평균 정밀도(AP), 0.851의 F1 점수, 0.857의 정확도로 치매 예측 성능을 달성할 수 있었습니다.