본 논문은 혼합 현실(MR) 인터페이스와 대규모 언어 모델(LLM)을 통합하여 일상적인 독서를 지원하는 독서 보조 시스템인 RealitySummary를 제시한다. RealitySummary는 항상 켜져 있는 카메라 접근, OCR 기반 텍스트 추출, 증강된 공간 및 시각적 응답을 LLM과 원활하게 통합한다. 연구는 사용자 피드백과 반성적 분석을 기반으로 3가지 버전으로 진행되었으며, 각 버전은 사용자 연구(N=12), 현장 배포(N=11), 일기 연구(N=5)를 통해 평가되었다. 실험 결과는 항상 켜져 있는 암시적 지원, 장기간의 시간적 기록, 최소한의 컨텍스트 전환, 공간적 기능 등 AI와 MR 결합의 고유한 장점을 강조하며, 기존의 화면 기반 상호 작용을 넘어 미래의 LLM-MR 인터페이스의 잠재력을 보여준다.