본 논문은 대규모 언어 모델(LLM)의 한계점인 데이터의 시대적 한계와 개인 맞춤형 응답 부족을 해결하기 위해, 온라인 강화 학습 기반 검색 증강 생성(OnRL-RAG) 시스템을 제안합니다. OnRL-RAG는 Retrieval-Augmented Generation (RAG)를 통해 최신 정보를 추가하고, Reinforcement Learning from Human Feedback (RLHF)를 통해 사용자 피드백에 맞춰 응답을 개인화합니다. 2028명의 대학생을 대상으로 수집한 데이터셋을 사용하여 기존 시스템(GPT-4o, GPT-4o-mini, Gemini-1.5, GPT-3.5)과 비교 분석한 결과, 제안된 시스템의 우수성을 확인하였습니다. 특히, 정신 건강 문제(스트레스, 불안, 우울증)와 같은 복잡하고 역동적인 환경에서의 개인 맞춤형 서비스 제공 가능성을 시사합니다.