본 논문은 강화 학습 기반 인간 피드백(RLHF)을 활용하여 미세 조정된 ChatGPT, Claude와 같은 생성형 AI 챗봇의 등장으로 인해 발생하는 윤리적, 사회기술적, 교육적 함의를 탐구한다. 기존 연구가 생성된 콘텐츠의 설득력에 초점을 맞춘 것과 달리, 이 논문은 Ian Bogost의 절차적 수사학 개념을 활용하여 RLHF 기반 LLM의 기저 메커니즘에 대한 수사학적 분석을 수행한다. 특히 언어 관습 준수, 정보 탐색 방식, 사회적 관계에 대한 기대 등 RLHF 향상된 생성형 AI 챗봇에 의해 재구성되고 있는 핵심 절차 및 과정을 분석하여, AI 기술을 통한 절차적 변화가 어떻게 헤게모니적 언어 사용을 강화하고, 편향을 영속시키며, 학습을 맥락에서 분리하고, 인간 관계를 침해할 수 있는지에 대한 새로운 연구 방향을 제시한다.