온라인 행동 연구에서 참여자들이 대규모 언어 모델(LLM)을 활용하여 조언, 번역, 작업 위임을 하는 'LLM 오염'이라는 새로운 위협에 직면하고 있음을 논의합니다. 부분적 LLM 중재, 완전한 LLM 위임, LLM 스필오버의 세 가지 상호 작용하는 변종을 통해 온라인 행동 연구의 타당성과 무결성이 위협받고 있음을 밝힙니다. 이러한 변종들은 샘플의 진정성을 훼손하고, 사후 감지가 어려운 편향을 발생시키며, 인간의 인지 및 행동에 대한 온라인 연구의 인식적 근거를 훼손합니다. LLM 오염의 위협은 생성형 AI의 발전과 함께 진화하고 있으며, 이에 대응하기 위해 연구자 관행, 플랫폼 책임, 커뮤니티 노력을 포괄하는 다층적 대응 방안을 제시합니다.