본 논문은 대규모 언어 모델(LLM)의 윤리적 문제점과 독성 언어 탐지 기술 개발의 새로운 가능성을 제기합니다. 기존 연구들이 단순한 의미 연관성(예: 'he'와 프로그래머, 'she'와 가정주부의 편향된 연관성)에 기반한 데이터를 사용한 반면, 본 연구는 온라인 검열을 피하고 인간 평가자에 의해 추론이 필요한 것으로 확인된 실제 독성 상호작용 데이터를 수집합니다. 이를 바탕으로 인지과학과 언어학의 연구 결과를 활용하여 새로운 프롬프팅 방법인 Pragmatic Inference Chain (PIC)을 제안합니다. PIC 프롬프팅은 GPT-4o, Llama-3.1-70B-Instruct, DeepSeek-v2.5, DeepSeek-v3 등의 모델에서 암시적 독성 언어 식별 성공률을 기존 프롬프팅 방법(CoT, 규칙 기반 등) 대비 크게 향상시키며, 더 명확하고 일관된 추론 과정을 생성하는 것을 보여줍니다. 이는 유머나 은유 이해 등 다른 추론 집약적 작업에도 일반화될 가능성을 시사합니다.