本論文は,大規模言語モデル(LLM)の倫理的問題と毒性言語検出技術開発の新しい可能性を提起する。既存の研究は単純な意味の関連性(例えば、「he」とプログラマー、「she」と家庭の主婦の偏りのある関連性)に基づくデータを使用していましたが、本研究はオンライン検閲を回避し、人間の評価者によって推論が必要であることが確認された実際の毒性相互作用データを収集します。これに基づいて、認知科学と言語学の研究結果を活用し、新しいプロンプト法であるPragmatic Inference Chain(PIC)を提案します。 PICプロンプトは、GPT-4o、Llama-3.1-70B-Instruct、DeepSeek-v2.5、DeepSeek-v3などのモデルで暗黙の毒性言語識別の成功率を既存のプロンプティング方法(CoT、ルールベースなど)に比べて大幅に向上させ、より明確で一貫した推論プロセスを生成する。これは、ユーモアや比喩の理解など、他の推論集約的な作業にも一般化される可能性を示唆しています。