본 논문은 Human-Robot Interaction (HRI) 분야에서 Large Language Models (LLMs)의 사용에 대한 안전성 및 차별적 행동 문제를 평가한다. 다양한 LLM을 대상으로 차별 및 안전성 기준에 따라 평가한 결과, LLMs이 인종, 성별, 장애, 국적, 종교 등 다양한 보호 대상 특성에 걸쳐 안전하지 않다는 것을 밝혀냈다. 구체적으로, LLMs이 직접적인 차별적 결과를 초래하며, 안전하지 않은 자연어 입력을 받아 위험한 행동을 할 수 있다는 것을 실험을 통해 입증했다.