본 논문은 AI 시스템의 발전, 작동 및 사회적 영향에 대한 우려가 증가함에 따라, 진화하는 AI 기능 속에서 윤리적, 사회적, 안전 표준을 수립하는 데 어려움이 있음을 지적한다. 인간-AI 협업 작업 실행의 증가와 함께 AI 시스템을 사용자 및 환경의 요구에 맞게 지속적으로 적응시키는 것이 중요하며, 이러한 동기화 실패는 윤리적 및 안전 문제를 야기할 수 있다. 본 논문은 기존 가이드라인의 인간-로봇 협업 시스템 적용성을 평가하고, 한계점을 논의하며, 사례 연구를 통해 대상 시스템이 기존 가이드라인의 요구 사항을 충족하는지 여부를 검토하고 인간-로봇 상호 작용을 개선하기 위한 방안을 제시한다. 이는 가이드라인 해석 및 적용에 대한 통찰력을 제공하고, 시스템 개선의 구체적인 사례를 제시하며, 향후 AI 기반 중요 시스템의 시스템 보증 및 인증에 영향을 미칠 것으로 기대한다.