본 논문은 AI 프로그래밍 도구의 과도한 의존으로 인해 발생할 수 있는 문제점, 특히 소프트웨어 보안 분야에서의 위험성을 지적한다. 프로그래머들이 AI 도구에 지나치게 의존하여 중요한 의사결정 과정에서 배제되는 현상을 해결하기 위해, LLM(Large Language Model)의 결정 과정을 사용자가 관찰하고 직접적으로 영향을 줄 수 있는 새로운 상호 작용 기법인 'Human-in-the-loop Decoding'을 제안한다. 이 기법을 구현한 코드 완성 보조 도구 HiLDe는 LLM이 내린 중요한 결정을 강조하고 사용자가 탐색할 수 있는 대안을 제공한다. 18명의 참가자를 대상으로 한 실험 결과, HiLDe를 사용한 그룹이 기존 코드 완성 도구를 사용한 그룹보다 취약성을 훨씬 적게 생성하고 목표에 더 잘 부합하는 코드를 생성한 것으로 나타났다.