InjectLab은 대규모 언어 모델(LLM)의 프롬프트 기반 공격에 대응하기 위해 설계된 오픈소스 보안 프레임워크입니다. MITRE ATT&CK에서 영감을 받아 프롬프트 단계에서의 적대적 행위에 초점을 맞추고 있으며, 지시어 무시, 신원 바꿔치기, 다중 에이전트 악용 등 6가지 핵심 전술 아래 25가지 이상의 기법을 포함합니다. 각 기법에는 탐지 지침, 완화 전략 및 YAML 기반 시뮬레이션 테스트가 포함되어 있으며, Python 도구를 통해 프롬프트 기반 테스트 케이스를 쉽게 실행할 수 있습니다. 본 논문에서는 InjectLab의 구조를 설명하고, 다른 AI 위협 분류 체계와 비교하며, 실용적이고 커뮤니티 중심의 LLM 보안 기반으로서의 미래 방향을 논의합니다.