대규모 언어 모델(LLM)을 의료 분야에 통합할 때 '우선 해를 끼치지 말라'는 안전 원칙이 중요하지만, 현재의 정렬 기술은 맥락 의존적인 위반 사항(행정 사기, 임상적 차별 등)을 제대로 포착하지 못한다. 이 문제를 해결하기 위해, 브라질 통합 보건 시스템(SUS)의 규제 및 윤리적 복잡성에 맞춰 조정된 214,219개의 적대적 프롬프트로 구성된 Medical Malice 데이터셋을 제시한다. 이 데이터셋은 각 위반 행위의 이유를 포함하여 모델이 거부 행위의 고정된 집합을 단순히 암기하는 대신 윤리적 경계를 내면화할 수 있도록 한다. 페르소나 기반 파이프라인 내에서 정렬되지 않은 에이전트(Grok-4)를 사용하여 조달 조작, 새치기에서 산부인과 폭력에 이르기까지 7가지 분류에 걸쳐 고충실도 위협을 합성했다. 본 연구는 악의적인 행위자와 AI 개발자 간의 정보 비대칭성을 바로잡기 위해 이러한 "취약성 시그니처"를 공개하는 윤리적 설계를 논의한다. 궁극적으로, 이 연구는 보편적인 안전에서 맥락 인지적 안전으로의 전환을 옹호하며, 환자 안전과 의료 시스템에서 AI의 성공적인 통합에 가장 큰 위험을 나타내는 고위험 의료 환경에 내재된 미묘하고 체계적인 위협으로부터 의료 AI를 보호하는 데 필요한 자원을 제공한다.