본 논문은 대규모 언어 모델(LLM)의 안전성 확보를 위한 연구로, 기존의 정교한 명령어 설계나 반복적인 방법과 달리, 단순 보조 작업 연결(SATA)이라는 새로운 접근 방식을 제안합니다. SATA는 악의적인 질문에 유해한 키워드를 [MASK] 특수 토큰으로 가리고, 마스크 언어 모델(MLM)이나 위치 기반 요소 조회(ELP)와 같은 단순 보조 작업을 사용하여 가려진 키워드의 의미를 인코딩합니다. 이후, 보조 작업과 가려진 질문을 연결하여 LLM의 안전장치를 우회하고 유해한 응답을 유도합니다. 실험 결과, SATA는 기존 방법보다 월등히 높은 성능을 보이며, AdvBench 데이터셋에서 MLM 보조 작업을 사용했을 때 85%의 공격 성공률(ASR)과 4.57의 유해 점수(HS)를, ELP 보조 작업을 사용했을 때 76%의 ASR과 4.43의 HS를 달성했습니다.