본 논문은 정치 담론 분석을 위한 새로운 전문화된 사전 학습 언어 모델인 RooseBERT를 제안합니다. 기존의 일반 목적 사전 학습 언어 모델은 정치 담론의 특수성(암묵적 주장, 은폐된 의사소통 전략 등)을 제대로 처리하지 못하는 한계를 가지고 있습니다. 이를 해결하기 위해, 영어로 된 8,000개 이상의 정치 토론 데이터(각 토론은 여러 하위 토론으로 구성)를 사용하여 RooseBERT를 사전 학습했습니다. 명명된 개체 인식, 감정 분석, 논증 구성 요소 탐지 및 분류, 논증 관계 예측 및 분류 등 네 가지 하위 작업에 대한 미세 조정 결과, RooseBERT는 일반 목적 언어 모델보다 성능이 크게 향상됨을 보였습니다. 연구 공동체를 위해 RooseBERT 모델을 공개합니다.