본 논문은 코드 혼합된 유머와 빈정거림 감지 성능 향상을 위한 다양한 전략들을 실험한 결과를 보고합니다. 세 가지 접근 방식, 즉 (i) 모국어 샘플 혼합, (ii) 다중 작업 학습 (MTL), (iii) 대규모 다국어 언어 모델(VMLM)의 프롬프팅 및 지시 미세 조정을 시도했습니다. 모국어 샘플 혼합에서는 코드 혼합 학습 세트에 단일 언어 작업 샘플을 추가했고, MTL 학습에서는 의미적으로 관련된 작업(본 연구에서는 증오 감지)의 모국어 및 코드 혼합 샘플을 사용했습니다. 마지막으로, VMLM의 효과를 몇 번의 시도만으로 이루어지는 컨텍스트 프롬프팅 및 지시 미세 조정을 통해 평가했습니다. 실험 결과, 모국어 샘플 추가는 유머 및 빈정거림 감지 성능을 향상시켰으며(F1 점수 각각 최대 6.76%, 8.64% 상승), MTL 프레임워크에서 MLM을 학습시키는 것은 유머 및 빈정거림 감지 성능을 더욱 향상시켰습니다(F1 점수 각각 최대 10.67%, 12.35% 상승). 반면 VMLM의 프롬프팅 및 지시 미세 조정은 다른 접근 방식보다 성능이 뛰어나지 않았습니다. 추가적으로, ablation study와 오류 분석을 통해 모델 개선이 필요한 부분을 파악하고, 코드를 공개하여 재현성을 확보했습니다.