この論文は、コードミックスされたユーモアと空白検出のパフォーマンスを向上させるためのさまざまな戦略を実験した結果を報告します。 3つのアプローチ、すなわち(i)母国語サンプルの混合、(ii)多作業学習(MTL)、(iii)大規模多言語言語モデル(VMLM)のプロンプトと指示の微調整を試みました。母国語サンプル混合では、コード混合学習セットに単一言語の作業サンプルを追加し、MTL学習では意味的に関連した作業(本研究では憎悪検出)の母語とコード混合サンプルを使用しました。最後に、VMLMの効果は、数回の試みだけで行われるコンテキストプロンプトと指示微調整によって評価した。実験の結果、母国語サンプルを追加するとユーモアと空白検出性能を向上させ(F1スコアそれぞれ最大6.76%、8.64%上昇)、MTLフレームワークでMLMを学習することはユーモアと空白検出性能をさらに向上させました(F1スコアそれぞれ最大10.67%、12.35%上昇)。一方、VMLMのプロンプトと指示の微調整は、他のアプローチよりも優れていませんでした。さらに、ablation studyとエラー解析により、モデルの改善が必要な部分を把握し、コードを公開して再現性を確保しました。