Este artículo presenta los resultados de experimentos con diversas estrategias para mejorar la detección de humor y sarcasmo mediante código mixto. Exploramos tres enfoques: (i) mezcla de muestras en lengua materna, (ii) aprendizaje multitarea (MTL) y (iii) incitación y ajuste fino de instrucciones de un modelo lingüístico multilingüe a gran escala (VMLM). La mezcla de muestras en lengua materna implicó añadir muestras de tareas monolingües al conjunto de entrenamiento de código mixto, mientras que el entrenamiento MTL implicó el uso de muestras en lengua materna y código mixto de una tarea semánticamente relacionada (detección de odio en este estudio). Finalmente, evaluamos la eficacia de VMLM mediante incitación contextual y ajuste fino de instrucciones, realizado en varios ensayos. Los resultados experimentales mostraron que añadir muestras en lengua materna mejoró la detección de humor y sarcasmo (hasta un 6,76 % y un 8,64 % de aumento en la puntuación F1, respectivamente). El entrenamiento del MLM dentro del marco MTL mejoró aún más la detección de humor y sarcasmo (hasta un 10,67 % y un 12,35 % de aumento en la puntuación F1, respectivamente). En cambio, el ajuste de instrucciones y sugerencias de VMLM no superó a otros enfoques. Además, se utilizaron estudios de ablación y análisis de errores para identificar áreas donde era necesario mejorar el modelo, y el código se publicó para garantizar su reproducibilidad.