Este artículo presenta un nuevo marco que aprovecha las inconsistencias de anotación en la moderación de contenido. Los sistemas de moderación de contenido existentes combinan moderadores humanos con modelos de aprendizaje automático, pero tienden a tratar las inconsistencias de anotación como ruido. Este artículo interpreta estas inconsistencias como señales valiosas que revelan ambigüedad en el contenido y presenta un enfoque que aprende simultáneamente la clasificación de toxicidad y las inconsistencias de anotación mediante aprendizaje multitarea. Específicamente, aprovecha la predicción conforme para considerar la ambigüedad de la anotación y la incertidumbre del modelo, brindando a los moderadores la flexibilidad para ajustar los umbrales de inconsistencias de anotación. Los resultados experimentales muestran que el marco propuesto mejora el rendimiento del modelo, la calibración y la estimación de la incertidumbre en comparación con los enfoques de tarea única, aumenta la eficiencia de los parámetros y optimiza el proceso de revisión.