En este artículo, presentamos $\textbf{$\texttt{DroidCollection}$}$, el conjunto de datos abierto más extenso para entrenar y evaluar detectores de código generados por máquinas. $\texttt{DroidCollection}$ contiene más de un millón de muestras de código, siete lenguajes de programación, 43 salidas de modelos de codificación y al menos tres dominios de codificación del mundo real. Además de muestras completamente generadas por IA, también incluye código coautorado por humanos e IA y muestras adversarias diseñadas explícitamente para evadir la detección. Posteriormente, desarrollamos $\textbf{$\texttt{DroidDetect}$}$, un conjunto de detectores específicos del codificador entrenados en objetivos multitarea utilizando $\texttt{DroidCollection}$. Los resultados experimentales demuestran que el rendimiento de los detectores existentes no se generaliza más allá del estrecho conjunto de datos de entrenamiento a diversos dominios de codificación y lenguajes de programación. Además, si bien la mayoría de los detectores se ven fácilmente comprometidos al humanizar la distribución de salida mediante enfoques superficiales de incitación y alineación, demostramos que el entrenamiento con una pequeña cantidad de datos adversarios puede solucionar fácilmente este problema. Finalmente, demostramos la eficacia del aprendizaje métrico y el remuestreo basado en la incertidumbre para mejorar el entrenamiento de detectores en distribuciones potencialmente ruidosas.