Este artículo explora las capacidades de reconocimiento de sentimientos de los modelos lingüísticos a gran escala (LLM). A diferencia de estudios previos que categorizan los sentimientos en un conjunto limitado de categorías, presentamos un nuevo conjunto de datos de referencia, EXPRESS, que consta de 251 etiquetas de sentimiento autoinformadas de granularidad fina, recopiladas de la comunidad de Reddit. Evaluamos sistemáticamente varios LLM en diversas situaciones y demostramos su dificultad para predecir con precisión sentimientos consistentes con los autoinformes humanos. El análisis cualitativo revela que, si bien algunos LLM generan términos de sentimiento consistentes con la teoría y las definiciones de las emociones existentes, no logran captar señales contextuales con la misma eficacia que los autoinformes humanos. Por lo tanto, este estudio destaca las limitaciones de los LLM en la consistencia de sentimientos de granularidad fina y proporciona perspectivas para futuras investigaciones destinadas a mejorar la comprensión contextual.