Se han desarrollado métodos de reconocimiento de atributos peatonales basados en cámaras RGB, pero son vulnerables a las condiciones de iluminación y al desenfoque de movimiento, además de presentar limitaciones al considerar aspectos emocionales. Este artículo propone una tarea multimodal de reconocimiento de atributos peatonales mediante eventos RGB utilizando una cámara de eventos que ofrece rendimiento con poca luz, alta velocidad y bajo consumo de energía. Publicamos EventPAR, un conjunto de datos a gran escala para el reconocimiento multimodal de atributos peatonales que contiene 100 000 muestras de eventos RGB y abarca 50 atributos relacionados con la apariencia y seis emociones. Reentrenamos y evaluamos los modelos PAR existentes para establecer un punto de referencia y proponemos un marco de reconocimiento multimodal de atributos peatonales basado en RWKV. Se obtuvieron resultados de vanguardia mediante experimentos con los conjuntos de datos propuestos, MARS-Attribute y los conjuntos de datos de simulación DukeMTMC-VID-Attribute. El código fuente y el conjunto de datos estarán disponibles en GitHub.