Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

HAPI: Un modelo para aprender expresiones faciales de robots a partir de preferencias humanas

Created by
  • Haebom

Autor

Dongsheng Yang, Qianying Liu, Wataru Sato, Takashi Minato, Chaoran Liu, Shin'ya Nishida

Describir

Este artículo propone un nuevo marco de aprendizaje y clasificación para mejorar el realismo y la naturalidad de la generación de expresiones faciales robóticas. Los métodos de ajuste manual existentes presentan limitaciones en cuanto a la delicadeza y el realismo de las expresiones, y este estudio pretende superarlas mediante el uso de datos de preferencias humanas. En particular, utilizamos anotaciones de comparación por pares para recopilar datos de preferencias humanas y desarrollamos el modelo HAPI (Human Affective Pairwise Impressions) basado en Siamese RankNet para mejorar la evaluación de las expresiones faciales. Los resultados experimentales, utilizando optimización bayesiana y una encuesta en línea sobre expresiones faciales en una plataforma Android de 35 grados de libertad, muestran que el método propuesto genera expresiones faciales de ira, felicidad y sorpresa de forma mucho más realista y socialmente relacionable que los métodos existentes. Esto confirma que el marco propuesto reduce eficazmente la brecha entre la preferencia humana y la predicción del modelo, y combina la generación de expresiones faciales robóticas con las respuestas emocionales humanas.

Takeaways, Limitations

Takeaways:
Un nuevo enfoque para generar expresiones faciales de robots que tiene en cuenta las preferencias humanas
Mejora de la precisión de la evaluación de la expresión facial utilizando el modelo HAPI basado en Siamese RankNet
Resultados experimentales utilizando la plataforma Android de 35 grados de libertad, creación exitosa de expresiones faciales realistas y naturales en comparación con los métodos existentes
Vinculación efectiva entre las respuestas emocionales humanas y la generación de expresiones faciales robóticas
Limitations:
Actualmente, solo se han evaluado tres expresiones emocionales: ira, felicidad y sorpresa. Se necesita una mayor investigación sobre expresiones emocionales más diversas.
Resultados específicos de la plataforma Android de 35 grados de libertad. Se debe verificar su generalización a otras plataformas robóticas.
Considerando el costo y el tiempo que requiere recopilar datos sobre las preferencias de las personas, se necesita investigar métodos de recolección de datos más eficientes.
👍