Este artículo aborda el problema de la fuga de información sobre la privacidad y la falta de un marco de evaluación integral que surge con el rápido desarrollo de la generación de datos sintéticos mediante IA generativa y modelos de lenguaje a gran escala (LLM), especialmente en la generación de datos tabulares estructurados, como las reseñas de productos. Aquí, proponemos SynEval, un marco de evaluación de código abierto que mide cuantitativamente la fidelidad, la usabilidad y la protección de la privacidad de los datos sintéticos mediante diversas métricas de evaluación. Aplicamos SynEval a datos sintéticos de reseñas de productos generados mediante tres LLM de última generación: ChatGPT, Claude y Llama, y los verificamos, revelando las compensaciones entre diversas métricas de evaluación. SynEval se presenta como una herramienta importante para juzgar la idoneidad de los datos tabulares sintéticos y enfatizar la protección de la privacidad del usuario.