Bài báo này đề cập đến vấn đề rò rỉ quyền riêng tư và việc thiếu một khuôn khổ đánh giá toàn diện phát sinh cùng với sự phát triển nhanh chóng của việc tạo dữ liệu tổng hợp bằng AI tạo sinh và các mô hình ngôn ngữ quy mô lớn (LLM), đặc biệt là trong việc tạo dữ liệu bảng có cấu trúc như đánh giá sản phẩm. Trong bài báo này, chúng tôi đề xuất SynEval, một khuôn khổ đánh giá nguồn mở, đo lường định lượng độ trung thực, khả năng sử dụng và bảo vệ quyền riêng tư của dữ liệu tổng hợp bằng nhiều thước đo đánh giá khác nhau. Chúng tôi áp dụng SynEval cho dữ liệu đánh giá sản phẩm tổng hợp được tạo ra bằng ba LLM tiên tiến: ChatGPT, Claude và Llama, và xác minh dữ liệu này, chỉ ra sự đánh đổi giữa các thước đo đánh giá khác nhau. SynEval được giới thiệu như một công cụ quan trọng để đánh giá tính phù hợp của dữ liệu bảng tổng hợp và nhấn mạnh việc bảo vệ quyền riêng tư của người dùng.