本研究深入分析了生成式人工智能 (AI) 技术快速发展所带来的伦理与可信度问题,并提出了一个全面的系统评估框架。以 ChatGPT 为代表的生成式人工智能在展现创新潜力的同时,也引发了诸多伦理和社会问题,例如偏见、有害性、侵犯版权、侵犯隐私以及幻觉等。现有的人工智能评估方法主要侧重于性能和准确性,无法解决这些复杂的问题。因此,本研究强调需要制定以人为本、能够反映社会影响的全新标准。为此,我们确定了评估生成式人工智能伦理与可信度的关键维度,包括公平性、透明度、可问责性、安全性、隐私性、准确性、一致性、稳健性、可解释性、版权和知识产权保护以及可追溯性。之后,我们针对每个维度制定了详细的指标和评估方法。此外,我们对韩国、美国、欧盟和中国的人工智能伦理政策和指南进行了比较分析,并从每项政策中得出关键方法和 Takeaways。所提出的框架适用于整个人工智能生命周期,并将技术评估与多学科视角相结合,为在现实环境中识别和管理伦理风险提供了一种实用的方法。最终,本研究为负责任地开发生成式人工智能奠定了学术基础,并为政策制定者、开发者、用户和其他利益相关者提供了切实可行的见解,支持人工智能技术对社会的积极贡献。