全网唯一标准王
T/EI7491-2025 生成式人工智能的道德设计规范 Ethicaldesignspecificationsforgenerativeartificialintelligence团体标准 T/EI7491-2025ICS35.040.01 CCSI6599 广州市从化区青年创新创业协会发布2025-06-29发布 2025-06-29实施 全国团体标准信息平台 全国团体标准信息平台 T/EI7491-2025 I前言 本文件按照GB/T1.1-2020给出的规则起草。 本文件由国家工业设计研究院(生态设计领域)提出并归口。 本文件起草单位:浙大城市学院、浙江大学、浙江工商职业技术学院、浙江商业技师学院、杭州慧慧科 技有限公司。 本文件主要起草人:应卫强、吴冬俊、沈小丽、张玲燕、姚琤、张旭生、徐雯洁、刘镇宇、庄楠、黄岚 清、应放天。 全国团体标准信息平台 全国团体标准信息平台 T/EI7491-2025 1生成式人工智能的道德设计规范 1范围 本文件规定了生成式人工智能在设计、开发、部署和使用过程中应遵循的道德设计原则、要求、方 法及评估准则,旨在确保生成式人工智能系统的开发和应用符合人类的道德价值观和社会伦理规范,促 进生成式人工智能技术的健康、可持续发展。 本文件适用于各类生成式人工智能系统的研发机构、企业、组织以及使用生成式人工智能服务的相 关方,涵盖设计、开发、部署和使用全过程。 2规范性引用文件 下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件, 仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本 文件。 GB/T38647.1-2020信息技术安全技术匿名数字签名第1部分:总则 GB/T38648-2020信息安全技术蓝牙安全指南 GB/T45288.1-2025人工智能大模型第1部分:通用要求 T/TMAC120-2024人工智能产品伦理风险管理指南 ISO/IECTR24368:2022信息技术人工智能伦理和社会问题概述 ISO/IEC23053:2022使用机器学习(ML)的人工智能(AI)系统框架 ISO/IEC22989:2022信息技术—人工智能概念和术语 ISO/IEC42001:2023人工智能管理体系 ISO/IEC23894:2023信息技术人工智能风险管理指南 3术语和定义 3.1 生成式人工智能GenerativeArtificialIntelligence 基于一定的算法和模型,能够自动生成文本、图像、音频、视频等各种形式内容的人工智能技术。 3.2 道德设计EthicalDesign 在生成式人工智能系统的设计过程中,充分考虑道德和伦理因素,将道德原则融入到系统的架构、 全国团体标准信息平台 T/EI7491—2024 2算法、数据和交互设计等各个方面,以确保系统的行为和输出符合道德规范。 3.3 偏见Bias 由于数据、算法或其他因素导致生成式人工智能系统产生不公平、歧视性或片面的结果。 3.4 可解释性Explainability 生成式人工智能系统能够以人类可理解的方式解释其决策过程和输出结果的能力。 3.5 透明度Transparency 生成式人工智能系统的开发、运行和决策过程对相关利益方(如用户、监管机构等)保持公开和可 访问的程度。 4道德设计原则 4.1尊重人类自主性 生成式人工智能系统应尊重人类的自主决策和选择权利,不得通过操纵或误导等方式侵犯人类的自 主性。系统应提供清晰、准确的信息,让用户能够自主决定是否使用系统以及如何使用系统的输出结果。 4.2公平与非歧视 生成式人工智能系统应避免因种族、性别、年龄、宗教、残疾等因素产生偏见和歧视。在数据收集、 算法设计和模型训练过程中,应确保数据的多样性和代表性,避免对特定群体的不公平对待。 4.3责任与可追溯性 生成式人工智能系统的开发者和使用者应承担相应的责任,确保系统的行为和输出符合道德和法律 要求。系统应具备可追溯性,能够记录和追踪其决策过程和输出结果,以便在出现问题时能够进行责任 认定和追溯。 4.4隐私保护 生成式人工智能系统应严格保护用户的隐私信息,遵循相关的隐私保护法律法规。在数据收集、存 储和使用过程中,应采取必要的安全措施,确保用户的个人信息不被泄露、滥用或非法获取。 4.5有益性与无害性 生成式人工智能系统应致力于为人类社会带来积极的影响和价值,避免产生危害人类安全、健康、 尊严和社会稳定的结果。系统的开发和应用应符合社会公共利益和道德准则。 4.6透明度与可解释性 生成式人工智能系统应保持透明度,向用户和相关利益方公开其基本原理、算法架构、数据来源等 全国团体标准信息平台 T/EI7491-2025 3信息。同时,系统应具备可解释性,能够以通俗易懂的方式解释其决策过程和输出结果,以便用户和相 关利益方能够理解和评估系统的行为。 5道德设计要求 5.1数据层面 5.1.1数据收集 a)数据收集应遵循合法、正当、必要的原则,获得用户的明确授权。 b)收集的数据应具有多样性和代表性,避免因数据偏差导致系统产生偏见。 c)数据收集过程应确保数据的质量和准确性,避免收集虚假、错误或不完整的数据。 5.1.2数据标注 a)数据标注应遵循统一的标准和规范,确保标注的准确性和一致性。 b)标注人员应具备相应的专业知识和技能,避免因标注错误导致系统产生偏见。 c)数据标注过程应进行质量控制和审核,确保标注结果的可靠性。 5.2算法层面 5.2.1算法设计 a)算法设计应遵循道德设计原则,避免因算法缺陷导致系统产生偏见和不公平的结果。 b)算法应具备可解释性,能够以人类可理解的方式解释其决策过程和输出结果。 c)算法设计应考虑系统的鲁棒性和可靠性,避免因输入数据的微小变化导致系统产生不稳定或错 误的输出结果。 5.2.2算法更新 a)算法应定期进行更新和优化,以适应不断变化的需求和环境。 b)算法更新应遵循道德设计原则和要求,确保更新后的算法不会产生新的偏见和问题。 c)算法更新过程应进行充分的测试和验证,确保更新后的算法的稳定性和可靠性。 5.3系统层面 5.3.1系统架构设计 a)系统架构设计应考虑道德设计原则和要求,确保系统的各个组件和模块之间的交互和协作符合 道德规范。 b)系统架构应具备可扩展性和灵活性,以便在系统运行过程中能够及时调整和优化系统的功能和 性能。 c)系统架构设计应考虑系统的安全性和可靠性,采取必要的安全措施防止系统被攻击和破坏。 5.3.2系统交互设计 a)系统交互设计应遵循用户友好原则,提供清晰、简洁、易懂的界面和操作指南。 b)系统交互设计应充分考虑用户的需求和体验,避免因交互设计不合理导致用户产生误解或困惑。 全国团体标准信息平台 T/EI7491—2024 4c)系统交互设计应提供必要的反馈和提示,让用户能够及时了解系统的运行状态和输出结果。 5.4应用层面 5.4.1应用场景评估 a)在将生成式人工智能系统应用于具体场景之前,应对应用场景进行全面的评估,分析应用场景 可能带来的道德和伦理风险。 b)应用场景评估应考虑应用场景的特点、目标和需求,以及系统的性能和能力,确保系统的应用 符合道德设计原则和要求。 c)应用场景评估结果应作为系统设计和开发的重要依据,指导系统的功能和性能设计。 5.4.2应用过程管理 a)在生成式人工智能系统的应用过程中,应建立完善的管理机制,确保系统的使用符合道德和法 律要求。 b)应用过程管理应包括用户培训、使用规范制定、监督检查等环节,确保用户能够正确、合理地 使用系统。 c)应用过程管理应及时处理用户反馈和投诉,对系统的使用过程进行持续改进和优化。 5.4.3应用效果评估 a)应对生成式人工智能系统的应用效果进行定期评估,评估系统的应用是否达到了预期的目标和 效果。 b)应用效果评估应考虑系统的道德性和伦理性,评估系统的应用是否符合道德设计原则和要求。 c)应用效果评估结果应作为系统优化和改进的重要依据,推动系统的不断发展和完善。 6道德设计方法 6.1多学科协作 生成式人工智能的道德设计需要计算机科学、伦理学、法学、社会学等多学科的专业知识和技能。 在系统的设计和开发过程中,应组建跨学科的团队,充分发挥各学科的优势,共同参与系统的道德设计。 6.2利益相关者参与 利益相关者包括用户、开发者、监管机构、社会公众等。在系统的设计和开发过程中,应充分考虑 利益相关者的需求和意见,通过问卷调查、访谈、研讨会等方式,广泛征求利益相关者的意见和建议, 确保系统的设计和开发符合利益相关者的利益和期望。 6.3道德风险评估 在系统的设计和开发过程中,应定期进行道德风险评估,识别系统可能存在的道德风险和问题。道 德风险评估应采用科学、客观的评估方法和指标,对系统的各个方面进行全面的评估。评估结果应作为 系统设计和开发的重要依据,及时采取措施降低和消除道德风险。 全国团体标准信息平台

.pdf文档 T-EI 7491-2025 生成式人工智能的道德设计规范

文档预览
中文文档 10 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共10页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
T-EI 7491-2025 生成式人工智能的道德设计规范 第 1 页 T-EI 7491-2025 生成式人工智能的道德设计规范 第 2 页 T-EI 7491-2025 生成式人工智能的道德设计规范 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2025-09-01 01:15:26上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。