欧盟发布《通用人工智能行为准则》草案,助力 AI 合规发展
新华社布鲁塞尔7月10日电 欧盟委员会10日公布《通用人工智能行为准则》最终版本,旨在帮助企业遵守欧盟《人工智能法案》的相关规定。
该准则为通用人工智能模型提供透明度、版权及安全与保障三方面的自律指导,适用于包括美国开放人工智能研究中心的ChatGPT、谷歌的Gemini、“元”公司的Llama以及xAI公司推出的Grok等主流通用人工智能模型。
根据欧盟《人工智能法案》,通用人工智能模型是指能执行广泛任务并可被集成至下游应用系统的人工智能模型。这类模型通常基于大规模、多样化的数据集进行训练,是语言生成、多模态内容创作等人工智能服务的核心。
欧盟委员会表示,最终版本的准则由13位独立专家起草,采纳了包括人工智能开发者、学术界、民间组织、版权持有者以及安全专家等1000多位利益相关方的意见和建议。
据悉,该准则仍需获得欧盟成员国及欧盟委员会批准。欧盟称届时企业可自愿签署,以减少行政负担并获得更大的法律确定性。
欧盟的《人工智能法案》于去年正式生效,其中有关通用人工智能的治理与合规条款将于今年8月2日起正式实施。
2024 年 11 月 14 日,欧盟人工智能办公室(AI Office)正式颁布了《通用人工智能行为准则》(General-Purpose AI Code of Practice)草案。此草案为通用人工智能模型的发展与应用构建起指导性框架,确保其与欧盟法律要求及价值观相符。该草案由四个工作组协同编制,旨在为通用人工智能模型提供商,以及涉及系统风险的通用人工智能模型提供商给予详尽指引,促使其严格遵循欧盟相关法律,推动人工智能领域安全、可持续地发展。草案涵盖了透明度、版权、风险分类、风险评估与缓解等多方面的规则条例,并遵循一系列严谨的起草原则。随着欧盟 AI 法案于 2024 年 8 月 1 日正式生效,明确规定准则最终版本需在 2025 年 5 月 1 日前筹备完毕。此草案是在广泛参考众多利益相关者的意见、国际先进方法,以及相关法律和研究成果的基础上精心制定而成。
一、起草计划与原则
与欧盟原则和价值观保持一致
确保所制定的措施、子措施以及关键绩效指标(KPI),与欧盟法律所彰显的一般原则和价值观高度契合。这意味着在人工智能发展过程中,将始终把欧盟所倡导的公平、正义、隐私保护等价值观融入其中,从根本上保障人工智能技术不会违背社会伦理道德和法律规范。
与 AI 法案和国际方法保持一致
积极推动 AI 法案的妥善应用,同时充分借鉴国际上的先进方法,比如 AI 安全机构或标准制定组织所确立的标准或指标。通过这种方式,既能保证欧盟内部人工智能规范的一致性,又能使欧盟在国际人工智能发展浪潮中与全球先进理念接轨,提升自身在国际人工智能领域的话语权和影响力。
风险相称性
所采取的措施必须与风险程度相匹配。对于那些更为重大或者不确定性高的严重风险,要实施更为严格的管控措施。子措施和 KPI 务必具体、清晰,防止出现规避或错误指定的情况,并且要依据风险类型、分布策略以及部署环境等不同因素,进行有针对性的区分对待。如此一来,在资源有限的情况下,能够将监管力量精准投放到高风险区域,实现监管资源的高效利用。
面向未来
子措施和 KPI 应具备前瞻性,能够灵活适应技术的快速发展。这要求 AI 办公室具备基于更优信息评估合规性的能力,同时在制定具体要求时,巧妙平衡严格性与灵活性。既不能因要求过于死板而阻碍技术创新,又要确保在技术发展过程中始终坚守安全与合规底线。
与提供商规模相称
充分考虑通用人工智能模型提供商的规模差异,为中小企业和初创企业量身定制适当简化的合规途径。中小企业和初创企业在资源、技术实力等方面相对较弱,过于复杂严苛的合规要求可能会成为其发展的沉重负担。通过这种差异化对待,既能保障人工智能市场的整体合规性,又能为创新型中小企业营造良好的发展环境,激发市场活力。
支持人工智能安全生态系统的发展与成长
大力鼓励利益相关者之间展开积极合作,促进知识共享和最佳实践的传播。尤其重视开源模型对生态系统的积极推动作用,通过开源模式,让更多开发者能够参与到人工智能的开发与完善中来,形成一个开放、协作、安全的人工智能生态环境,推动整个行业健康发展。
二、通用人工智能模型提供商规则
透明度要求
- 文档编制:提供商需要为 AI 办公室和下游提供商精心编制并及时更新模型技术文档。这份文档涵盖内容极为广泛,包括模型基本信息,如模型名称、版本号等;预期任务,即模型所设计用于完成的主要功能;使用政策,明确模型在不同场景下的使用规范;发布日期,记录模型首次推向市场的时间;交互方式,说明用户与模型进行交互的具体形式;架构参数,展示模型的内部结构和关键参数设置;输入输出模态,界定模型可接受的输入数据类型以及输出结果的形式;许可证信息,表明模型使用的授权许可情况;集成技术手段,阐述模型与其他技术进行融合的方式方法;训练过程,详细描述模型训练所采用的算法、数据集来源及处理方式等;数据信息,包括训练数据的规模、类型、质量等;计算资源,说明模型训练和运行所需的硬件计算资源;能耗情况,评估模型在运行过程中的能源消耗。鼓励提供商在不涉及商业机密等敏感信息的前提下,适当向公众披露部分信息,以此提高模型的透明度,增强公众对模型的信任度。
- 附录:可接受使用政策(AUP):AUP 至少应包含目的声明,清晰阐述模型使用的总体目标;范围界定,明确模型适用的领域和场景;主要预期用途和用户,指明模型设计针对的主要应用方向和目标用户群体;可接受和不可接受用途,详细列举在使用模型过程中被允许和禁止的行为;安全措施,说明为保障模型安全运行所采取的技术和管理手段;监控与隐私保护,阐述对模型使用过程的监控方式以及如何保护用户隐私;警告和账户处理流程,制定当出现违规行为时的警告机制以及对违规账户的处理办法;致谢部分,对模型开发过程中引用的其他技术、数据等资源表示感谢。AUP 必须与提供商描述模型用途和能力的材料保持一致,并向下游提供商提供其开展业务所需的必要信息,确保整个产业链对模型使用规范的清晰认知。
版权相关规则
- 制定版权政策:提供商应构建一套完善的版权政策,以此确保在模型整个生命周期内,严格遵守欧盟版权及相关权利法律。该政策需明确界定各方责任,从模型训练阶段的数据获取,到模型应用阶段的内容生成,都要进行全面的上游和下游版权合规管理。不过,考虑到中小企业的实际情况,下游版权措施对其暂不适用。
- 遵守文本和数据挖掘(TDM)例外限制:在进行 TDM 时,提供商必须确保所获取的受版权保护内容来源合法,并且严格遵守权利保留规定。具体措施包括严格遵循 robots.txt 协议,确保搜索引擎能够正常发现相关内容;采用行业标准方法识别权利保留信息;积极参与标准制定讨论,为行业规范的完善贡献力量;坚决排除盗版来源数据,保证数据的合法性和质量。需要注意的是,部分子措施对中小企业暂不做强制要求。
- 透明度:提供商应公开其在版权保留合规措施方面的信息,包括爬虫名称以及 robots.txt 特征等,同时指定专门的联系人负责处理版权投诉事宜。此外,要详细记录数据来源和授权信息,以便 AI 办公室进行有效监测,确保版权管理工作的公开透明和可追溯性。
三、系统风险分类
风险类型
风险类型呈现多样化,涵盖网络攻击风险,即模型可能遭受外部恶意网络攻击,导致数据泄露、系统瘫痪等严重后果;化学 / 生物 / 放射 / 核风险,例如模型在相关领域应用时可能引发的安全隐患;失控风险,模型在运行过程中可能出现无法按照预设规则运行,进而失去控制的情况;自动化模型研发风险,在模型自主研发过程中可能产生不可预测的结果;说服与操纵风险,模型可能被用于不当说服或操纵用户行为和思想;大规模歧视风险,由于模型算法缺陷或数据偏差,可能导致对特定群体的大规模歧视。同时,提供商还需敏锐识别其他潜在的系统风险,以便提前做好防范措施。
风险性质
风险性质涉及多个维度。在风险起源方面,需明确风险是源于模型自身设计缺陷,还是外部环境因素影响;驱动因素层面,要分析是技术漏洞、人为错误,还是商业利益驱使等因素导致风险产生;意图维度,判断风险是有意为之的恶意行为,还是无意造成的失误;新颖性上,确定风险是全新出现的,还是已有类似案例;概率 – 严重性比,评估风险发生的概率以及一旦发生可能造成的严重程度;风险实现速度,了解风险从萌芽到爆发所需的时间;可见性,判断风险在初期是否容易被察觉;事件发展过程,掌握风险发生后如何演变的规律。
风险来源
- 危险模型能力:部分模型能力虽有潜在有益用途,但也可能引发系统风险。例如网络攻击能力,如果模型具备强大的网络攻击模拟能力,一旦被恶意利用,将对网络安全构成巨大威胁;武器相关能力,在军事或安防领域应用时,若模型的武器控制相关能力出现偏差,可能导致严重后果;自主性过高,模型在缺乏有效监管的情况下,自主决策可能引发不可控风险;说服力过强,可能被用于虚假宣传、误导公众等;规划能力,如果模型制定的规划不合理,可能导致资源浪费或决策失误。
- 危险模型倾向:模型可能存在与人类意图 / 价值观不一致的倾向,导致其行为不符合社会伦理道德规范;欺骗倾向,通过生成虚假信息误导用户;偏见问题,由于训练数据偏差等原因,对特定群体或事物存在偏见;不可靠性,模型输出结果不稳定、不准确;追求目标过程中,可能采取不恰当手段,忽视其他重要因素。
- 模型功能和社会技术背景:模型功能和所处的社会技术背景也可能成为风险来源。例如去除防护措施潜力,如果模型具备突破自身防护机制的潜在能力,将使系统安全性大打折扣;工具访问权限设置不当,可能导致未经授权的用户获取模型关键工具;模态方面,不同的数据模态(如图像、语音、文本)在处理过程中可能引发特定风险;发布策略不合理,如过早或不当发布模型,可能面临安全漏洞暴露等问题;人为监督缺失,模型在运行过程中缺乏有效的人为干预和监管;模型泄露风险,一旦模型代码或关键数据泄露,将带来严重安全隐患;用户数量过多,如果模型无法承载大规模用户访问,可能出现性能下降、服务中断等情况;攻防平衡失调,在面对网络攻击时,模型自身防御能力不足;社会脆弱性,模型应用场景所在的社会环境存在不稳定因素,可能放大模型风险;缺乏解释性,模型决策过程难以理解,不利于及时发现和解决问题;技术成熟度不够,模型在关键技术环节存在缺陷;反馈循环不合理,可能导致模型错误不断累积和放大。
四、具有系统风险的通用人工智能模型提供商规则
安全与保障框架(SSF)
提供商应积极采用、全面实施并及时公开 SSF。该框架的全面性需依据预期系统风险的严重程度进行合理确定,其核心作用在于主动评估和有效缓解系统风险。通过建立完善的 SSF,提供商能够从整体上把控模型安全风险,提前制定应对策略,降低风险发生的可能性和影响程度。
风险评估
- 风险识别:提供商需要持续、深入地识别可能源于模型的系统风险。在识别过程中,充分参考风险分类体系,全面、准确地确定相关风险。这要求提供商建立常态化的风险识别机制,不断更新风险识别方法和技术,确保能够及时捕捉到模型在不同阶段、不同场景下可能出现的各类风险。
- 风险分析:运用可靠的分析方法,详细剖析风险路径,即风险从产生到最终影响实现的具体过程;映射风险指标,将风险的各种特征转化为可量化、可监测的指标;确定风险严重程度层级,对不同风险按照其危害程度进行分级;预测风险发生时间,尽可能提前预估风险爆发的时间节点,为制定应对措施争取时间。
- 证据收集:持续收集与模型特定系统风险相关的证据。证据来源包括模型无关证据,如行业内的安全事件案例、技术发展趋势等;最佳实践评估,借鉴其他企业或项目在风险防控方面的成功经验;确保科学严谨性,采用科学合理的方法收集和分析证据;充分挖掘模型能力,全面了解模型在不同条件下的运行表现,以此判断风险可能性;在不同系统中评估,通过在多种类似或相关系统中的测试,更全面地评估风险;进行多样化评估和探索性工作,尝试不同的评估角度和方法,发现潜在风险;分享工具和最佳实践,促进整个行业在风险评估方面的经验交流;透明报告评估结果,将风险评估的过程和结果如实向相关方公开,增强可信度。部分工作可根据实际情况与第三方专业机构合作或进行外包,借助外部专业力量提升风险评估的准确性和全面性。
- 风险评估生命周期:在模型开发和部署的全生命周期内,持续进行风险评估和证据收集工作。在训练前准备阶段,对模型设计、数据来源等进行风险预评估;训练中定期收集数据,监测模型训练过程中的风险变化;部署期间定期更新评估,根据实际运行环境和用户反馈调整风险评估结果;部署后持续监测,及时发现模型在长期运行过程中出现的新风险。根据不同阶段的特点和风险情况,灵活调整评估方式和频率,确保风险评估工作的有效性和及时性。
技术风险缓解
- 缓解措施:在 SSF 中详细阐述从风险指标到安全和保障缓解措施的映射关系。针对不同风险程度,实施相应的安全和安全缓解措施。例如,对于风险程度较低的情况,可通过行为修改,调整模型的运行参数或算法逻辑,降低风险发生概率;对于风险程度较高的情况,采取系统部署防护措施,如加强网络防火墙、数据加密等;必要时提供反制措施,当风险发生时能够迅速采取应对手段,减少损失。同时,要明确现有缓解措施的局限性,以及评估映射充分性的具体过程,以便不断优化缓解措施。
- 安全与保障报告(SSR):创建 SSR,全面记录风险和缓解评估情况。报告内容涵盖风险评估结果,详细说明识别出的风险类型、严重程度、发生概率等;缓解措施评估结果,对已实施的缓解措施的效果进行评估;成本效益分析,权衡风险缓解措施所投入的成本与带来的效益;方法细节,阐述风险评估和缓解措施制定所采用的具体方法;内部审查结果,记录企业内部对风险防控工作的审查意见和建议。确保报告内容与风险程度相称,且在内部和外部都保持一致性,为企业决策和外部监管提供可靠依据。
- 开发与部署决策:基于 SSR 建立科学合理的决策流程,明确继续或停止模型开发和部署的条件。当出现风险无法有效控制、安全隐患严重等情况时,应果断决定不继续模型的开发和部署;若通过改进缓解措施,能够将风险降低到可接受范围内,或者经过成本效益分析,认为继续推进利大于弊,则可考虑继续。在决策过程中,充分考虑外部输入,如监管部门意见、行业标准变化等,并严格遵守相关决策要求,确保决策的科学性和合规性。
治理风险缓解
- 系统风险所有权:确保组织各级对系统风险拥有足够的重视和责任意识,在执行和董事会层面合理分配责任和资源。对于规模较大的提供商,可设立专门的风险管理部门或岗位,负责统筹协调风险防控工作;对于规模较小的提供商,也应明确相关责任人,确保风险防控工作落实到位。可根据提供商规模或其他实际特征,灵活调整责任和资源分配方式,提高风险防控效率。
- 遵守和充分性评估:每年定期对 SSF 的遵守情况和充分性进行全面评估。评估过程中充分考虑计划活动的执行情况,并及时向董事会报告评估结果。明确评估应重点回答的问题,如 SSF 是否覆盖了所有关键风险点、缓解措施是否有效执行等,同时清晰定义充分性标准,以此判断 SSF 是否满足企业风险防控需求,为不断完善 SSF 提供依据。
- 独立专家系统风险和缓解评估:在模型生命周期中,根据实际情况适时开展独立专家评估。在模型部署前,进行充分的测试,邀请独立专家对模型的安全性、稳定性等进行全面评估;部署后,允许独立研究机构对模型进行监测和评估。评估内容包括模型能力,如模型的准确性、可靠性、适应性等;证据收集情况,审查风险评估过程中证据的充分性和可靠性;风险分析和缓解措施,评估风险分析的科学性以及缓解措施的有效性。评估工作应根据风险程度和性质进行合理调整,对于高风险模型,增加评估的频率和深度。明确第三方评估机构的选择标准,优先选择在人工智能安全评估领域具有丰富经验和专业资质的机构;对于中小企业,可考虑提供一些支持措施,帮助其获得独立专家评估服务;确定独立测试的适当情况,如在模型重大升级、应用场景发生重大变化时,及时开展独立测试。
- 严重事件报告:建立健全严重事件报告机制,及时识别、跟踪、记录和报告源于模型的严重事件,并制定相应的可能纠正措施。明确严重事件的定义,如导致人员伤亡、重大财产损失、大规模数据泄露等事件;对于间接导致严重后果的情况,也应纳入报告范围;规定报告条件,一旦发生符合定义的严重事件,必须在规定时间内向上级主管部门和相关机构报告;详细说明可能的纠正措施,如紧急停止模型运行、启动数据恢复程序、加强安全防护措施等。针对开源或开放权重提供商,制定专门的措施,确保在开源环境下也能有效报告和处理严重事件。
- 举报保护:实施有效的举报渠道,鼓励员工积极举报模型开发和应用过程中的违规行为和安全隐患。向员工明确告知举报邮箱等举报方式,为举报人提供必要的保护措施,防止其因举报行为遭受报复。考虑在准则中进一步明确欧盟举报人指令的相关内容,强化对举报人的法律保护,营造良好的内部监督环境。
- 通知:及时向 AI 办公室通知与模型分类、SSF、SSR 和重大系统风险等相关的重要信息。在模型训练前,准确估计所需的计算能力,并及时通知 AI 办公室;确保 AI 办公室能够便捷获取 SSF 和 SSR,以便其进行监督和评估;在出现特定情况,如模型发生重大安全事件、风险评估结果显示存在重大风险时,及时通知 AI 办公室。明确通知的具体要求,包括通知的时间节点、方式、内容等,以及相关标准,确保通知工作的规范和有效。
- 文档记录:全面、准确地记录与遵守准则和 AI 法案相关的证据,包括模型风险分类、SSF、SSR 等重要信息。考虑制定标准化模板,统一文档记录格式,降低
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...
