欧盟《通用人工智能行为准则》安全与保障章节的核心目标是确保通用人工智能模型(具备系统性风险)遵守《欧盟人工智能法案》第53条和第55条义务,推动”以人为本、可信赖AI”的发展。通过全生命周期风险管理,保护健康、安全、基本权利(包括民主、法治、环境保护),同时支持创新。文件确立七大基本原则:全生命周期管理要求持续评估和缓解系统性风险,通常需采用”最先进技术”,除非能证明低风险可采用简化流程;情境化风险评估强调需考虑模型架构、集成软件、推理资源等上下文因素;比例原则规定风险管理严格度需与风险级别匹配;法律协同性明确本章节需与现有欧盟法律互补(如商业秘密保护、举报人指令);合作原则鼓励开发者、下游用户、学术界及监管机构共享风险信息;安全创新原则支持开发精准缓解风险的技术(例如降低生物安全风险但不损害生物医学能力);预防原则要求对科学证据不足的潜在风险采取预防措施。
在具体义务方面,签署方必须建立安全框架覆盖开发、上市、使用全生命周期。创建框架需包含风险触发点(如时间节点、训练算力、开发阶段)、风险验收标准、责任分配等要素,并在通知欧盟委员会后四周内完成。实施框架要求持续进行轻量级模型评估(自动化测试)和深度评估,上市前必须完成全面风险评估流程。框架每年或当风险变化时(如严重事件发生或模型能力重大更新)需重新评估有效性,确认后5个工作日内提交欧盟AI办公室。风险识别需通过附录1.1的五大风险类型(公共健康、安全、基本权利、公共安全、社会整体风险)和场景分析完成,特别关注四类指定系统性风险:化学/生物/核风险(CBRN)、失控风险(人类丧失模型控制权)、网络攻击风险、有害操纵风险(大规模行为扭曲)。风险分析需收集模型无关信息(市场趋势、历史事件),执行科学严谨且可复现的模型评估(包括红队演练等对抗测试),建模估算风险概率与严重性(采用风险矩阵等形式)。
风险验收决策要求定义能力阈值等风险等级,并加入安全边际应对不确定性(例如评估误差或缓解措施失效风险)。若风险不可接受,必须暂停开发或上市,实施安全或网络安全措施后重新评估。安全措施包括训练数据过滤、输入输出监控、API访问限制、安全工具链提供等;网络安全措施要求定义安全目标(抵御外部威胁/内部泄露),按附录4实施模型权重加密存储(256位加密)、访问控制(多因素认证)、漏洞管理。模型能力低于已公开参数的模型可豁免网络安全措施。签署方需提交安全模型报告,包含架构描述、能力说明、风险可接受性论证(含安全边际细节)、评估结果、缓解措施有效性及外部评估报告。报告在上市前提交,当模型能力/用途重大变更、发生严重事件或评估方法失效时需更新,重大变更前必须完成更新(延迟超15个工作日需提交临时报告并说明理由)。
治理方面要求四级责任分配:监督层(董事会风险委员会)负责框架审批,执行层(产品负责人)管理日常风险,支持层(首席风险官)独立监控流程,审计层(内外部审计)提供合规保证。企业需为责任团队配置人力、资金及算力资源,并通过举报渠道、反报复机制、匿名调查建立风险文化。严重事件报告需监控多渠道信息(用户反馈/社交媒体/研究论文),报告内容需含事件链、根本原因、受害者及应对措施,按危害等级设定严格时限:关键基础设施中断2天内报告,网络安全泄露5天内,致死事件10天内,健康/权利/环境损害15天内。所有风险文档(架构详情、评估方法等)至少保存10年,框架和报告摘要需公开(需删除敏感信息),但”同等或更安全模型”可豁免公开。
对中小企业(SME/SMC)提供特殊豁免:可简化报告细节,减少文档深度;网络安全评估可联系AI办公室获取支持;非高风险模型可免除定期报告。关键附录操作化要求包括:附录1定义四类指定系统性风险(CBRN/失控/网络攻击/有害操纵);附录2设定”同等或更安全模型”标准(需与参考模型能力相当且风险未增加,偏差需用安全边际缓冲);附录3要求模型评估具科学严谨性(内部效度/外部效度/可复现性),且高风险模型必须包含独立外部评估;附录4列明网络安全措施(如模型权重存储登记、运输加密、漏洞赏金计划)。本章节反映欧盟AI监管三大趋势:预防性治理(全生命周期监控+安全边际前瞻设计)、协作式合规(行业共享方法+独立评估强制化)、差异化责任(前沿模型严监管,中小企业弹性化)。企业需重点建设风险分级能力、科学评估体系及透明报告机制以满足合规要求。
