“AI宕机”事件:亚马逊强调“人祸”,专家提醒共性风险
近日,有媒体报道称,亚马逊核心业务板块AWS(Amazon Web Services,亚马逊云计算服务)曾在2025年年末出现一次持续13小时的宕机事件,且与其自家的人工智能编程助手Kiro有关。
事件曝出后,亚马逊当天即发表声明,并通过多家媒体反复强调“这是用户错误”——具体系访问权限(IAM角色)配置不当,而非AI错误;同时称事件影响“极为有限”,未波及核心计算、存储、数据库或AI服务,也未收到客户投诉。
“当平台提供具备高度自主性的Agentic AI时,应承担安全设计与风险提示义务。试图仅以用户配置失误来豁免技术提供方责任,忽视了平台作为服务提供者在风险预防中的主体作用。”中国政法大学教授、联合国高级人工智能咨询机构专家、《人工智能法(学者建议稿)》起草专家组牵头专家张凌寒指出,从法学和治理角度看,平台将责任完全归于“用户错误”,难以完全站得住脚。
类似事件已非首次
多名云架构师在社交平台公开表示,Kiro的逻辑未必“出错”——它确实是在追求理论最优解,只是这种极致效率与人类对“安全平稳”的预期发生了剧烈冲突。有安全研究员指出,传统人工错误通常存在“慢慢打字、逐步发现不对”的缓冲过程,而AI则可能“一键自信执行”,其风险性质并不相同。
据媒体报道,除上述13小时宕机事件外,亚马逊在2025年下半年还曾发生一起类似事件,涉及其另一个AI工具(疑似Amazon Q Developer)。
业界认为,两起事件几乎互为翻版:AI被赋予生产环境权限后,在追求“最优解”的过程中造成破坏——“权限配置不当+缺乏熔断机制”,是事件发生的共同根源。
应构建动态立体安全闭环
张凌寒分析称,Kiro与传统工具(如Copilot)的本质区别在于:传统工具多停留在建议层面,代码是否采纳高度依赖人类开发者确认;而Kiro可以在较少人工输入的情况下自动执行复杂业务流程。进入生产环境后,其最大风险点恰恰在于“权限过大、缺乏监督”:当工具被赋予宽泛系统权限且缺少自动化熔断机制时,微小的算法偏差会被迅速放大。
“随着AI自主性的增强,传统‘避风港’原则的适用空间正在收缩。如果平台明知产品将用于复杂云原生环境,却未内置防错机制和高危拦截提示,仅靠免责条款转移风险,存在较大争议。”张凌寒认为,更为务实的路径是采用“过错责任”思路,重点考察平台是否尽到与技术风险相匹配的合理注意义务。AI系统介入互联网基础性服务(如云基础设施、关键信息基础设施等)时,必须坚守多项协同安全原则——因为Agentic AI的执行速度已远超人类实时理解能力,传统Code Review几近失效。
0人