https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/
除了科幻电影,现实中还没有 AI 系统杀人或被用于大规模网络攻击的先例。 然而,一些立法者希望在不法分子将反乌托邦的未来变成现实之前,就实施保障措施。 加州一项名为 SB 1047 的法案试图在 AI 系统造成现实灾难之前阻止它们发生,该法案将于 8 月下旬在加州参议院进行最终投票。
虽然这似乎是一个我们都能同意的目标,但 SB 1047 引发了硅谷大小公司的愤怒,包括风险投资家、大型科技行业组织、研究人员和初创公司创始人。目前,美国各地有很多关于 AI 的法案正在酝酿中,但加州的“前沿人工智能模型安全和可靠创新法案”已成为最具争议的法案之一。以下是原因。
SB 1047 将会做什么?
SB 1047 试图防止大型 AI 模型被用于对人类造成“重大危害”。
该法案将“重大危害”举例为:不法分子使用 AI 模型制造导致大规模伤亡的武器,或指示 AI 模型策划造成超过 5 亿美元损失的网络攻击(相比之下,CrowdStrike 停机事件估计造成了高达 50 亿美元的损失)。该法案要求开发者(即开发模型的公司)负责实施足够的安全协议,以防止此类结果的发生。
哪些模型和公司需要遵守这些规则?
SB 1047 的规则仅适用于世界上最大的 AI 模型:训练成本至少为 1 亿美元,并在训练期间使用 1026 FLOPS 的模型——这是一个巨大的计算量,但 OpenAI 首席执行官 Sam Altman 表示GPT-4 的训练成本大约就是这么多。 这些阈值可以根据需要提高。
如今,很少有公司开发出足够大的公共 AI 产品来满足这些要求,但 OpenAI、谷歌和微软等科技巨头很可能很快就会达到。 AI 模型(本质上是识别和预测数据模式的大型统计引擎)通常随着规模的扩大而变得更加准确,许多人预计这种趋势将持续下去。 马克·扎克伯格最近表示,Meta 的下一代 Llama 将需要 10 倍以上的计算能力,这将使其处于 SB 1047 的监管之下。
对于开源模型及其衍生模型,该法案规定,除非其他开发者在创建原始模型的衍生模型上花费三倍的费用,否则原始开发者将承担责任。
该法案还要求制定安全协议以防止滥用受监管的 AI 产品,包括一个可以关闭整个 AI 模型的“紧急停止”按钮。 开发人员还必须创建测试程序来解决 AI 模型带来的风险,并且必须每年聘请第三方审计师来评估其 AI 安全实践。
结果必须是“合理保证”遵循这些协议将防止重大危害的发生,而不是绝对的确定性,因为绝对的确定性当然是不可能提供的。
由谁来执行,以及如何执行?
一个新的加州机构,前沿模型部门 (FMD),将负责监督这些规则。 每个符合 SB 1047 阈值的新的公共 AI 模型都必须经过单独认证,并附有其安全协议的书面副本。
FMD 将由一个五人委员会管理,成员包括来自 AI 行业、开源社区和学术界的代表,由加州州长和立法机关任命。 该委员会将就 SB 1047 的潜在违规行为向加州总检察长提供建议,并就安全实践向 AI 模型开发人员提供指导。
开发者的首席技术官必须每年向 FMD 提交一份认证,评估其 AI 模型的潜在风险、其安全协议的有效性以及公司如何遵守 SB 1047 的描述。 与违规通知类似,如果发生“AI 安全事件”,开发者必须在了解该事件的 72 小时内向 FMD 报告。
如果开发者未能遵守任何这些规定,SB 1047 允许加州总检察长对开发者提起民事诉讼。 对于训练成本为 1 亿美元的模型,第一次违规的罚款可能高达 1000 万美元,随后的违规行为的罚款可能高达 3000 万美元。 随着 AI 模型变得更加昂贵,罚款比率也会相应提高。
最后,该法案还包括对员工的举报人保护,如果他们试图向加州总检察长披露有关不安全 AI 模型的信息。