人工智能 (AI) 模型正在以惊人的速度发展。主要开发人员在增强这些模型理解复杂查询和提供更有见地、更合理的响应的能力方面取得了重大进展。
9 月 12 日,著名 ChatGPT 模型的创建者 OpenAI 在关于其新“Strawberry”模型的公告中强调了这一点。
这项开发成果也被称为 OpenAI o1 模型系列,它将允许人们在做出反应之前对问题进行更多思考,“就像人类一样”。
我们正在发布 OpenAI o1 的预览版,这是一系列新的 AI 模型,旨在在做出响应之前花更多时间思考。
这些模型可以推理复杂的任务,并解决比以前的科学、编码和数学模型更难的问题。https://t.co/peKzzKX1bu
— OpenAI (@OpenAI) 2024 年 9 月 12 日
据开发人员称,这些模型还将能够“改进他们的思维过程,尝试不同的策略,并认识到他们的错误”。
虽然人工智能肯定不会统治世界,这也不是开发者的目标,但技术的快速发展让立法者担心,如果这些模型在发展阶段出现问题并实施安全措施,他们是否有能力控制它们。
桌上的账单
过去一周,加州立法者不断通过影响加州居民和开发商的人工智能相关法案。
其中包括第 1836 号议会法案,该法案禁止在未经事先同意的情况下未经授权使用人工智能生成已故人物的复制品,以保护表演者的权利和肖像。
然而,业内人士争议颇多的主要法案之一是参议院法案 (SB)-1047,也被称为“前沿人工智能模型安全创新法案”。
如果获得通过,该法案将主要影响主要的人工智能开发商 - 如 OpenAI、谷歌和微软 - 他们拥有开发需要超过 10^26 整数或浮点运算(FLOP)且成本超过 1 亿美元的人工智能模型的资源。
开发人员需要对模型进行训练和微调,以实现法案中概述的安全功能。这包括 AI 模型关闭功能、创建和保留书面安全协议、确保第三方年度审计以及向加州总检察长提交合规声明和事件报告。
该法案面临业内各种规模开发商的强烈反对,他们认为该法案扼杀了创新。Cointelegraph 采访了 Haynes Boone 律师事务所的合伙人 Dina Blikshteyn,以了解这种情况是如何发生的。
对开发人员的影响
Blikshteyn 表示,该法案还可以扩展到对 AI 模型进行微调的小型开发商,其计算能力大于或等于 10^25 整数或 FLOP 的三倍,并且能够负担得起 1000 万美元的访问权限。
她说:“该法案旨在防止人工智能模型造成的灾难,特别是通过实施关闭功能。”
“然而,它可能无法完全消除风险,因为即使在关闭后,人工智能模型仍可能引发连锁反应,并产生有害后果。”
她还指出:
“虽然该法案的初衷是积极的,但对安全协议、审计和合规报告的要求可能被视为过度,可能会带来繁重的披露和官僚要求,从而阻碍加州人工智能行业的创新。”
美国目前没有制定监管人工智能模型输出的联邦框架。不过,Blikshteyn 指出,加利福尼亚州和科罗拉多州等州正在制定自己的法规。
州长加文·纽瑟姆办公桌上的规定将影响训练和使用所涵盖的人工智能模型的加州人。
她指出:“规模较大的人工智能公司将拥有更多人力来处理该法案的要求,这可能会消耗较小公司的资源。”
“虽然大型人工智能公司不太可能离开加利福尼亚州,但州法律的差异和缺乏联邦监督可能会迫使小型开发商迁移到人工智能治理监管较少的州或在那里开展人工智能工作。”
加州引领立法
尽管如此,Blikshteyn 强调了许多业内人士认为的事实:“在联邦层面制定立法,为强大的人工智能模型设定基本要求,对消费者和开发者都有好处。它还将为所有州提供这些要求的基准。”
SB-1047 于 9 月 9 日提交给州长纽森,目前仍在等待决定。纽森对该法案发表评论称,他一直致力于“支持冒险但不支持鲁莽的合理监管”。然而,他也对该法案对竞争力的潜在影响表示担忧。
加州是全球科技创新的领先者,其有关人工智能的法律决定受到全世界的密切关注。
人工智能之眼:台湾的人工智能无人机“地狱景观”计划,法学硕士太笨,无法摧毁人类