近两年,AI监管已成为全球关注的焦点话题,其重要性已上升到了与气候变化、核扩散等同的高度。去年11月,首届AI峰会上,与会各国签署了一份名为《布莱切利宣言》的协议,这标志着中、英、美等“跨大洋国家”在全球战略对抗的大背景下,罕见地达成了一项共识。然而,尽管目前AI尚处于“乖孩子”阶段,与科幻电影中的“人类终结者”相差甚远,但其潜在威胁仍不容忽视。
目前,AI“闯过最大的祸”当属Deepfake技术——国外有“AI换脸马斯克”的案例用于骗钱骗感情,国内也有“AI换脸靳东”的类似事件。这些问题并不能全怪到开发者头上,毕竟,如同造水果刀的厂商和卖水果刀的超市无法为买刀行凶者负责一样,开发者也往往难以预测和控制模型的实际应用。然而,近日沸沸扬扬的加州AI法案SB-1047却将责任部分归咎于开发者。
该法案旨在防止AI大模型被用于对人类造成“严重伤害”。那么,什么是“严重危害”呢?法案明确指出,例如,恐怖分子利用AI大模型制造武器导致大量人员伤亡,或黑客用AI大模型策划网络攻击造成超过5亿美元的经济损失。这些都被视为严重的危害。
法案要求开发者(即开发AI模型的公司)实施法案所规定的安全协议,以防止上述种种后果。下一步,SB-1047将进入加州参议院进行最终投票环节。如果通过,法案将交由加州州长纽森审批,等待其最终的命运。
对于这一法案,硅谷的态度基本是一边倒:支持者寥寥无几,反对者成群结队。支持者中包括“图灵三巨头”之二Hinton和Yoshua,他们认为在联邦级AI法律难产的情况下,加州作为科技中心有责任对模型进行监管。而反对者则包括LeCun、李飞飞、吴恩达等AI界大佬以及微软、谷歌、OpenAI、Meta等公司,他们认为该法案可能扼杀创新并给AI开发商和企业主带来巨大的不确定性和经济风险。
值得一提的是,该法案对AI大模型的定义和监管方式也引发了广泛讨论。有观点认为AI大模型更像是一辆汽车需要安全测试而不仅仅是搜索引擎。而SB-1047的制定者则希望“全方位”严防死守将所有问题解决方案塞进一项立法中。
尽管反对者众多但SB-1047也并非完全没有机会通过。一方面加州州长纽森尚未公开评论该法案且他此前曾表示致力于加州的AI创新。另一方面即便法案通过也可能会面临法庭上的挑战从而暂停施行直到做出裁决后才有定论。
总的来说SB-1047法案虽然存在诸多争议但其在全球范围内引发了关于如何有效监管AI的讨论并可能对未来相关法规的制定产生影响。