7月12日凌晨,全球著名AI科学家吴恩达(Andrew Ng)在社交平台发表深度长文,再次抵制并吐槽美国加州拟定的SB-1047法案。
他表示,仍然对美国加州拟定的SB1047法案,对开源大模型带来的巨大伤害感到震惊。这个法案犯了一个严重根本性错误,应该监管的是通过大模型开发的生成式AI产品,而不是开源大模型本身。
例如,训练成本超过1亿美元的开源大模型,需要每年提供复杂的安全报告,并且如果有人通过他们开源的大模型进行违法行为,包括开发色情、赌博等非法应用,原开发商也会受到法律制裁。
这就相当于,有人去超市买了一把菜刀,然后拿着去砍人,这家超市需要负法律责任,并且每年需要详细报告他卖的菜刀用途以及哪些人使用它在干什么,这种监管规定简直太离谱了!
有趣的是,SB1047法案主要目的之一是专门用来对付中国的,防止我们使用Meta、谷歌等发布的最新开源模型与美国在生成式AI领域进行竞争。
但国内阿里开源的Qwen-2、Qwen1.5系列,零一万物开源的Yi系列,已经成为全球最受欢迎的开源大模型之一,Qwen-2的性能还超过了Meta开源的Llama-3排名第一。
所以,不少网友支持吴恩达的观点,SB1047法案不会阻挡中国在该领域的竞争力,相反,会严重阻挡美国的开源大模型创新。
你给美国科技公司加这么多无理取闹的条条框框法规,只会阻挡他们对科技的创新,让其他国家的科技进步更快。
SB1047法案明显是针对Meta这样的大公司来的,需要他们在发布开源大模型时,将安全隐患扼杀在萌芽中。硅谷其他领先的闭源模型公司可能不存在这些问题。
吴恩达还认为,SB1047法案要求开发人员保护开源大模型的乱用、修改以及开发非法的衍生成式AI产品。但开发人员应该如何保护、如何界定这些行为还非常模糊,没有一个详细的条例。
如果SB1047法案真正获得通过,那么人们会对制定法律以及审阅这些法规的人感到恐惧。因为,只要定了你的罪名,那么无论你怎么辩解都没用了,就等着审判之锤来敲你的脑袋吧~
所以,吴恩达强烈呼吁大家来抵制SB1047法案,真的要是通过了将会对开源大模型的创新带来毁灭性打击,同时加州也会失去AI创新的动力。
StartupTrek创始人Stanley则支持了吴恩达的说法,这种模糊、界定不清的监管法案,对开源大模型会造成巨大伤害。需要监管的应该是生成式AI应用,而不是大模型本身。
不只是吴恩达,加州大学伯克利分校的教授Ion Stoica在7月11日的听证会上,就表达了对SB1047法案的看法。
他表示,伯克利开源过很多非常成功的AI项目,也赞同SB1047在安全方面的考虑。但是,这种一刀切、连带责任的监管方法非常不合理。这不仅不会为开源大模型带来安全生态,相反,会彻底扼杀加州的AI创新。
OpenAI可能是SB1047法案的最大受益者之一。一旦开源大模型的创新被彻底扼杀,那么闭源大模型将成为一家独大,这显然不是什么好事情。
图灵奖获得者、Meta首席科学家Yann LeCun(杨立昆)之前曾在社交平台也表达了对SB1047法案的强烈不满。SB1047法案会让开源大模型的原作者承担相当大的风险。没有开源,就没有创新研究,整个生态系统的进步将会非常缓慢。
同时认为该法案的起草者Nirit Weiss-Blatt, PhD,就是这位伪装成学术智库主任的末日邪教大师。
关于SB1047法案
SB1047全称是《SB-1047前沿AI大模型安全创新法案》,是美国加州议会在今年2月7日拟定的。经过几个月8次修订、审议,该法案已经通过了一些关键条款,距离正式投票发布已经很近。
这是一个专门针对开源大模型的法案,里面有很多不合理的条款,受到了科技界专业人士的强烈抵抗和不满。
总结
全球著名AI科学家吴恩达在社交平台发表深度长文,再次抵制并吐槽美国加州拟定的SB-1047法案。吴恩达表示,该法案对开源大模型带来的巨大伤害令人震惊,因为它犯了一个严重根本性错误,即监管的应该是通过大模型开发的生成式AI产品,而不是开源大模型本身。他举例说,训练成本超过1亿美元的开源大模型需要提交复杂的安全报告,且如果有人通过开源大模型进行违法行为,原开发商也会受法律制裁,这种监管规定非常离谱。吴恩达认为,SB1047法案不仅不会阻挡中国在开源大模型领域的竞争力,反而会严重阻碍美国的开源大模型创新。多位科技界人士也表达了对SB1047法案的强烈不满,认为该法案模糊、不合理,会扼杀开源大模型的创新和加州的AI创新动力。他们呼吁大家抵制该法案,以避免对开源大模型的创新带来毁灭性打击。