硅谷又搞幺蛾子了!加州最近抛出的一枚重磅炸弹——「SB-1047」AI法案,瞬间点燃了整个科技圈的怒火。这场旨在规范AI发展的立法行动,却意外成为了一场关乎创新与管控的世纪之战。
从Meta首席AI科学家杨立昆到AI教父级人物吴恩达,硅谷的科技大佬们纷纷登上社交媒体的“战车”,高举反对大旗。
参议员斯科特·维纳倒是一副胸有成竹的样子。在他看来,SB-1047就是为了给那些AI巨头们戴上“紧箍咒”。但这个“紧箍咒”究竟是保护未来的明智之举,还是会成为压垮创新骆驼的最后一根稻草?
有人“拱火”,有人“泼水” ,这场关于安全与创新的拉锯战,正牵动着整个硅谷的神经。
SB-1047好心办坏事?
多位科技圈大佬在社交媒体平台上转发“STOP SB-1047”的网站,呼吁人们反对该法案的通过。
STOP-SB 1047网页截图
随着”STOP SB-1047″的呼声在网络上此起彼伏,这场辩论的焦点逐渐浮出水面:AI监管的边界到底在哪里?
在AI迅猛发展的同时,相关监管也在跟进,SB-1047法案就是其一。
就像汽车上路前需要通过严格的安全测试,对AI产品也应该提出同样的要求。
SB-1047法案中提出的要求是开发者在训练人工智能模型之前做出一定的安全决定,遵守各种安全要求,并报告人工智能安全事件。并且,政府会设置专有部门监督这些人工智能模型,并对违反该法案的行为实行民事处罚。
也就是说,AI公司发布技术之前必须进行严格的安全测试。一旦AI脱缰造成严重后果,公司将无法逃脱法律的“长臂”。
该法案的矛头直指那些AI界的“巨无霸”——训练成本超过1亿美元的大型模型。这些数字时代的“庞然大物”智能惊人,但同时也潜藏着不可忽视的风险。
法案试图通过政府监管这个“紧箍咒”,赋予相关部门审查、一键关停和罚款的“尚方宝剑”,以确保AI发展不会脱离正轨。
SB-1047赋予了政府介入的权力
法案的初稿一经发布,连“AI三巨头”中的两位——杰弗里·辛顿和约书亚·本吉奥都点头称是。但为何第三位杨立昆却如此抵制呢?
其实,以杨立昆为首的“反对派”主要聚焦在法案中的 “连坐条例”——如果这些模型被他人恶意使用时,该法案要求AI开发者对其开发的模型承担民事甚至刑事责任。
众所周知,AI发展的根基就是技术开源的。而这个“连坐”条例会让技术开发者因他人的不当使用而自身陷入法律泥潭。这无疑会推动AI向闭源方向发展,给开源创新蒙上一层阴影。
SB-1047条例中关于刑事界定部分
由于加州特殊的地理位置,硅谷汇聚了斯坦福、加州理工等顶尖学府,以及谷歌、苹果、OpenAI、Meta等科技巨擘。SB-1047的影响恐怕会如蝴蝶效应般扩散。
面对这场可能改变游戏规则的立法风暴,杨立昆在社交媒体上发出警示:“加州科技产业的末日要来了?”
杨立昆X社交媒体截图
创新与管控的“拉锯战”
硅谷之所以能成为全球科技巨头趋之若鹜的圣地,就是因为其鼓励创新、开放合作的文化DNA,以及科技巨头盘踞的产业优势。
杨立昆等人认为,SB-1047法案一旦通过,等于是“逼迫”科技巨头出走,寻找更加宽松自由的发展环境。
一边是保障安全的善意,一边却可能成为创新的绊脚石。这场监管风暴是否会让加州在全球AI竞赛中失去先机?
硅谷不再是科技中心的论调开始在空气中弥漫。
法案中的严格条例和连带责任条款,宛如“人在家中坐,锅从天上来”,尤其让初创公司如履薄冰。
在只有大公司才能承担的合规成本面前,初创公司更有可能“卷铺盖”逃离加州。科技鸿沟也会越来越大,而硅谷也将会永远失去这些创新的“火种”。
法案的制定者主要是出于对AI大模型潜在危害的预警,却忽视了它带来的福利。这种处理方式可能导致技术创新的“缓慢加载”甚至“死机”,从而影响整个AI生态系统的“版本迭代”。
社交媒体X上网友的担忧评论
与杨立昆的担忧同理,许多网友认为监管措施本身也可能成为潘多拉的魔盒。例如法案中提到的“一键关闭”功能,就像核武器的按钮一样危险。如果被恶意触发,后果不敢设想。
AI大师吴恩达的态度则相对缓和。他提出法案应重新思考监管对象,即应该监管AI的具体应用,而非技术本身。这种「技术中立论」得到了不少支持者的呼应。他们认为,应该给AI戴上行为准则的项圈,而不是给它套上发展的枷锁。
支持的一方则表示公众对AI的担忧并非空穴来风。 近半数机器学习研究人员都认为,强大的AI系统可能酿成灾难。
AI Impacts研究论文表明半数研究院对AI的担忧
而美国现行法律对AI导致的大规模伤亡事件责任界定模糊不清,更是火上浇油。不少网友呼吁通过法律来驯服科技巨头的“野蛮生长”,反映了公众对AI监管的迫切期望。
SB-1047法案的争论在硅谷圈还未结束,但对AI发展的态度几乎是全球统一:既渴望创新,又担忧风险。
究竟谁能为AI安全负责?
面对AI技术的快速发展,全球各地都在摸着石头过河,走自己的路。
企业自省的战线上,OpenAI推出的CriticGPT模型堪称一记妙招。这个“AI查AI”的创新方案,犹如给ChatGPT配了一个智能纠错员,展现了科技公司自我约束的决心。
OpenAI CriticGPT演示截图
而在政府监管层面,不同国家和地区的侧重点均于本国国情相结合。
欧盟率先打造了全球首部全面监管AI的法律武器——《人工智能法案》。这部法案巧妙地借鉴了核事故分级的思路,对AI应用进行风险级别分类。这种“基于风险”的精准施策,堪称在创新与安全间架设的一座巧妙桥梁。
欧盟《人工智能法案》官网截图
日本则凭借其丰富的官产学合作经验,选择从个人信息和数据保护入手,通过明确数据主体的权责划分,推动政府和企业形成协同研发网络,构建有利于AI安全发展的生态系统。
德国则依托其工业资源优势,将AI安全立法与“工业4.0”相融合成“德国特色”,重点关注自动驾驶、智能医疗等直接影响经济和生活质量的领域。
从加州的SB-1047法案到欧盟的《人工智能法案》,从日本的数据保护策略到德国的工业融合方案,每种监管思路都反映了不同的价值观和社会诉求。
面对AI这个既充满希望又潜藏风险的“双刃剑”,如何构建一个既能激发创新活力,又能确保安全的监管框架,仍然是一个悬而未决的问题。
针对加州新法案SB-1047,还是个未知数,对此你怎么看?