美国按下州权AI监管"暂停键",人工智能治理走向"野蛮生长"?
7 小时前 / 阅读约12分钟
来源:36kr
美众院通过10年AI监管禁令引争议

美国的人工智能公司或将迎来春天。2025年5月11日,美国众议院能源和商业委员会通过了一项提案,禁止美国各州在十年内监管人工智能和自动决策系统,后者被定义为“实质性影响或取代人类决策”的系统。

乍一看,这种表述过于宽泛,因为它涵盖了此前美国各州立法中对人工智能的广泛定义,而旨在规范人工智能的州法律更是数不胜数。据统计,2024年美国各州立法机构审议了近 700 项人工智能法案,其中已有113 项成为正式法律。

一位表示反对的民主党众议员简•沙科夫斯基(Jan Schakowsky)表示,该提案是“给大型科技公司的一份巨额礼物”。如果暂停令最终得以通过,几乎肯定会在美国引发一场声势浩大的法律挑战。这不仅关乎美国联邦和各州之间的权力关系,更关涉到全球“人工智能创新与监管”的宏大议题。

自从ChatGPT横空出世以来,人工智能监管和如何监管的分歧从未停止。如果说,2024年是生成式人工智能的监管政策之年——全球各国分别制定了大量的监管文件(包括欧盟著名的《人工智能法案》),那么,2025年是否将成为推翻一切监管努力的反转之年呢?

一、十年“去监管化”实验:美国政策范围解析

该法案是德克萨斯州参议员泰德•克鲁兹特别大力推崇的一项提议,其中关于人工智能的条款规定,“任何州或政治分支机构不得执行任何监管人工智能模型、人工智能系统或自动决策系统的法律或法规。”

其中“人工智能模型、人工智能系统或自动决策系统”的定义——从ChatGPT等流行的商业模型到那些帮助决定谁能被雇佣或寻找住房的系统,赋予了该禁令相当广泛且模糊的法律含义,因此它很可能将禁止大量现行法律和新法律提案。

除了像《科罗拉多州人工智能法案》这样针对高风险人工智能系统的法律,禁令还将禁止执行其他常见类型的立法提案,例如就业领域的提案以及管理基础模型开发的提案。

几周前,马克•扎克伯格在公开采访中谈论Meta人工智能战略,他提到聊天机器人可以作为朋友,甚至作为治疗师,来应对人类日益严重的孤独感。如果这项规定通过成为法律,那么类似犹他州对心理健康聊天机器人的监管限制将不会存在,扎克伯格就可以满怀信心地推动将 Meta 打造成一种准治疗师类型的服务

不过,这项禁令明确将其适用范围限制在仅适用于人工智能系统而非其他技术系统的州和地方法规。如果州或地方法律是(A)由联邦法律施加,或(b)由普遍适用的法律施加,该法律将“提供类似功能”的非涵盖模型和系统与涵盖的人工智能模型或系统同等对待,则该法律将不必受到10年执行暂停期的约束。

因此从法律意图来说,这项禁令可能不会影响公民权利、消费者保护、隐私或其他对有害结果一视同仁的法律,无论这些结果是否由人工智能系统促成。

但是从实际执行方面,很难说以上法律不会受到禁令的影响。例如,当人们使用聊天机器人来戒除赌瘾,而这些数据可能直接被赌场的市场部门从某些渠道获得,并用于赌博广告的精准投放。届时,法律和监管机构对于此类行为可能无法产生规制的作用。另外,如果生物识别技术的法律保护范围没有超出联邦对人工智能系统的定义,那么像美国伊利诺伊州《生物识别信息隐私法》这样的法律的执行会否受到影响,仍是未知数。

二、创新优先VS安全底线:美国禁令的政策目标

虽然禁令的文本并未明确说明,但美国众议院能源和商业委员会之所以有此提议,似乎是基于这样的论点:暂停执行复杂且相互矛盾的监管人工智能的州法律将有助于政府部门获取人工智能系统——如果商业可用的人工智能因各州人工智能法律的拼凑而发展受阻,联邦政府就无法有效且高效地实现系统的现代化。

就在禁令发布的前几天,美国参议院商务、科学和运输委员会举办了一场关于“赢得人工智能竞赛”的听证会,来自整个人工智能供应链的知名人士出席了听证会,其中包括基础设施、硬件和软件公司。整个听证围绕人工智能治理问题进行了坦诚讨论。

泰德•克鲁兹在听证会上直接抨击前总统乔•拜登关于人工智能的行政命令,认为这一行政令“激发了州立法机构的类似努力,并有可能给初创企业、开发者和人工智能用户带来沉重的合规成本负担”。克鲁兹似乎反对所有对人工智能的干预,称这些干预将造成的“爱管闲事的官僚主义”。

美国不乏支持这类观点的智库和学者。人工智能政策专家Kevin Frazier 和 Adam Thierer 曾在文章中呼吁,如果美国国会无法通过其自身的先发制人的人工智能治理规则,就应实行“学习期暂停”。

美国中右翼智库R Street研究所曾公开评论:如果美国希望赢得这场“我们这个时代最重要的通用技术”的全球领先地位,那么一个支持自由、支持创新的人工智能和先进计算国家政策框架至关重要。学习期暂停可以帮助确保这一结果,防止仓促出台的监管方案破坏美国的人工智能发展机遇。

然而这种论点很快遭到了科技监督项目 (Tech Oversight Project) 等科技安全组织的公开反对,他们指出这项规定“将削弱各州保护人民和儿童免受已证实的人工智能危害和诈骗的能力”。众议员简•夏科夫斯基表示,这项规定将允许科技公司“无视消费者隐私保护”并“分析和欺骗”用户,尤其是在未来 10 年人工智能技术将取得哪些进步尚不可知的情况下。

美国的这一禁令及其所产生的回响,将一个非此即彼的政策选择问题显化在我们面前:在人工智能所带来的技术进步和地缘政治优势,与所带来的各种现实和可能的风险之间,我们究竟应该如何选择?我们总在说的平衡二者的努力和政策,是否真的存在?换句话说,当我们多少倾向于其中一边时,是否就代表事实上放弃了另外一边?

三、黑箱困局与人性弱点:AI监管为何陷入“不可能任务”

我们正在进入一个智能机器的世界,它们在一系列领域的能力开始追平甚至超越人类。原本几乎所有政策制定者、技术专家、社会科学家和商界领袖都普遍认同政府对生成式人工智能进行监管的必要性,只是对于监管形式鲜有共识。但现在,连“监管必要性”这种同盟,都产生了明显的裂痕

2023年,包括美国和中国在内的 28 个国家在布莱切利园举行的人工智能安全峰会上签署了一份声明,肯定了“安全开发人工智能的必要性”,并警告“这些人工智能模型的最重要功能可能会造成严重甚至灾难性的损害,无论是故意的还是无意的”。

但是在2025年的巴黎人工智能行动峰会上,美国选择拒绝签署联合声明,其副总统JD•万斯旗帜鲜明地抨击了欧盟的人工智能监管,而欧盟也开始陷入深深的自我怀疑之中——执行其《人工智能法案》,或许将为已落后中美的欧洲人工智能公司制造更大的合规负担,是否还有必要?

在这个十字路口上,个别国家的政策选择,将会在全球形成连锁反应,或许会影响整个人类的命运。我们有必要反思,人工智能的监管为何会受到阻碍和批评?

在恶意滥用(即“故意”)的假设中,人工智能的强大能力当然会成为一股恐怖的力量。世界经济论坛的《2024年全球风险报告》将人工智能驱动的虚假信息列为未来两年全球面临的最严重威胁。之所以认定其“最严重”,最主要是因为人工智能作为处理信息工具的易得性和低成本,它可以赋予一个技能平平、但心怀鬼胎的组织、甚至个体一种强大的传播力量,形成舆论的导向、制造心理恐慌或愤怒,并进一步影响多数人做出错误的行动。

然而从根本上,在一个敌对的环境中,任何物件都可以成为攻击对方的武器,任何中性甚至是好的东西,在“滥用”的前提下都可以成为坏事发生的成因。因此,针对“滥用”人工智能所产生的违法犯罪,监管是必须的,但这种监管有时候不必是针对人工智能制定新的法规,就像现有对杀人罪的规定无需因为发明了新式武器而进行修订或另行制定新规。

这也就是为什么,美国拟议的这项暂停令,声称并不适用于对基本权利进行保护的法律。

真正反对监管的理由,其实主要是针对“非滥用”(即“非故意”)场景,以及“滥用和非滥用”界限模糊的场景。反对监管的人通常批评制定新规在节奏上落后于技术发展,因此新规经常不合时宜、难以应对新情况,陷入繁文缛节和过度官僚主义,以至于最终会扼杀本应一路狂飙的技术进步。

但是,这种论点本身,恰恰是人工智能即使是在非滥用场景中应当被监管的原因。

美国宾夕法尼亚州立大学媒体特效教授S. Shyam Sundar曾提出一个观点,他认为,人工智能必须被监管的根本原因并不在于技术失控,而是因为人类的弱点——想象力过于丰富。在他的实验中,Sundar教授发现一种现象,当机器而非人类被认定为交互来源时,它会在用户脑海中触发一种思维捷径,“这种捷径指的是相信机器准确、客观、公正、绝对可靠等等。它会蒙蔽用户的判断力,导致用户过度信任机器”。

比如,当车辆处于自动驾驶状态时,驾驶员的警惕性普遍会降低;当机器展现出哪怕一丝人性,例如使用对话语言时,人们也会将计算机视为社会性生物,从而陷入某些病态的情感依赖中,甚至在现实中自杀。

媒体的铺天盖地的报道,已经助长了人们对人工智能能力和意识的非理性认知。如果政府向公众信誓旦旦地宣布,为了获得人工智能的好处,我们应当让它毫无阻碍地发展时,其本质也是上述“思维捷径”的一种表现形式,而且更糟糕的是,政府此举将在更大范围内增加这种捷径思维的范围和影响,企图让所有人相信,人工智能带给人类进步和幸福的必然性,而且没有其他可能。

但是与这种“思维捷径”相对应的现实是,人工智能的“黑匣”特性。与传统工程系统不同,生成式人工智能的内部工作原理是不透明的,其行为既不是由设计者在代码中有意表达的,(至少是目前)也无法通过检查程序代码及其大量调整参数来识别,因此其设计师也无法确定人工智能系统将如何运作

举例来说,当飞机发生故障时,我们可以分析机械的运行情况、追踪故障源头,据此纠正发生故障的组件或相互作用,以避免故障再次发生。然而人工智能的“黑匣”特性阻碍了这种追踪故障源头并纠正故障以避免其再次发生的方法。由于生成式人工智能由于代码无法明确决定这些系统的行为,因此以规范、审计和测试为前提的监管方法皆无法确保安全性和可靠性

将人类“思维捷径”和生成式人工智能的“黑匣”特性放在一起,我们就会理解,为何监管人工智能如此重要——我们永远不能也不应该绝对相信AI的正确和可靠性;同时提出一项具体的监管政策为何如此困难——只要我们的人工智能系统建立在“黑箱”数据驱动系统之上,那么监管这些系统的制度就将仍然是近似的和不完整的。

四、监管的伦理使命

我们不得不承认,现行针对人工智能的法规和监管举措中,无论从立法技术上还是从对人工智能深入理解的角度,没有一部能令多数人满意和称道的。很多对欧盟的《人工智能法案》的批评意见非常中肯,而且作为第一部全面规范AI的法律也难逃颁布即过时的命运。我们此前也深入分析过美国加州未能通过的人工智能法案,其中确实存在许多不合理的部分。

避免过度的官僚主义固然重要,但这并不是无所作为的理由。

如果各国政府都选择放弃应有的监管,不仅赋予大型科技公司其不应有的权力,而且是将人工智能置于一种“过于其所是”的社会地位。从这一角度出发,政府监管人工智能不仅具有法律意义,而且在功能上也承担着伦理和评价的意义,这种努力虽不完美却可以时刻提醒我们,人工智能远非一种完备可靠的技术,在享受其好处的同时,我们必须时刻警惕它可能带来的伤害。