AI正在接近“叹息之墙”,山姆·奥特曼则越来越像一个硅谷推销员
19 小时前 / 阅读约7分钟
来源:凤凰网
简而言之,超级智能(可能)永远不会到来。

我们至少要了解人工智能 (AI) 的两件事。

首先,人工智能的狂热在过去三年中一直在推动股市走高,即使在此过程中偶尔会出现下跌。

其次,人工智能是一项革命性的技术,它将改变世界,并可能消除许多工作,包括需要培训和技术技能的工作。

这两点都是正确的。但并能因此排除其中的一些陷阱,并保持足够的谨慎与冷静。

AI一直在推动股市创下历史新高,但市场的外观和感觉就像一个超级泡沫。但这不是今天做空主要股指的理由。泡沫的持续时间可能比任何人预期的都要长。

关于第二点,人工智能将使一些工作过时或容易被取代。当然,与任何新技术一样,它将创造需要不同技能的新工作岗位。教师不会过时。他们将从教授数学和阅读的基础知识(人工智能做得很好)转向教授批判性思维和推理(计算机做得很差或根本没有)。

变化将是无处不在的,但它们仍然是变化,而不是混乱。

01

物理边界限制

人工智能是一股强大的力量,但远不如表面上看到的那么简单。

AI可能面临处理能力、训练集和发电方面的材料限制。半导体芯片的速度越来越快,新的芯片正在开发中。但这些芯片会消耗大量能源,尤其是在新AI 数据中心的巨大阵列中安装时。

倡导者正在转向核电站,包括小型模块化反应堆,以满足AI的能源需求。

这种需求是非线性的,这意味着需要指数级更大的能源才能在加工输出方面取得小的进步。

AI 正在迅速接近其实现更高性能能力的实际极限。

这种近乎永不满足的能源需求,意味着AI竞赛实际上是一场能源竞赛。

02

AI 缺乏常识

AI 的另一个不为人知的限制,是搜索中信息守恒定律。

该定律有严格的数学证明支持。它说的是AI找不到任何新信息。它可以更快地找到事物,并且可以建立人类可能几乎不可能建立的联系。这很有价值。但 AI 找不到任何新的东西。

它只能寻找和找到已经存在的信息。新知识以创造力、艺术、写作和原创作品的形式来自人类。计算机无法执行真正的创造性任务。

这应该给人类一些安慰,因为他们永远不会过时。

AI的另一个问题,是训练集的稀释和退化。因为更多的训练集内容由先前处理的 AI 输出组成。

AI 容易出现错误、幻觉(更准确地说是虚构)和没有事实依据的推理。这已经够糟糕了。但是,当该输出进入训练集(基本上是 Internet 中的每个页面)时,训练集的质量会下降,而未来的输出会同步下降。

除了仔细策划之外,没有好的解决方案。如果必须成为主题专家来策划训练集,然后评估输出,这会大大降低 AI 的增值作用。

计算机也缺乏同理心、同情心和常识。他们处理,但他们并不真正像人类那样思考。事实上,AI根本不会思考;这只是数学。

在最近的一项实验中,一台AI计算机与一组3至7岁的孩子进行了比赛。挑战是用手头的工具画一个圆圈。这些工具是一把尺子、一个茶壶和第三个不相关的物体,比如一个炉子。

计算机推断尺子是像指南针一样的绘图工具,并试图用尺子画一个圆。它失败了。孩子们看到茶壶的底部是一个圆圈,就简单地在茶壶上画出完美的圆圈。

AI 系统使用了关联逻辑。孩子们用的是常识。孩子们赢了。这个结果在未来的比赛中不会改变,因为常识(技术上是归纳逻辑)是无法编程的。

雄心勃勃的AI公司很快发现,他们的系统可以被新系统超越,这些系统只是使用大价钱AI输出作为基准训练集。这是以一小部分成本实现高性能的捷径。

像Microsoft和Google这样的老牌AI公司称之为盗窃IP,但这并不比那些使用现有IP而不支付版税的巨头差。

这可能是海盗的一种形式,但很容易做到,而且几乎不可能阻止。

这并不意味着AI的终结。这意味着AI天价利润预测的终结。AI巨头花费的数千亿美元的回报可能微薄。

03

创新者还是推销员?

AI世界中最著名的人物是山姆·奥特曼( Sam Altman)。

他是OpenAI的负责人,该公司几年前推出了ChatGPT应用程序。

人工智能始于 1950 年代,从 1980 年代的发展角度来看似乎遇到了瓶颈(这一时期被称为人工智能冬天),在 1990 年代和 2000 年代初基本上处于休眠状态,然后在过去十年中突然又恢复了活力。ChatGPT 在最初的几个月里是历史上下载次数最多的应用程序,如今拥有数亿用户。

奥特曼去年被 OpenAI 董事会赶出,因为该公司旨在作为一个非营利实体,为人类的利益开发人工智能。奥特曼希望将其转变为营利性实体,作为数千亿美元IPO的前奏。

当顶级工程师威胁要辞职并跟随奥特曼进行新的冒险时,董事会很快改变了方向,将奥特曼带回了公司,尽管确切的法律结构仍在讨论中。

与此同时,阿尔特曼全速推进了他对超级智能(也称为高级通用智能 (AGI),关键词是“通用”,这意味着系统可以像人类一样思考,只是更好。

理解超级智能的一种方法是比喻人类之于计算机,就像猿类之于人类一样。我们会被认为是聪明的,但不会比我们的机器大师更聪明。

阿尔特曼说,“在某些方面,ChatGPT 已经比任何活着的人都更强大。他还表示,他预计到202 年,人工智能机器将“完成真正的认知工作”,并将在2026 年之前创造“新颖的见解”。

这都是无稽之谈,原因有几个。

首先,如上所述,训练集(大型语言模型研究的材料)正在受到先前 AI 模型输出的污染,因此机器变得越来越笨拙,而不是越来越智能。

第二个是我上面也描述过的搜索中信息守恒定律。该定律(由应用数学支持)表明,计算机可能能够比人类更快地找到信息,但它们无法找到任何尚不存在的信息。

换句话说,当前逻辑下的机器并不是真正的思考,也不是真正的创造力。他们只是比我们更快地连接点。

Apple 的一篇新论文总结道:通过对各种谜题的广泛实验,我们表明,前沿 LRM ‘大型推理模型’在超出某些复杂性的情况下面临着准确性的完全崩溃。此外,他们表现出一个违反直觉的扩展限制:他们的推理努力随着问题的复杂性而增加,直到一定程度,然后尽管有足够的代币预算,他们的推理工作也会下降。这一证据和其他证据表明,AI 达到了蛮力计算能力无法克服的逻辑极限。

最后,从来没有开发人员能够编写归纳逻辑、真正的常识或直觉。 这是人类拥有的最强大的推理工具之一。

简而言之,超级智能(可能)永远不会到来。

奥特曼越来越像一个硅谷推销员,推销下一件大事,背后没有太多支持。