从纯人工智能到超级智能:工具何时成为“生物”?
Posted: Sat Jan 04, 2025 5:14 am
早在 1999 年,Cluetrain 宣言就出现了,最终成为所有技术行业从业人员的圣经,并因此被引用了数百万次。该宣言中包含的许多预测尚未实现,但有些预测却颇具洞察力。 Cluetrain 宣言中的 95 个论点中的第一个是“市场就是对话”,考虑到日益繁荣的“创造者经济”的崛起,这一点再正确不过了。社交网络上有影响力的人及其粉丝。
德国科技记者 Sascha Lobo 受到这篇论文的启发,针对生成人工智能(AI) 产生的一阶变换提出了本土预测。洛博在《明镜周刊》发表的一篇文章中保证,“机器就是对话”。
Lobo 认为,毕竟,人工智能模型是用大量数据进行训练的,以保持与用户的自然对话。由于 OpenAI 的 AI 集成在 Microsoft 365 中,用户可以与 PowerPoint 聊天,并要求其将 Excel 文档(在几秒钟内)转换为包含 15 个图形的演示文稿。
有了生成式人工智能的帮助,我们在工作环境中执行任务时显然可以提高生产力。根据哈佛大学和波士顿咨询公司去年 9 月发布的一份报告,在人工智能助手的支持下,工作人员完成任务的速度比没有人工智能工具的情况下快 25%,质量提高 40%。
然而,洛博认为,在生成式人工智能的支持下,人类生产力的巨大飞跃只能被视为一个中间步骤。下一步,可能会在很短的时间内成为现实,那就是所谓的通用人工智能(AGI)的出现,它等于或超过人类的平均智能。
现在已经非常清楚了,上周 OpenAI 上演的“肥皂剧”的导火索是 AGI,该公司首先解雇了 Sam Altman,然后恢复了首席执行官的职位。 OpenAI 董事会决定解雇 Altman,因为他参与了一个名为 Q* 的项目,该项目基本上是 AGI 或超级智能(或者至少看起来是这样)。
通用人工智能(AGI)即将来临吗?
Lobo 表示,有些人已经感觉当前版本的 ChatGPT(得益于其动力来源的 GPT-4 模型)已经是一个成熟的超级智能。有几个论点支持这一观点。例如,ChatGPT 已经能够正确理解某些上下文,甚至 OpenAI 团队的成员也不太清楚其中的原因。然而,大多数人工智能专家认为ChatGPT尚不能被贴上超级智能的标签。
然而,Sam Altman 最近在一次演讲中宣布,GPT-5(GPT-4 的后继者)将构成比人们先验愿意假设的更大的进化飞跃。也许正因为如此,奥特曼在 11 月 9 日所说的一句话不可避免地呈现出一种新的、令人不安的维度:“这是我们建造 Office 365 电子邮件列表 的工具,还是实际上是一种生物?”。
值得记住的是,在 2022 年夏天,当几乎没有人听说过 OpenAI 时,谷歌解雇了软件工程师 Blake Lemoine,因为他厚颜无耻地声称他正在研究的人工智能已经发展出了自己的意识。当时,勒莫万的言论似乎是荒谬的缩影。然而,就在几周前,ChatGPT 的创建者专门谈到了“生物”的创造,这句话并不那么容易被嘲笑。OpenAI 的首席执行官可能是一位营销天才,他的话仅仅证明了他对这一学科的卓越掌握,但当奥特曼将人工智能称为“生物”时,洛博问道,他真的在撒谎吗?
AGI可能与能够发展自己意识的机器并不完全相同,但它仍然是朝着这个方向迈出的一步。 2023 年 4 月发布的 ChatGPT 实验表明了这一点。作为该实验的一部分,研究人员一方面向卫生专业人员提出问题,另一方面向 ChatGPT 提出来自患者在线论坛的近 200 个医疗问题。然后由卫生专业人员对这些反应进行评估。平均而言, ChatGPT 的答案被认为比真正的健康专业人士给出的答案更正确、更精确。然而,这并不是该实验揭示的最令人不安的数据,该实验还评估了响应的同理心,并得出结论:ChatGPT 的复制品明显比健康专业人员的复制品更具同理心。
由此可以推断,机器有时可以比人类更好地模仿或产生同理心,尽管同理心可能是人类最重要的情感。沿着同样的思路,“机器中感知的意识”可以由类似的模式控制,因此一旦超过某个阈值,就完全不可能破译机器是否真正拥有自己的意识,或者只是假装拥有意识感谢其肠道内的超级智能。洛博总结道,也许三个月、一年或五年后,超级智能对我们的了解将超出我们的预期。
德国科技记者 Sascha Lobo 受到这篇论文的启发,针对生成人工智能(AI) 产生的一阶变换提出了本土预测。洛博在《明镜周刊》发表的一篇文章中保证,“机器就是对话”。
Lobo 认为,毕竟,人工智能模型是用大量数据进行训练的,以保持与用户的自然对话。由于 OpenAI 的 AI 集成在 Microsoft 365 中,用户可以与 PowerPoint 聊天,并要求其将 Excel 文档(在几秒钟内)转换为包含 15 个图形的演示文稿。
有了生成式人工智能的帮助,我们在工作环境中执行任务时显然可以提高生产力。根据哈佛大学和波士顿咨询公司去年 9 月发布的一份报告,在人工智能助手的支持下,工作人员完成任务的速度比没有人工智能工具的情况下快 25%,质量提高 40%。
然而,洛博认为,在生成式人工智能的支持下,人类生产力的巨大飞跃只能被视为一个中间步骤。下一步,可能会在很短的时间内成为现实,那就是所谓的通用人工智能(AGI)的出现,它等于或超过人类的平均智能。
现在已经非常清楚了,上周 OpenAI 上演的“肥皂剧”的导火索是 AGI,该公司首先解雇了 Sam Altman,然后恢复了首席执行官的职位。 OpenAI 董事会决定解雇 Altman,因为他参与了一个名为 Q* 的项目,该项目基本上是 AGI 或超级智能(或者至少看起来是这样)。
通用人工智能(AGI)即将来临吗?
Lobo 表示,有些人已经感觉当前版本的 ChatGPT(得益于其动力来源的 GPT-4 模型)已经是一个成熟的超级智能。有几个论点支持这一观点。例如,ChatGPT 已经能够正确理解某些上下文,甚至 OpenAI 团队的成员也不太清楚其中的原因。然而,大多数人工智能专家认为ChatGPT尚不能被贴上超级智能的标签。
然而,Sam Altman 最近在一次演讲中宣布,GPT-5(GPT-4 的后继者)将构成比人们先验愿意假设的更大的进化飞跃。也许正因为如此,奥特曼在 11 月 9 日所说的一句话不可避免地呈现出一种新的、令人不安的维度:“这是我们建造 Office 365 电子邮件列表 的工具,还是实际上是一种生物?”。
值得记住的是,在 2022 年夏天,当几乎没有人听说过 OpenAI 时,谷歌解雇了软件工程师 Blake Lemoine,因为他厚颜无耻地声称他正在研究的人工智能已经发展出了自己的意识。当时,勒莫万的言论似乎是荒谬的缩影。然而,就在几周前,ChatGPT 的创建者专门谈到了“生物”的创造,这句话并不那么容易被嘲笑。OpenAI 的首席执行官可能是一位营销天才,他的话仅仅证明了他对这一学科的卓越掌握,但当奥特曼将人工智能称为“生物”时,洛博问道,他真的在撒谎吗?
AGI可能与能够发展自己意识的机器并不完全相同,但它仍然是朝着这个方向迈出的一步。 2023 年 4 月发布的 ChatGPT 实验表明了这一点。作为该实验的一部分,研究人员一方面向卫生专业人员提出问题,另一方面向 ChatGPT 提出来自患者在线论坛的近 200 个医疗问题。然后由卫生专业人员对这些反应进行评估。平均而言, ChatGPT 的答案被认为比真正的健康专业人士给出的答案更正确、更精确。然而,这并不是该实验揭示的最令人不安的数据,该实验还评估了响应的同理心,并得出结论:ChatGPT 的复制品明显比健康专业人员的复制品更具同理心。
由此可以推断,机器有时可以比人类更好地模仿或产生同理心,尽管同理心可能是人类最重要的情感。沿着同样的思路,“机器中感知的意识”可以由类似的模式控制,因此一旦超过某个阈值,就完全不可能破译机器是否真正拥有自己的意识,或者只是假装拥有意识感谢其肠道内的超级智能。洛博总结道,也许三个月、一年或五年后,超级智能对我们的了解将超出我们的预期。