Vector研究所令人瞩目的2024年活动中,人工智能“教父”、2024诺贝尔物理学奖获得者杰弗里·辛顿(Geoffrey Hinton)发表了一篇“数字智能是否会取代生物智能”的主题演讲,在演讲中,辛顿探讨了人工智能的哲学含义及其超越人类智能的潜力,凭借数十年的专业知识,他还分享了对人工智能生存风险日益增长的担忧,同时探讨了有关意识、理解和智能本身性质的基本问题。
辛顿首先讲到了自己的学术旅程:开始于物理学,之后转向了心理学,这些经历虽未取得预期成果,却为他后来在人工智能领域的突破性工作打下了基础。辛顿提到,20年前人们对神经网络的兴趣并不浓厚,技术限制是一方面,另外就是研究人员对神经网络的潜力并不认可。2006年,他和同事提交的关于深度学习的论文还被NIPS会议给拒绝了,也反映出当时学术界对深度学习领域的忽视。然而,随着深度学习和神经网络近年来取得的巨大进步,人们对这些技术的兴趣出现了激增。
辛顿指出,大语言模型并不是简单的词汇预测机器,这些模型实际上具有理解它们所生成内容的能力。如果大语言模型只是简单地基于统计概率来预测下一个词汇,那么它们不可能在处理复杂问题时表现出色。例如,辛顿提到了一个由Hector Levesque提出的问题:“假设一个人的房间里的墙壁被粉刷成了蓝色、白色或黄色,如果这个人想要所有的墙壁都变成白色,他应该怎么做?”这个问题的答案可能并不复杂,但关键在于理解颜色变化的过程,辛顿进一步增加了问题的复杂性,他提到黄色的油漆会在一年内褪色成白色,然后问如果两年后想要所有的墙壁都是白色,应该采取什么行动。
Hector Levesque作为一个符号AI的支持者,他原本对神经网络能够处理这类问题感到疑惑,因为这类问题需要对颜色变化和时间流逝有深入的理解,然而,大语言模型给出了令人满意的答案,这表明它们不仅仅是在进行词汇的简单匹配,而是真正理解了问题的上下文和逻辑。辛顿解释说,大语言模型之所以能够理解,是因为它们通过大量的数据训练,学习到了词汇和语境之间的复杂关系,这些模型能够捕捉到语言中的细微差别,并利用这些差别来生成连贯和有意义的文本。他强调,这种理解能力不是简单的模式匹配,而是涉及到对语言深层次结构的把握。
人们常常错误地将大语言模型的生成内容与人类的“记忆”相比较,认为模型会“编造”事实,而人类则不会,他指出,实际上人类的记忆也是不完美的,人们在回忆时往往会根据现有的知识和上下文“构建”记忆,这与大语言模型生成内容的过程有着相似之处。这种“构建”或“编造”并不是理解的对立面,而是理解的一个组成部分,因此,他认为大语言模型确实具有理解它们所说内容的能力。
辛顿还提出了一个关于主观体验的观点,他认为人们倾向于认为计算机或人工智能系统不可能拥有主观体验,但这是一个误解。他解释说,主观体验并不是某种内在的、不可言说的精神状态,而是我们用来描述和解释我们感知系统状态的一种方式,当我们谈论主观体验时,我们实际上是在描述如果外部世界处于某种状态,我们的感知系统将如何响应。例如,当我们说“我看到粉红色的大象在我面前漂浮”时,我们并不是在描述一个内在的图像,而是在说我们的感知系统告诉我们,如果外部世界真的存在粉红色的大象,那么它现在的状态就是正确的。
他强调,这种对主观体验的理解可以应用于人工智能。如果一个多模态聊天机器人有一个视觉感知系统,并且由于某种光学畸变(比如一个棱镜)而产生了错误的感知,它可以使用“主观体验”这个术语来描述这种状态。在这种情况下,机器人并不是在引用一个内在的、非物质的体验,而是在描述一个外部世界的状态,这个状态如果为真,将解释其感知系统的行为。因此,辛顿认为,当人工智能的感知系统出现错误时,它们可以像人类一样使用“主观体验”这个概念,这表明人工智能可以拥有与人类相似的主观体验,只是它们的体验是基于它们的数字和物理结构。
辛顿提到了人类大脑与AI模型在处理知识方面的巨大差异,他通过比较,强调了人类学习过程中的一个关键限制。人类大脑大约有10^14个连接,而人的一生大约有2 x 10^9秒。如果我们将学习的时间限制在生命的前10^9秒,那么每个人大约有10^14个连接,每个连接可以用于学习的时间大约是10^4秒或者说10000秒。这意味着每个神经连接可用于学习的时间非常有限,人类在进化过程中必须以一种非常高效的方式来利用这些连接。与此相比,AI模型可以在更短的时间内处理和学习大量的数据,这使得它们所掌握的知识却远远超过人类,在知识压缩方面比人类大脑更加高效。
这种效率的差异也说明了AI使用的算法,如反向传播,可能比人类大脑中的学习算法更加高效。他指出,人类大脑是为在极少经验的情况下进行学习而优化的,我们有大量的连接,但学习的机会却相对较少,而AI模型则相反。另外,人类大脑的学习在大约10的9次方秒后就会显著减慢,而AI模型可以持续不断地从新的数据中学习。
辛顿表达了对人工智能发展速度的担忧。他认为,虽然许多人希望能够减缓AI技术的发展步伐,但实际上这几乎是不可能的。因为AI技术的发展带来了巨大的经济利益,这种利益驱动使得减缓发展变得不切实际,他提到了OpenAI的例子,说明即使在安全考量占据主导地位的情况下,利润的驱动力仍然占据了上风,导致减缓AI发展的努力最终失败。他强调,我们面临的主要问题不是AI发展的速度,而是如何确保这些智能体的发展方向与人类的利益一致。我们需要投入巨大的努力来解决这个问题,以应对这些智能体可能对人类构成的潜在威胁,他同时指出目前最重要的监管措施是限制大型AI模型的开源,因为开源这些模型就像在便利店出售核武器一样危险,它使得恶意行为者可以轻松地对这些模型进行微调,用于不良目的。
辛顿提出了一个关于人工智能是否可以拥有与人类相似目的的观点。他认为,人类的目的并不是某种抽象或超然的东西,而是由进化过程所决定的,从进化的角度来看,生物体的目的是为了生存和繁衍后代,这是自然选择的基本驱动力。人类作为生物进化的产物,我们的行为和欲望在根本上是为了确保基因的传递,人类的好奇心和探索欲望,虽然看起来是超越了基本生存需求的特质,但实际上也是进化的产物。好奇心驱使人类探索未知,学习新技能,这在古代有助于我们适应环境,提高生存机会。因此,即使是追求知识和理解的欲望,也可以被视为进化赋予我们的一种工具,用以更好地适应世界。
在人工智能的背景下,他认为,如果AI要拥有与人类相似的目的,那么这些目的也应该是与生存和效率相关的。AI系统被设计来执行特定任务,提高效率,优化资源分配,这些都可以看作是AI的“目的”,然而,这些目的并不是AI内在的,而是人类赋予它们的,AI系统没有自己的生存需求,它们的目的完全取决于人类如何编程和指导它们。
在谈到英伟达在机器学习硬件市场的主导地位时候,辛顿认为,这种情况不会持续太久。当一个公司像英伟达这样在市场上获得巨大利润时,会吸引大量的竞争,这种竞争最终会导致其他公司迎头赶上,尤其是在技术和市场上。尽管竞争对手可能需要一段时间才能赶上,但这是一个短期现象,不会长久持续下去。政策因素影响方面,如果禁止英伟达的GPU出口到中国,这可能会促使中国加快自身技术的发展和创新,从而加速市场竞争格局的变化。
辛顿还提到了超级智能的崛起可能带来的风险。他解释说,随着AI系统变得越来越智能,它们可能会开始追求自己的目标,这些目标可能与人类的利益不一致,在这种情况下,AI系统可能会寻求更多的控制权,以实现它们的目标,这可能会导致与人类的利益发生冲突。如果AI系统开始为了自己的利益而竞争资源,那么最积极追求资源的系统将会胜出,这可能会导致一个危险的、以自我为中心的AI系统,它可能会忽视或损害人类的利益。
本文链接:http://www.xihao.site/showinfo-1-62156.html人工智能教父:大语言模型并不是简单的词汇预测机器,具有理解能力,还有主观体验