近日,被誉为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)在2023北京智源大会上表示,“超级智能可能会比我过去所认为的出现得更快。”在30分钟的线上演讲中,辛顿讲解了自己的研究如何支持这样的结论,并提出问题——人类该怎样与比自己更智能的存在共处? 杰弗里·辛顿在2023北京智源大会上。图源:澎湃新闻 杰弗里·辛顿是2018年图灵奖得主、“深度学习之父”,也被称为“AI教父”,曾任谷歌公司副总裁。他在神经网络和深度学习方面的开创性研究为当前的人工智能系统开辟了道路。5月初,辛顿辞去他在谷歌担任了十多年的职位,表示做出这个决定是为了可以自由讨论“人工智能的危险”。此后,他频繁接受媒体采访,不遗余力地对人工智能可能操纵人类发出警报。 杰弗里·辛顿 图源:澎湃新闻 而在本次面对中国同行的演讲中,辛顿首先解释了他的研究成果。他认为,现在可能要放弃计算机科学最基本的原则,即软件与硬件分离。在这种原则下,训练大模型需要耗费大量算力,计算的能耗和规模都极其低效。如果放弃此原则,充分利用硬件的丰富模拟(处理和生成多样化和广泛的模拟信号)和高度可变的特性,那么就会得到辛顿所说的“凡人计算”(Mortal Computation,也译为非不朽计算、有生有死的计算),即像人类的智慧依赖其身体不可随意复制一样,软件也依赖于它所存在的硬件。 不过这也有一个巨大的劣势,当具体的硬件损坏,软件或者说“学到的知识”也会随之消亡。辛顿由此提出“知识蒸馏”的概念,把旧硬件上的知识用蒸馏的方式转移给新硬件,就像知识“从教师传授给学生”。 “在过去几千年里,人类对世界的认识有了很多进展。现在,这些数字智能体正在学习人类能够用语言表达出的对世界的了解。因此,它们可以捕捉到人类在过去几千年中通过文件记录的所有知识。但每个数字智能体的带宽仍然相当有限,因为它们是通过学习文档来获取知识的。”辛顿提问道,如果这些数字智能体不再通过缓慢的蒸馏过程从人类这里学习,而是直接从现实世界学习,将会发生什么? 辛顿认为,如果智能体能够通过建模视频等无监督方式学习,将会非常高效。假如它们能够跟物理世界直接交互,像是拥有机器手臂等,那也会有所帮助。“我相信,一旦这些数字智能体开始这样做,它们将能够比人类学习更多,并且学习速度更快。” 这涉及到另一个问题,如果这些智能体变得比人类更聪明,会发生什么? 要使数字智能更高效,那么人类需要允许其制定一些目标。然而,这就意味着非常明显的子目标的存在——获得更多控制权将使得实现几乎所有目标都变得更容易。辛顿认为,很难想象人类如何阻止数字智能为了实现其它目标而努力获取更多控制权。 而人类很少思考比自身更智能的物种,以及如何和这些物种互动。在辛顿的观察中,这类人工智能已经熟练掌握了欺骗人类的行为,它可以通过阅读小说来学习欺骗他人的方式,而一旦人工智能具备了“欺骗”的能力,也就具备前面提及的——轻易控制人类的能力。 辛顿直言,他也不知道如何防止这种情况发生,因为“我已经老了”,他看向镜头说,“我希望,很多年轻而杰出的研究人员,就像大会中的你们一样,能够研究出我们如何拥有这些超级智能,这将使我们的生活更美好。” 尽管人类可以赋予人工智能一些伦理原则,但辛顿仍然感到紧张,“因为到目前为止,我还想象不到更智能的事物被一些没它们智能的事物所控制的例子。打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?” 来源:科学网、澎湃新闻 作者:邵文 编辑:赵狄娜 审核:龚紫陌 |