分享

AI教父辛顿的猜想:通过模拟计算破解AI威胁|黑智编译

 天承办公室 2023-10-10 发布于北京

图片

来源|WIRED
文|Steven Levy
翻译|景佑

杰弗里·辛顿(Geoffrey Hinton),也许是世界上最著名的人工智能研究者。几个月前,他公开宣布离开谷歌,这便于他坦率地谈及其参与研发的技术的危害。他的声明并非毫无根据。2022年末,我们都为AI能为我们做什么而欢欣鼓舞。而2023年,运用GPT与必应聊天的我们被一种恐慌冲淡了对AI的兴奋。因此,被称为“AI教父”的辛顿分享自己深思熟虑的担忧,也情有可原。他特别强调,他的批评不是对雇佣他十年的搜索巨头的批评;批评谷歌正在积极部署的技术技术,有可能让他和谷歌的关系变得紧张,所以辛顿选择主动离开。

辛顿的基本观点是,人工智能可能会失控,甚至伤害人类。在他公开表态的前几周里,他接受了多次采访谈到了这些担忧,其中包括《连线》杂志记者威尔·奈特(Will Knight)的采访,这种担忧来自于对ChatGPT等大型语言模型强大力量的体验。

今年夏初,在辛顿有时间反思离开谷歌后的生活和使命之后,我(Steven Levy)与他进行了对话。我们谈论了末日情景,但我更感兴趣是什么让他改变了对人工智能未来的看法。最重要的是,我想知道他认为LLM在做什么,可能使它们成为人类团队(Team Human) 的敌人。因为相比于2014年的那次交谈,辛顿现在表达的恐惧有很大的转变。那时候,他谈论了深度学习将如何帮助谷歌做更有效的翻译、改善语音识别、更准确地识别谷歌地图上显示的房屋地址号码等等。在对话快结束时,他表达了更开阔的看法,他认为深度学习将经历一次重大变革,让人工智能对现实世界有更深的理解。

他的预测是正确的,但在我们最近的谈话中,Hinton仍然惊叹于事情究竟是如何发生的。最终,我们的谈话转向了更哲学的领域。当如谷歌AI助理Bard等聊天机器人回答我的问题时,该系统实现产出的状况是怎样的?大语言模型或许真如一些人所声称的那样——代表着超级智能的前身吗?

辛顿说,他之所以改变观点是因为他意识到:聊天机器人似乎可以很好地理解语言。由于模型中的每一次新学习都可以被复制并转移到之前的模型中,它们可以相互分享知识,比大脑更容易学习,因为大脑无法直接相互联系;而且现在机器的学习算法比人类的更好。“我不再认为人类大脑比这些数字agents更好,”他说,“它们已经比任何一个大脑知道的东西多1000倍。至少在庞大的知识方面,它们比大脑好得多。”

辛顿认为,在未来五到二十年内,有50%的可能性,人工智能系统会比我们更聪明。我问他当这种情况发生时我们该怎么知道。“好问题,”他说。如果一个超级智能的人工智能系统选择保持其能力不为人类所知也不会使他感到惊讶。“大概它会从人类行为中学到不要告诉我们。”

对我来说,这听起来像是他在拟人化AI系统,而一些科学家不断地告诉外行和记者不要这样做。“科学家尽量避免这样做,因为将大多数东西拟人化,都很愚蠢,”辛顿承认,“但是AI会从人类身上学到这些东西,会在语言上表现得和人类一样。所以我认为它们被拟人化是完全合理的。”AI agent 在人类数字知识总和(包括很多在线对话)的基础上接受训练时,我们不期望它表现得像人类一样,才可能是更愚蠢的。

但是,有人反对说,聊天机器人永远无法真正理解人类的行为,因为这些语言机器人只是电脑芯片的运作,没有体验过真实世界。毕竟,它们所做的只是预测下一个单词,以便将一个回应串联出来。辛顿指出,即使是人类也没有真正直接地接触世界。

“有些人认为,嘿,有一个终极障碍,那就是我们有主观意识,而机器人没有,所以我们真正理解事物,而它们不能,”辛顿说,“那是胡说。因为要预测下一个单词,你必须理解问题是什么,如果不理解问题,你就不能预测下一个单词,对吧?当然,它们被训练来预测下一个单词,但作为预测下一个单词的结果,它们理解了世界,因为这是唯一的方法。”

所以这些东西可以有……意识?我不想相信辛顿会像布莱克·勒莫因(Blake Lemoine)一样。我想他不是。当我们深入探讨时,辛顿开玩笑地说:“让我以哲学家的身份继续我的新事业吧。让我们把意识和感知放在一边。我并没有真正直接地感知这个世界。我认为世界上的东西并不是真实存在的。当发生的事情进入了我的头脑,我真正看到的是我脑海里的东西。笛卡尔(Descartes)是这样认为的。然后有一个问题,我的头脑里的这些东西是如何与真实世界相连的?我是如何真正地知道真实世界的?”辛顿接着争辩说,既然我们自己的经验是主观的,我们就不能排除机器可能有同样有效的经验。“从这种观点来看,说这些东西可能已经有了主观的经验是相当合理的,”他说。

现在,再考虑一下机器可以真正理解世界、从人类身上学到欺骗和其他坏习惯,以及巨大的人工智能系统可以处理比大脑更多信息的可能性。也许你会像辛顿一样,对未来的人工智能产生了更多的担忧。

但我们也未必会不可避免地走向灾难。辛顿提供了一种技术方法,也许可以缓解人工智能对人类的制衡:模拟计算(analog computing),就像你在生物学中找到的那样,也像一些工程师认为未来计算机应该如何运行的那样。这是辛顿在谷歌的最后一个项目。“它适用于人类。”他说。Hinton解释说,采用模拟方法处理人工智能的危险性较小,因为每个模拟硬件都有其独特性。就像人脑一样,模拟系统不能那么容易地融合成一个集体智能,辛顿推理道。

“这个想法是你不要把所有东西都变成数字化的,”他谈论模拟方法时表示,“因为每一块模拟硬件都稍微不同,你不能把权重从一个模拟模型转移到另一个模拟模型。所以没有有效的方法可以在许多相同模型的副本中学习。如果你通过模拟计算得到AGI(通用人工智能),它会更像人类,并且它也无法吸收那些数字模型能够吸收的信息。”

在天文数字般回报的激励下,竞争业已白热化,包括巨头在内的玩家们不太可能采用这种技术素食主义的方法,强化其LLM聊天机器人的智能水平。辛顿不怕表达自己的政治观点,他怀疑大型上市公司或由风险投资支持的初创企业会因为某些关于公共利益的良好愿景而阻碍其人工智能创新。

有些时候,辛顿说,他是乐观的。“人类是很有创造力的,而且它还没有比我们更聪明,而且它没有像人类那样进化出卑鄙和小气的品质,对你的部落非常忠诚,对其他部落非常不忠诚。正因为如此,我们或许能够控制它,并使它善良。”但有时,辛顿会感到沮丧。“有时候我认为我们可能无法控制它,我们只是智力进化中的一个过渡阶段。”而在辛顿独特而不可复制的模拟神经网络中突然发生了一场“越狱”——科学被压制,而政治则因其人性化的游戏感而爆发出来。“如果我们让伯尼(Bernie)掌管一切,而且我们有社会主义,一切都会好得多,”他说。我敢打赌,他以前的谷歌经理们很庆幸不必为这个问题负责。

采访手记

2015年1月,《Backchannel》杂志(现存于《连线》档案)发表的一篇报道提到,辛顿团队的研究成果将普及应用到谷歌产品和整个世界。想要采访辛顿需要花费一番功夫,因为他在山景城的时间很有限,但最终我还是如愿以偿。

“我需要了解一下你的背景,”杰弗里·辛顿说,“你拿到科学学位了吗?”

辛顿是个精瘦、颇具幽默感的、从加拿大移民来的英国人。2013年,他以杰出研究员的身份加入谷歌。辛顿可能是世界上神经网络系统方面的顶级专家,这种人工智能技术是他在20世纪80年代中期协助开创的。(他曾经说过,从16岁起,他就一直在研究神经网络。)

在此期间的大部分时间里,神经网络——大致模拟人类大脑进行学习的方式——被描述为一种让计算机掌握诸如视觉和自然语言等复杂事物的有前途的方法。在等待这场革命到来的多年后,人们开始怀疑这些承诺是否会兑现。

但是大约十年前,在辛顿在多伦多大学的实验室里,他和一些其他研究人员取得了一个突破,突然使神经网络成为AI领域最热门的东西。不仅是谷歌,包括Facebook、微软和IBM在内的其他公司也开始疯狂地追捧相对数量较少的计算机科学家,这些科学家擅长于利用黑科技来组织几层人工神经元,这样一来整个系统就能接受训练,甚至训练自己,从而从无序的输入中解读出连贯性,这一点和新生儿在某种程度上学会解读其第一感觉中的大量数据是相似的。有了这个被称作“深度学习”的新兴高效算法,一些长期存在的计算难题(比如赋予电脑视觉、听觉)终于得以解决。

人们期待已久、害怕已久的智能计算机时代将突然间逼近。谷歌搜索的效果将大大提高。

图片

*本号系数智云科旗下人工智能领域垂直号。黑智,人工智能领域产业服务平台,专注AI行业报道,探讨AI商业价值。

点击关注人工智能领域垂直号黑智

了解更多AI产业资讯

👇👇👇

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多