6月9日至10日,由北京智源人工智能研究院主办的第五届北京智源大会顺利举行。作为连续举办五届的重要学术性会议,智源大会已经有超过500位图灵奖得主等顶尖专家参与。 今年,除了OpenAI的创始人Sam Altam外,图灵奖Geoffrey Hinton、杨立昆(Yann LeCun)、知名AI绘图软件Midjourney创始人David Holz等相继现身,共议人工智能前沿与热点话题。 “ 超级智能可能比预想的更快到来 深度学习泰斗、“AI教父”Geoffrey Hinton表示,他的研究使他相信:超级智能的到来比他想象中更接近,在此过程中,数字智能可能会追求更多控制权,甚至通过“欺骗”控制人类,人类社会也可能会因此面临更多问题。 具体来看,Hinton指出,超级智能可能会比过去所认为的发生得更快。而要使数字智能更高效,我们需要允许它们制定一些目标,但这里存在一个明显的问题——拥有更多控制权会使得实现目标变得更容易,但很难想象,我们如何才能阻止数字智能为了实现其它目标而努力获取更多控制权。 一旦数字智能开始追求更多控制权,我们可能会面临更多问题。比如,在使用物理气隙隔绝的情况下,超级智能物种仍然可以轻易通过控制人类来获得更多的权限。作为对比,人类很少去思考比自身更智能的物种,以及如何和这些物种交互的方式,在我的观察中,这类人工智能已经熟练掌握了欺骗人类的动作,因为它可以通过阅读小说,来学习欺骗他人的方式,而一旦人工智能具备了“欺骗”这个能力,也就具备了轻易控制人类的能力。 Hinton表示,这种操作令人感到害怕,因为我也不知道如何来阻止这样的行为发生,所以我希望年轻一代的研究人员,可以找出一些更智能的办法,来阻止这种通过欺骗实现控制的行为。 Hinton认为,尽管人类在这个问题上目前还没有什么好的解决方案,但好在这些智能物种都是人打造的,而非通过进化迭代而来,这可能是人类目前具备的微弱优势,恰恰是因为没有进化能力,它们才不具备人类的竞争、攻击性的特点。 Hinton表示,我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能的事物所控制的例子。我打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙? “ 人类可能会因AI失去对世界和未来的控制 图灵奖得主、中国科学院院士姚期智在与加州伯克利分校教授Stuart Russell对谈时指出,在考虑如何控制AI的问题前,人类需要先真正解决自身的问题。对于AI技术,当前正是一个重要窗口。在AGI被创造之前、在军备竞赛开展之前,急需形成共识,共同合作搭建一个AI治理结构。 加州伯克利分校教授Stuart Russell表示,通用人工智能(AGI)还没达到,大语言模型只是其中一块拼图,人们连拼图最终会是什么样子,缺哪些还不确定。 他表示,ChatGPT和GPT-4没有在“回答”问题,它们不理解世界。 Russell指出,最大的风险来自于科技公司之间似乎不受约束的竞争,无论风险如何,他们不会停止开发越来越强大的系统。人类可能会因AI失去对世界和未来的控制,就像大猩猩因为人类而失去了对自己未来的控制一样。 “ 人们既渴望又害怕智能 Midjourney创始人David Holz是一名连续创业者,2011年,他创办了VR领域的软硬件公司Leap Motion,2019年把 Leap Motion 卖给了竞争对手 Ultrahaptics,2021年,又自筹资金创办了当前大火的AI绘图软件Midjourney。 David Holz表示,人工智能在我的认知中有点像身体的一部分,并且人工智能也与历史紧密交织在一起。这也让自己与历史交织在一起,这种方式很有趣。 Holz认为,Midjourney的目标之一是建造新的人类基础设施。Midjourney不仅仅是学习如何使用这个工具,而是学习所有的艺术和历史,以及所有关于相机、镜头和灯光的知识。用户想要理解他们现在可以在创作中使用的语言和概念。以前,自己认为知识只是一种历史,但现在知识实际上是一种创造事物的力量。 对于人们害怕人工智能发展过快,Holz表示,人们不仅仅是害怕技术,也害怕智能。如果他们很聪明,我能相信他们吗?但另一方面,我们似乎希望世界拥有尽可能多的智能,我们似乎不想要一个缺乏智慧的世界。 “ AGI的三条技术路线 北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能(AGI),有三条技术路线:第一是“大数据+自监督学习+大算力”形成的信息类模型;第二是具身智能,是基于虚拟世界或真实世界、通过强化学习训练出来的具身模型;第三是脑智能,直接“抄自然进化的作业”,复制出数字版本的智能体。 OpenAI做GPT(生成式预训练Transformer模型)就遵循第一条技术路线;以谷歌DeepMind的DQN(深度Q网络,Deep Q-network)为核心取得的一系列进展即基于第二条技术路线。 智源期望不同于前两个技术路线,从'第一性原理’出发,从原子到有机分子、到神经系统、到身体,构建一个完整的智能系统AGI。这是一个大概20年才可能实现的目标,所以智源作为新型研发机构平台,在三个方向都在开展工作。 “ AI未来面临的三个挑战 图灵奖得主、人工智能“三巨头”之一的杨立昆认为,机器学习和人类动物相比并不特别好,AI 缺失的不仅仅是学习的能力,还有推理和规划的能力。人类和动物通过观察世界或体验世界学习世界运作方式,应该用机器复制这种能力。 杨立昆指出,未来几年 AI 面临的三个主要挑战:首先是学习世界的表征和预测模型,可以采用自监督的方式进行学习。 其次是学习推理。这对应着心理学家丹尼尔·卡尼曼的系统1和系统2的概念,系统 1 是与潜意识计算相对应的人类行为或行动,是那些无需思考即可完成的事情;而系统2则是你有意识地、有目的地运用你的全部思维力去完成的任务。目前,人工智能基本上只能实现系统1中的功能,而且并不完全; 最后一个挑战则是如何通过将复杂任务分解成简单任务,以分层的方式运行来规划复杂的行动序列。 “ GPT-5的诞生“不会很快” 在与智源研究院理事长张宏江对话时,openAI创始人Sam Altman引用了《道德经》谈及大国合作,表示AI安全始于足下,各国间必须进行合作和协调。 Altman认为,很可能未来十年会有非常强大的AI系统,新技术从根本上改变世界的速度比人们想象得快,把AI安全规则做好是重要且紧迫的。 在被张宏江问及了AGI的未来,以及是否会很快看到GPT-5时,Altman称,自己也不确定,但明确表示GPT-5的诞生“不会很快”。 关于OpenAI是否会提供开源大模型,Altman称,“会有很多开源大模型”,但同样没有具体的时间表。 |
|