文:鹧鸪仔 2012年,36岁的尤瓦尔·赫拉利从没想过,他写的书日后会被翻译成近30种文字,不仅为全球学术界所瞩目,更是引起了大众对过去和未来的兴趣。第一部作品诞生5年后,他来到中国,来到了这个拥有全球最多粉丝的国家。
这位来自以色列的历史学怪才,分别在2014年、2017年在中国出版《人类简史》、《未来简史》两本著作。
赫拉利为不同国家的不同译本量身定做了各自的内容: “核心思想是一样的,但针对不同国家的读者,我会用一些不同的例子。针对伦敦的读者,我就会说一些跟英国地理和历史相关的事情。在提到历史上强势的女性角色时,英国版的例子是伊丽莎白一世,中国版本里我写的是慈禧太后。” 在这个月举行的“未来已来”全球人工智能高峰论坛上,创业邦联合中央电视台英语频道对尤瓦尔·赫拉利进行了专访,与他共同探讨人工智能在未来对就业的影响、人类将如何与人工智能共存等话题。 对于未来世界,最大的不变就是变化 Q:中国热吗?
尤瓦尔·赫拉利:你在和我开玩笑?
Q:言归正传,如你所说,放眼未来的就业市场,许多工作将被人工智能所取代,具体是哪些工作?
尤瓦尔·赫拉利:那恐怕我得告诉你一个坏消息了,因为没有人知道未来的就业市场会长什么样子,或者是我们的孩子未来在学校应该学什么。但我相信,今天的很多工作到40年、50年之后,肯定会被取代,他们需要重新改变自己,并且在有生之年不断的学习。我们未来要教给我们的孩子的一些内容,就是要让他们有一个心理的灵活度,一个平衡度,去不断适应世界的改变,适应生活。
因为对于未来世界,最大的不变就是变化。 我认为大部分单一且重复的工作最容易被取代,这跟金钱、产业都没有关系。比如医生这个职业,他的工作是单一的,这个工作并不难来模拟的,人工智能很快会比人类的医生表现得更好。
有些人说我们还是需要人类医生的,因为人类医生有情感,可以非常好的识别出病人的情感,喜怒哀乐,并且很好的照顾病人的情绪,这是世界上任何一个好的医生都能够做的事情,照顾病人的情感,这是完全正确的。
对待一个病人,就是要对待病人的情绪,不仅仅是他的身体情况,还有心理情况。但就算是诊断心理上的疾病,人工智能也可能比人类的医生更加的好。因为情感到最后其实也是一个生物的模式,人类的医生要如何去识别一个病人的情绪和情绪状态呢,基本上他们会分析一些信息。 从身体状况的表现和身体发出的信号来评断情绪,比如我讲的话和表现出的表情,识别出病人脸部肌肉上微妙的变化。从愤怒的脸到悲伤的脸,或者到开心的脸,他们会有细微局部的肌肉变化,他才可以识别出病人。
不幸的是,现在的人工智能也可以识别一个人愤怒的语调,或者一个快乐的语调,这种叫做模式识别。在未来的语音识别、脸部识别上,人工智能会比人类的医生做得更好,可以更好监督病人外部的一些表征,身体的一些表情,身体的一些动作,脸上的表情。
人工智能可以比人类医生做更多,甚至是人类医生从来没做过的,也就是说它们可以实时监控人类身体内部的一些情况,血压、心率、大脑部分的浮动。如果把人工智能和生物治疗传感器连接在一起,人工智能会比人类更强大。甚至在情感智能上更胜一筹,可以更好回应人类情绪上的一些反应。
但有一件事,人工智能是不能够和人类媲美的,这件事在不久的将来,也将保持这样一个状态,那就是我们的意识。 人工智能采用了截然不同的路径 达到了和人类、哺乳动物一样的结果
Q:如果说人工智能感受到人类的情绪,基本上就可以说它们已经拥有了人的意识,但是你却说人工智能是没有意识的?
尤瓦尔·赫拉利:关于人工智能和人类的意识,这个意识是有区别的。意识,在另一个层面来说是感知外部世界的能力,感受到快乐,感受到愤怒,感受到爱情,等等。对于人类,或者其他哺乳动物来说,所有的哺乳动物都是通过情感、意识、感受来解决问题。它们是使用智能和意识的综合体来解决问题。
我们看到这两个词会感到很困惑,而过去人工智能还没有发掘出意识,它们只是不断的发展智能。它们在意识上的发展是零,人工智能在很多方面都会比人类好。比如说解决问题方面,但是它们不能解决一些人类可以解决的问题,也就是人类使用意识和情感感受来解决的问题,是人工智能不能够达到的。
我认为大家对于这两个词有很大的误解,因为受到了很多科幻小说的影响,我个人也非常喜欢科幻小说。但我认为有些科幻小说会带给大家很大的误解,让大家错误地了解什么是智能,什么是意识。因为科幻小说把一些事情都颠覆了,完全颠倒了!
在很多科幻小说中讲到了机器人、计算机、人工智能,如果说计算机和人工智能得到了一些非常复杂的意识能力,基本上也就可以得到智能和意识。它有了感觉,它有了情感。要么就是科学家和机器人坠入爱河,要么机器人变得非常愤怒,想要毁灭人类,这是95%科幻小说的情节。 他们对于AI的理解,是错误的。因为到2017年为止,我们没有理由认为人工智能会发展出意识,或者说人工智能需要发展出意识来超过人类。人工智能会不断的演进,不断的发展,往着超级智能体的方向发展。但是是通过不同的方式,哺乳动物也在不断的进化,变成越来越智能的哺乳动物。
Q:人工智能采用了截然不同的路径,达到了和人类、哺乳动物一样的结果?
尤瓦尔·赫拉利:哺乳动物的进化是非常漫长的,他们需要几百年,几百万年。而电脑、计算机,它们走了一个捷径,只在短短数十年采用了截然不同的方式,以无意识的方式发展出了极高的智能。到2017年为止,我们现在看到的人工智能发展,也就是计算机智能的发展和零意识的发展。
为什么人工智能现在还没有意识,那是因为人类作为它的创造人,对于意识的理解,还有它的含义知之甚少。我们对于大脑的理解,对于智能的理解是越来越多的。我们知道通过智能可以创造出智能的机器,但是我们不理解什么是意识。所以到现在为止,我们还不能够创造出一个有意识的机器。
意识不是一个有机体,它不像是我们的手、眼睛或者是腿。意识是一个主观的东西,像爱、疼痛、愉悦这种感觉。而这种感受是一个接一个的,比如说爱恨交织,或者愤怒交加,这才是组成了大脑意识的元素。 所以大家对于意识和大脑其实也有点困惑,它们两者是互相关联的,但它们不是同一个东西。大脑是什么,它是一个非常复杂的组织,里面有很多神经元,很多化学物质,很多神经电子。意识控制的是主观的信息流,我们是每时每刻都感受到了一些感觉,恨、爱。它不是说非常形而上的东西,它是世界上最普遍的东西,也就是我们每时每刻所感受到的,这就叫做意识。
现在一些科学的教条,尤其是生命科学的教条中,解释了大脑、意识,意识其实是从大脑中得出的,大脑产生了意识。它也解释了大脑是一个生物化学的载体,是让我们能够处理数据,做出决策。我们有一个假设,意识的感受,爱、恨、快乐都是要完成某个功能,处理某些数据,做一些计算,然后做出决策。
Q:说到没有意识,有这样的一个问题,现在有一辆自动驾驶的汽车,面临两个选择,往左会冲进人群撞死10个人,往右会撞死1个人,这个问题对于人来讲是非常纠结的事情,但是对于人工智能来讲,它还有这样的纠结吗,还是就选择撞死1个人?
尤瓦尔·赫拉利:人工智能在道德领域有可能是会比人类做得好,但是考虑到自动驾驶无人驾驶汽车为例,比如说,撞10个人跟撞1个人,很多专家从各种理论讨论这个问题,有的人用佛教的理论讨论一年的结果,得出的结论可能是这个汽车会选择撞毁自己,但如果人工智能有情感,在这样的情况下,它不会选择撞毁自己,这是哲学上面的问题,有一个理想化的结论,也是受情感的控制,人工智能不会按照理想化的情绪去处理。 真正的问题不是电脑与人的矛盾 更多的人与人之间的矛盾
Q:现在有“黑匣子”的一个理论说法,说人工智能在内部如何倒腾自己的逻辑,这个过程我们是不知道的,如果在这种情况下,有没有可能人工智能在未来做出一些危害到人类的事?
尤瓦尔·赫拉利:实际上,人工智能会有意识,它会越来越复杂,人类控制它的能力会越来越弱,一些人工智能做的决定,人类将不知道它为什么做出这样的决定。举个例子,很多公司已经给人工智能这个权利来做决定,比如说,一些银行用人工智能来放贷款,来杜绝一些人的贷款要求。当银行拒绝给他贷款时,这个人会问为什么,这时银行就会说这是人工智能决定的,我们不知道答案。 人工智能是根据它的数据来做出这样的决定的。
再举个例子,人工智能会在人类之间进行分类,就像过去有人歧视妇女、歧视黑人,歧视同性恋一样,以后人工智能也会有自己的歧视,它不喜欢你,但是你不知道为什么,最主要的一个原因就是,人工智能是根据你个人的大量数据来判断是否喜欢你。这时非常个人化的问题,你知道人工智能不喜欢你,但你很难找到同类,找到一个团体来进行抗议。
Q:听起来很可怕,人工智能可能做出很多事情,但是人类不明白他为什么这样做,未来如果高度且没有意识的人工智能充斥着我们的社会的话,意味着什么?
尤瓦尔·赫拉利:这会导致社会不同层面的进化,比如说,带来一些问题,比如说,剥夺一部分的工作机会,剥夺一部分人的经济和政治情况等等,大量的权力和能力都会集中在一部分精英的手里,大部分的人不知道为什么失去了这些权力,这个可能就是其中的一个问题。
但是人工智能的优点是,能将人类从简单枯燥的工作中解放出来,其中一个重要的问题是谁来控制这个人工智能,也就是说,我们有一个选择,人工智能到底对我们是好的,还是坏的,我们是有的选的。
Q:就是说,到底谁来做这个事儿,就是政府推出一些法律来规定说未来开发人工智能做哪些领域的东西,是不是应该做这些事儿,才能保证未来开发出来的人工智能不是那种对人类有害的人工智能?
尤瓦尔·赫拉利:目前有三个危险的情况,第一个就是需要有一个政治的讨论。第二个是需要对数据有更好的控制。第三个要从全球的情况来介绍一下。
第一点,接下来最重要的一个问题,就是说,需要政治层面的讨论,因为现在的人工智能是一些私企包括一些其他的研究机构都可以自由去做,但是私有的企业不是代表所有人的利益,所以说,政府的参与很重要。
第二点,讲数据的监控,我们现在最大的一个资产就是数据,个人的这个数据。以前的资产主要是土地、工厂和机器,但是二十一世纪就是数据,这是逐渐地积累起来之后变成很重要的资产,这些资产有部分政府和私企在掌控,最重要的问题就是需要得到数据的控制权,对个人来说要有一定的控制权。
第三点,讲到全球合作。全球合作势必会带来一些危险,比如说,自制武器,虽然中国禁止武器,但是人工智能没有禁止,它们有能力发展自己的武器,在这种情况下,需要加强全球合作。 Q:很多人认为人工智能是一件危险的事情,包括马斯客也是,他认为人工智能技术可能会被一些别有用心的人利用,从而做一些对人类有害的事情?
尤瓦尔·赫拉利:现在可以说并没有迹象表明人工智能有毁灭人类的可能,因为现在它的发展方向并没有在有自我意识上面,他跟人类和动物这个智能发展方向不一样,人类通过感情和自我意识做决定,但是人工智能是完全不同的方向。
实际上,真正的问题不是电脑与人的矛盾,而是说受到电脑武装,有更多的人类和人类之间的矛盾,这个能力被少数国家甚至少数的阶级所占有,他们剥夺了大多数人经济上、政治上的权力,比如说在19世纪工业革命的时候,电的出现,在英国和法国得到快速发展,但是导致中国和印度等国家的落后,这样造成不好的影响,一样的问题,在二十一世纪也会出现,但是涉及的国家不一样。 肯定会有新的工作机会 但人类重新适应新工作需要多少时间? Q:你曾说过,人工智能的发展有可能产生一个新的群体,就是无用群体,部分工作会被取代,历史上也出现过很多次,包括工业革命的时候,结果是产生了许多新的工作,所以人类没有失业,今天我们对于失业的担忧是不是重复上一次的担忧,或者说,人工智能技术将带来新的工作机会?
尤瓦尔·赫拉利:现在要知道具体的发展还有待观察,但我们可以认识到目前这个革命跟19世纪的工业革命不一样,主要有两个方面的不一样。未来人工智能有两种智能,一个是身体的能力,还有一个是认知的能力,目前工业革命产生的工作更多倾向于认知方面,未来的发展人类是否会产生第三个种能力,这个发展仍然有待观察。
肯定会有新的工作机会,但是人类重新适应新的工作需要多少时间?过去农民到城市参与新的工作,实际上不需要很大的技能,他可以很快的适应,但是在未来我们预计新的工作需要很多的创新能力和技能,比如说,我是一名40岁的中年人,你让我去设计VR,就是一件很困难的一件事情。 Q:有乐观主义者认为人类还可以找到一些技能、一些能力,是人工智能无法做到的,这种想法会不会太乐观了?
尤瓦尔·赫拉利:人类有一些自己的技能、自己的意识,但是这些对于经济领域来说并不重要,就是说,人类这部分的技能很少被使用到。以汽车为例,一个好的驾驶员在经济领域并不重要,因为完全可以被自动驾驶汽车取代,从就业层面来说人工智能完全可以取代人,但是我觉得人工智能更应该朝解放人类的方向发展,给人类通过时间发展其他新的模型,新的经济和政治上面的模型。
Q:未来的工作场景会变成什么样子,你提过一个“两极化”的观点,认为未来要么是拥有中高技能的工人,要么就是低级的工人,中间的一部分人变得没有用,为什么有这样的一种状况? 尤瓦尔·赫拉利:因为这些比较灵活的高技能工作很难被取代,刚刚举例的医生,诊断的医生容易被取代,做研究的医生不容易被取代,就在百年内,前10%的医生同样存在,但是90%的医生会失业;比较廉价的劳工仍然会存在,因为从经济上面用人工智能不划算;就中间层面的人薪水比较高,性价比最低,最容易被取代。
Q:如果在未来有80%-90%的人没有用,那我们还能做什么,更重要的是,就是这些人没有用了,他的感觉一定会差,那我们怎么来理解自身的价值?
尤瓦尔·赫拉利:首先这个问题在物质上面来说,我们可以通过计算一下积累的总财富平均分配一下,这个不存在问题,但是真正的问题是,人生活的意义就会成为一个问题。这当中会有不同的方向,其中一个就是人类被解封之后,可以开发不同的潜能,人工智能对人类的潜能研究比较少,我们之前的工作很少做,我们现在有这个机会重新证实一下。
人类追求一些娱乐的感受,一些心情的感受,这些实际上是比较容易达到的,可以通过药物,通过游戏,我们现在玩的计算机游戏是3D的,就是虚拟现实,现在的人经常玩手机,大家沉静在虚拟和现实的游戏当中。 以虚拟现实为例,这也可以像各种各样的宗教一样,人类花数千年的意义探索其中的规律,比如说,你玩游戏的话每天可以积分,不断去积分,这个也可以消耗你上千年的时间去探索。
Q:最后想问一下,目前我们最应该做的事是什么?
尤瓦尔·赫拉利:珍惜现在的工作。 作者:鹧鸪仔 |
|