以前在科幻电影中看到的智能机器人消灭人类的故事虽然引起人们的关注,但是绝大多数人认为那些科幻故事是为了吸引观众而编造的,至少在非常遥远的年代里都不可能出现。但是,随着美国谷歌公司旗下企业开发的人工智能围棋软件“AlphaGo”此前在人机大战中以4比1战胜了韩国的世界顶级棋手;AlphaGo的升级版Master在著名围棋对弈网站“弈城网”横空出世,通过下快棋连胜职业高手60盘。人们对计算机人工智能的进步速度感到惊讶,公众也关注在科幻电影里面的人工智能机器人给人类带来灾难的故事是不是离现实越来越近了。其实现代社会中广泛采用的智能化的自动技术已经造成了工人失业的问题。 在现代生产发展过程中机械的采用产生了第一次工业革命;电气的运用被称为第二次工业革命;而信息产业的发展被认为是第三次工业革命;以智能制造为基础的工业革命被认为是第四次工业革命。在工业时代的开始阶段,机器只是起了动力的作用,主要用来减轻人工劳动的体力需求。在生产过程中还需要工人直接操作机器来完成工作。在工业化的历史上,即使是很初步的机械生产对手工业生产带来了极大的冲击也会引发社会的改变。第一次工业革命的发生地——英国就发生过手工业工人销毁蒸汽机带动的纺织机的的运动。但是,机器生产带来的生产力的极大提高,全体社会成员都从生产力的发展中大大提高了生活质量。所以机械化生产最终成为社会的主要生产方式,包括了工业生产和农业生产;甚至一些日常生活的服务工作也大量采用机械,比如洗衣机、空调等等。 自动化机器的应用,使得一些比较复杂的工作也可以由机器来完成。以智能制造为基础的第四次工业革命已经使得在一些自动化生产车间需要人工的岗位越来越少了。所以,有不少人认为,机器人上岗则会造成大量的工人失业,机器人直接夺走了工人的饭碗。而且随着机器人技术的成熟和广泛应用,这种趋势还在逐步扩大化。 据华盛顿邮报报道,一份美国白宫发布的报告指出,人工智能技术的普及有可能在美国导致数以百万的人失去工作,特别是受教育程度较低的工人。但人工智能技术对生产力的增长又至关重要。人工智能技术指导下的机器人的采用,对生产质量、生产效率、节约成本等关键指标的提高都有极大的好处。这可能导致更高的平均工资和更短的工作时间。在最后报告得出的结论是:我们的经济实际上需要更多的人工智能,而非更少。为了调和人工智能技术带来的好处和负面作用,报告指出美国政府应该一方面加强技术领域的教育,另一方面要扩大失业福利的范围,以支持这些因经济转型而失业的人。 由此可以知道,人工智能技术的普及可以大大地提高社会生产力,可以创造更多的社会财富,可以提高生活质量。工人失业,生活水平下降,其实是社会财富分配方式不能适应生产方式的改变的反映。一些工人可以通过技术培训、再教育而走上新的工作岗位。人工智能技术带来的更高的生产效率,产生更多的社会财富,可以带来更高的平均工资和更短的工作时间、更加广泛的失业福利,这些都是这种转型的基础。很多国家的有效力的政府都已经认识到这个问题,并且主动地采取了广泛的措施来开展这项转型工作。 所以智能化的自动技术造成工人失业的问题是一个社会问题,而不是技术问题。从这个角度来看,人工智能技术的广泛采用不仅会对生产的发展带来革命,而且也会推动社会的发展。 再来看看更加高级的人工智能技术的发展会不会对人类带来威胁?人工智能按照其智力水平可以分成三大类: 弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅长于单个方面技能的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要让它解决其它方面的问题,它可能需要重新学习积累知识,重新研究策略。 强人工智能Artificial General Intelligence (AGI): 人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。 超人工智能Artificial Superintelligence (ASI): 牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是人们对人工智能会毁灭人类这个话题这么火热的缘故。 强人工智能和超人工智能除了要模拟人类的理性思考能力(比如计算、逻辑分析、推理等)以外,还需要学会人类的感性思维技能(比如联想、感情、顿悟等)。对于感性思维技能方面运行机制和计算原理,目前几乎是一无所知。所以能否用现在的电子计算机实现强人工智能和超人工智能的可能性现在还是一个未知数。超强人工智能技术和超强人工智能的具体实现还有很大的差距。目前人类认识到的再高级的智能机器人也只不过是一些电子设备,它们在某些方面的技术功能可能大大超过人类,但是再复杂的设备也不可能具有违背自然规律的特性。人工智能机器要够完成强人工智能,甚至超人工智能必须要有比人脑更加合理(合乎自然规律)的机构和运行机制。可以说使用现在的简单电子元件的运行为基础的电子计算机要达到人类的智力水平可能需要把全部地球的物质用完还不够,或者需要消耗地球上(甚至全宇宙的)无法支持的能量。所以强人工智能和超人工智能的实现可能不是什么机器人了,而是人类自己的进化。当人类充分认识自己的进化规律以后,发展出更加进化的人类。所以那个进化并不是人类的毁灭,而是新的更加进化的人类会被人类自己的努力而更加快速地发展起来。 对于人工智能技术的控制问题我们可以回顾一下核武器的发展过程。二次世界大战中,人们为了赢得战争胜利发展了核武器。它的巨大的杀伤力引起世界人民的广泛关注,所以世界各国高度重视核武器的管理和控制。目前虽然世界上已经有足够毁灭人类好多次的核武器,但是没有人敢于轻易地使用它。这些核武器成为那些拥有核武器的国家之间平衡的威慑力量,使他们不能够轻易发动大规模战争。可以说核武器从一种战争武器,成为一种制止大规模战争的特殊力量。人类制造出了核武器,那么必须能够有效地控制核武器的使用,人类才能够在这个地球上共同生存下去。 与核武器类似,高级人工智能技术可能具有毁灭人类的能力。但是再高级的人工智能技术也是人类发展出来的一种技术,所以人类在开发这种技术的同时,也会发展出控制这种技术的能力。就好比人们不会去做一辆没有刹车的汽车,即使是它可能具有非常高超的人工智能的自动驾驶功能。目前人类生产的各种机器,比人类具有更强大的力量,跑的更快,飞得更高,当它们失控的时候的确会带来灾难,甚至伤害一些人的性命。但是它们是不可能战胜人类的。 舆论所指的高级人工智能可能会对人类造成伤害的一个主要因素是生物的生存原则。的确中自然界经过长期进化而生存下来的生物,当然包括人类,生存是基因能够延续的一项基本原则。但是被人为地制造出来的人工智能机器人,就不应该让它具有这个为了自己生存而伤害人类的规则,而应该具有为了人类可以牺牲自己的“社会性”原则。科幻作家阿西莫夫在1940年就提出了著名的机器人三原则,就是为保护人类的对机器人做出的规定。第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。这说明人类在发展人工智能技术的开始就已经注意到这个问题。 那么相信当技术发展到可以制造高级人工智能机器人的时候,人类一定有办法控制机器人不会对人类产生伤害。对于可以自我复制的机器人,也一定有办法在需要的时候可以控制它的复制过程。不会让它们无限制地自我复制而威胁到人类的安全。倒是要防止人类中的不法分子利用人工智能技术以危害人类的恶性目的来制造战争机器人。 所以可能毁灭人类的不是人工智能机器人,而可能是人类自己的恶性。随着科技的发展,人类社会也必须更加和谐地发展。特别是对于人的社会性的培养和维护也要能够适应社会生产力发展的步伐,不要使得人类自己制造的为人类服务的高级人工智能机器人成为能够危害人类自己的东西。那些科幻故事中智能机器人伤害人类的故事的确给人类以提醒,在开发那些智能机器人的时候应该充分注意采取足够的措施,包括赋予那些高级智能机器人足够的“社会性”特性,以及对这些机器人具有足够强的控制能力。 有些人担心因为高级智能机器人具有自己学习和进化能力,所以可能会自发地生产出一些对人类不利的,不可控制的特性。但是,不要忘记:机器人是人创造出来的。人类就是它们的“上帝”。那么除非有人故意在智能机器人中植入了与人类为敌的程序,否则机器人无论怎么学习,如何进化也不会产生与“上帝”为敌的特性。 “人工智能技术会毁灭人类”是一个忽悠全人类的谎言,可能是因为对人工智能技术的不够了解而产生的误识;也可能是某些恶性人员企图掩饰他们利用人工智能技术来实现的阴谋而是散布的舆论。与管理控制核武器类似,人类只要认真对待技术发展的失控,就可以很好地发展人工智能技术来为人类自身的发展服务。但是人类自身的恶的特性而“教坏”机器人才是应该加以大力防范的问题,就如防止核武器扩散到坏人手中一样。只要人类坚持正确的社会发展道路,在各种先进的科学技术的支持下,人类社会生产力的极大发展,会大大加快社会的进步,使得全人类可以有一个更加美好的生活。我对于人工智能技术的发展持乐观态度,更加不会去担心人工智能技术会毁灭人类。
|
|