机器人毁灭人类?五角大楼制定了五条人工智能伦理,真的管用吗? 7月11日,2020世界人工智能大会云端峰会在上海落下帷幕,这次疫情期间的大会显得十分特殊,人工智能说到底,还是为人类服务的,马云在这次大会上说到“为活下去而做的创新才是真正最强大和不可阻挡的动力”。 人工智能不同于前三次工业革命,人工智能的发展具有很大的不确定性,这种不确定性很有可能会威胁到人类本身的安全,几年前人工智能与世界冠军下围棋的情景还历历在目,当时引起了全世界的轰动,谷歌旗下DeepMind公司的团队开发的AlphaGo多次击败人类围棋世界冠军李世石。随后,AlphaGo Zero又在无任何数据输入的情况下,自学围棋3天后,以100:0横扫了第二版本的AlphaGo;学习40天后又战胜了在人类高手看来不可企及的第三个版本AlphaGo Master。 最可怕的是,人类高手在复盘时发现根本无法判断机器人下一步该怎么走,这也就意味着,人工智能的思路已经远超正常人的思维模式,也许人工智能被开发出来以后,通过自我的学习,人工智能会最终摆脱人类的控制,结局无法想象,人类可能会毁在自己创造的智能手里。 人工智能的技术基础是大数据、计算和深度学习。基于这种技术的人工智能有两种发展方向,一种是模仿人的思维。这个方向大家基本可以理解,通过机器学习人的思考模式和工作方法,这方面的应用比较多,比如在医学上用机器人代替医生做手术。但这是,我们都清楚人的思维在很多方面都是有局限性的,如果一直在人思维路径里打转转,人工智能的发展就很难有大的突破。 于是第二种研究方向出现了,就是智能增强。智能增强的最大特点就是纯机器学习,上面我们举的那个例子,AlphaGo Zero在无任何数据输入的情况下,自学围棋3天后,以100:0横扫了第二版本的AlphaGo,这就是智能增强。 而这个智能增强是很可怕的事情,如果机器人自主学习,可以通过我们人类本身没有的思路来思考问题,那么没人可以保证人类可以和机器人和平共处,可能他们会帮助我们,他们也可能灭亡我们,霍金曾表示,我们必须重视人工智能的发展,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。 如何解决这个问题呢?我们看看美国五角大楼发布了一个人工智能五大伦理原则, 1.“负责”,指开发者和使用者须对人工智能系统的开发、部署、使用和造成的结果负责。 2.“公平”,指五角大楼应最大限度减少人为偏差对人工智能系统的影响。 3.“可追踪”,指人工智能系统在其使用周期内的透明性 4、“可靠”,五角大楼给出的定义是“安全、稳定和有效”。 5.“可控”,指人工智能系统探测和避免意外发生的能力 如果真的发生意外,这五条原则是否能控制住局面也并不是一个确定的事情,人类如果通过自己的智慧去考虑比自己更高智的存在,那最终必然被他们彻彻底底的打败。 |
|
来自: 赵站长的博客 > 《黄金法则和白金法则和黑金法则》