翻译:王晓 中科院自动化所 高琳 青岛智能产业技术研究院 编辑:梁侨 德先生 当机器会学习,它们将以其程序设计员也自愧不如的速度发展出无法预料的策略。 大约在13年前,我出版了一本名为《控制论》的书。书中讨论了生物有机体和机器中的控制与通信相关的问题。当时,我对控制机器的发展及其相关的自动化技术进行了大量的预测,我预测这些技术将对未来社会产生重要的影响后果。现在,13年过去了,似乎应该来盘点一下控制论技术及其产生的社会后果在当前的情况了。 这意味着,尽管在理论上人类可对机器进行批评,但实际上这些批评在很长时间之内或之后,都可能是无效的。若要有效地抵御灾难性的后果,我们对于我们所制造的机器的认知发展应该与机器的性能表现发展相匹配起来。由于人类行动节奏缓慢,因此我们对于机器的有效控制很可能是作废的。等到我们能对感知器官传达过来的信息作出反应并刹住我们正在驾驶的汽车时,它可能已经一头扎进墙里了。 这些考量不但发生于机器的策略决定过程也发生在人类的策略决定中。这些都是在可编程的编程中会出现的问题。最低类型的博弈机器根据某一严格的评估方法进行博弈。许多测度,例如赢得或失去的棋子的价值、棋子的命令、棋子的移动性,等等,都可以在一定的经验基础上进行权重赋值,并在此基础上,针对每一种下一步可能的走法都给出一种符合博弈规则的加权方法。最终可能会选择具有最大权重的博弈策略。在这种情况下,机器的下法在它的敌手—这个人除了评估机器的下棋特点外没有其他选择—看来似乎是非常严格的。 灾难性后果不仅是在童话世界中是可预料的,而且在会发生在现实世界中,特别是当本质上毫无关联的两个机构为了实现一个共同的目标而耦合在一起时。如果对于这一目标性质而言,两个机构间的通信是不完备的,那么肯定可以预料到的是,合作的结果会不尽人意。如果为了实现我们的目标,我们使用一种这样的机械机构:一旦启动就无法对机器操作进行有效干预而且由于机器的运转是如此之快且不可撤销,以致于在机器完成其动作之前,我们没有数据来介入它的运行。那么最好确定,我们输入机器的目的就是我们真正渴望的目的,而不只是对这一目的的一个多彩的模仿。 |
|