分享

陈根:技术为什么不中立?

 陈根谈科技 2021-01-11

/陈根

互联网、人工智能等为代表信息技术的勃兴把社会推进了第三轮科技革命技术带来的效率进步毋庸置疑,这已经成为人类社会的共识。在这样的背景下人们似乎正毫无疑虑全面拥抱科技,希望能够给人类社会带来更好的未来。

然而,与过去的任何一个阶段的技术都不同的是,工业社会时代,人对于技术的敬畏是天然的、明显的,技术被看作理性的工具。而智能时代重塑了人与技术的关系,技术不再仅仅是“制造”和“使用”的方式,而是一种人化的自然

智能时代下,信息技术覆盖融合着人们的生活。对于技术的理解和驯化,调试人和技术的关系成为人们新近的关切。随着法律与科技之间的难题不断突现,复杂的困境和新兴的挑战迭起,过去的“技术中立”观念受到越来越多的质疑

科技的利好推迟了我们对技术副作用的反思然而,当行业发展的脚步放缓后,人们开始逐渐意识到这个时代技术不中立”,迟了那么多年的反思还是来了。

  

有目的的技术

论是第一次技术革命,蒸汽机推动生产效率提高;还是第二次技术革命,电力与内燃机大规模使用使得生产效率翻番,技术的本质,都与一开始人类祖先手中的石器并无二致——提升效率,拓展生活外延不同的是,现代技术受到现代科学的客观性影响具有客观面向

正因为现代技术被赋予科学的要素,以至于在很长一段时间里人们认为,这种来源于科学的技术本身并无所谓好坏的问题,其在伦理判断层面上是中立的。其中,技术中立的含义被分别从功能责任和价值的角度证实

功能中立认为技术在发挥其功能和作用的过程中遵循了自身的功能机制和原理,技术就实现了其使命。在互联网方面,功能中立尤其体现在网络中立互联网的网络运营商和提供者在数据传输和信息内容传递上一视同仁地对待网络用户,对用户需求保持中立,而不得提供差别对待。

责任中立把技术功能与实践后果相分离,技术使用者和实施者不能对技术作用于社会的负面效果承担责任只要他们对此没有主观上的故意也就是所谓的菜刀理论菜刀既可以切菜,也可以杀人,但菜刀的生产者不能对有人用菜刀杀人的后果承担责任。

但不论是技术的功能中立,还是责任中立,都指向了技术的价值中立。显然,在第三次工业革命里,围绕着技术的行为从设想技术,到开发技术传播技术、应用技术、管制技术等,没有一个存在所谓中立人们的价值观早已融入到我们设计和建造的一切中

与随机杂乱、物竞天择的进化过程不同,技术是发明者意志的产物,是为了达成某种目的而形成的。尽管技术包含着一个客观结构,但技术同时服务于人的目的理性活动这意味着,它在诞生前就已经被概念化谨慎思考过。每一个新的创造都是为了满足需求,实现目的。

当市场是一片空白时,处处是蓝海。无论产品质量如何,都满足涌进互联网的新用户的消费需求。而在增量市场成为过去式后,竞争变成了一场存量的争夺。于是,在消费互联网的下半场,当用户规模不再增长时,科技公司为了生存就只能从技术的角度,开发更多符合商业价值的产品

而在这个过程中,技术中立则必然受到商业偏好的影响。这就是亚伯拉罕·卡普兰的工具法则——人们只有一把锤子时,所有的东西看起来都像钉子资本逐利是商业价值的根本,“中立”已无从谈起。

  

不中立的技术

实际上,“技术不中立”并不是一个新近的概念。甚至早在2014年,白宫发布的《大数据:抓住机遇,保存价值战略白皮书就已有暗示。

白皮书强调技术第一定律的重要性技术没有好与不好之分,但技术也不是中立的”。但是,背景和环境大数据的迅猛发展,是美国制定数据安全的风险管理作为以数据为中心战略重点美国以数据的武器化确保信息优势决策优势

在技术昭示了人们的技术目的时,充斥着人们的商业取向时,走向“技术不中立”成为必然的趋势。数据收集是人工智能技术设计进入实践领域的起点,而人工智能侵权在此阶段便已悄然产生。

事实上,人工智能时代以Web2.0作为连接点沟通着现实世界与网络虚拟世界,而政府和企业则利用 Web2.0不可估量的数据收集功能将网络用户活动的任何痕迹都作为数据收集起来,未经加密的数据使得蕴含于其中的大量个人信息和隐私犹如“裸奔”被他人为谋取私利泄漏或进行不法利用。这就是技术不中立的第一步

随着大数据和人工智能迅猛发展,当前,私人空间与公共空间的界限已经日益模糊,它无所不在且具体而微,以隐蔽的微观渠道抵达用户的身体和姿态并弥散于生活的每一个角落。人工智能技术俨然成为了福柯意义上的一种承载权力的知识形态,它的创新伴随而来的是控制社会的微观权力的增长。它掌握在国家手中,也可以被企业、公司所拥有。

于是,在技术创新发展的时代,曾经的私人信息在信息拥有者不知情的情况下被收集、复制、传播和利用。这不仅使得隐私侵权现象能够在任何时间、地点的不同关系中生产出来,还使得企业将占据的信息资源通过数据处理转化成商业价值并再一次通过人工智能媒介反作用于用户意志和欲求。这是技术不中立的第二步。

现在,人工智能时代算法对人类的影响几乎渗透到了生活各领域并逐渐接管世界,诸多个人、企业、公共决策背后都有算法的参与。与传统机器学习不同,深度学习背后的人工智能算法并不遵循数据采集输入、特征提取选择、逻辑推理预测的旧范式,而是依据事物最初始特征自动学习并进一步生成更高级的认知结果。

这意味着,在人工智能输入数据与输出答案之间,存在着们无法洞悉的隐层也就是所谓的黑箱倘若人们以一个简单的、直线的因果逻辑,或以数学上可计算的指数增加的关联来描述这个关系时,黑箱”则的,黑箱里的运作是可控的、输出结果是可预料的。

  

然而,一旦黑箱子不是人们所描述的情形时,箱子就是的,人们必须接受输入并不是明确决定了输出,反而是系统自身(即黑箱子)自己在决定自己。这一点很重要,显然,未来的技术可能比今天的技术更强大,影响更深远。当人工智能做出自己的道德选择时,继续坚持技术中立将毫无意义这是技术不中立的第三步。

当然,技术受科技客观性的影响有其自身的发展模式和逻辑,这种客观面向使其可以成为人类社会可把握可依赖的工具,但技术设计者或者团体同样会有自己的价值导向并根据其价值观设计对科学意义的承诺

与此同时,科技设计者在理解科学意义时无法摆脱社会价值的影响。这意味着,任何技术都不是简单从自然中获取,是在特定历史环境、特定文化背景、特定意识形态下结合技术设计者的目的判断而建构起来的

人工智能时代,技术早已不中立。当下,科技已经逐渐显示出副作用。这背后的逻辑是社会解释系统的发展已经远远滞后于科技的发展。技术由人创造,为人服务这也将使我们的价值观变得更加重要。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多