分享

算法之下:数字信任还是专家信任? | 数字社会

 heshingshih 2023-10-02 发布于北京

 导 读 

在高度分工的现代社会,专家系统在社会信任建构中扮演着重要角色。人们依赖专家为其各种决策提供支持,甚至给出决定性意见。近年来,随着AI技术的飞速发展,算法越来越多地应用到人们的社会生产、生活实践中,公众在决策过程中多了一种选择:可以信任专家,也可以信任算法。算法自主性程度、任务风险大小以及人类和算法的交互程度,影响着公众选择信任算法还是信任专家。智能社会中,公众需要正确认识专家地位并包容其认知局限性,不盲从、不苛责,更需要提升自身算法素养,校准人机信任。

图片

算法之下:数字信任还是专家信任?

作者:吴新慧


 摘 要 

随着算法的广泛应用,公众在决策过程中多了一种选择:可以信任专家,也可以信任算法。算法是在软件中提供控制加逻辑的工具,具有不透明性、不确定性和权威性等特征。算法自主性程度、任务风险大小以及人类和算法的交互程度影响着公众选择信任算法还是专家。媒介算法中的内容生产使专家识别变得困难,面对众多“专家意见”,人们无所适从;搜索、推荐算法带来的“以自我为中心的偏见”和“回声室”效应,使个人更加固执己见;咨询算法、人机虚拟团队提高了专家能力,但不必然带来公众对专家的更高评价;执行算法则加深了公众对专家的依赖。当前的智能社会,公众需要认识专家地位及其认知局限性,不盲从、不苛责,更需要提升自身算法素养,校准人机信任。

 关键词 :算法 算法信任 专家信任 智能社会


在人类历史中,对专家和专家系统的信任是支撑人类社会信任的重要机制。专家是指能够成功地占有外行所不具备的具体技能或专门知识的人;专家系统则是由技术成就和职业队伍所组成的体系。[1]专家系统能够对各种现象进行提取、归纳、总结并应用于现实生活,使在场与不在场彼此含涉,帮助人们实现时空分延与能力扩展,进而帮助个体进行效益预期和风险规避,促进整个社会的理性化运转。[2]人类对专家和专家系统的信任是一个动态变迁的过程。在传统社会,人们敬畏自然和神灵;伴随启蒙运动的开展,自然逐步“去魅”,技术介入自然和社会,专业知识的权威被无限放大。19世纪以来,随着社会分工的扩大和学科的分化,掌握专业知识的专家系统逐渐享有至高无上的权威。但进入20世纪60年代后,伴随着“科学大战”,专家认知的局限性与专业知识的“常识化”逐步消解了专家系统的权威。专家面临着“无论说什么、无论怎么说,公众都不信的'专家塔西佗陷阱’”[3]。

近年来,随着人工智能、机器学习和自主决策等技术的新突破,算法越来越多地应用到人们的社会生产、生活实践中:算法生成新闻推荐、推送个性化广告、监管社交媒体、自动生成新闻、作出医疗决策、进行刑事判决,等等,人们的决策越来越多地受到算法影响。“算法不仅是抽象的计算过程,而且具有确定物质现实和人们的生活的能力。”[4]鉴于算法日益强大的功能,我们不禁要问,面对机器算法和人类专家,公众是选择信任算法还是专家?

 算法及其特征 
 

早在公元前1世纪,中国最古老的天文学和数学著作《周髀算经》就对算法、演算法有论述。9世纪波斯数学家al-Khwarizmi在数学上提出了“算法”这个概念。12世纪,算法被看作是“执行书面初等算术的具体分步方法”[5]。1842年,世界上第一位程序员Ada Byron为巴贝奇分析机编写了求解伯努利方程的程序。到了20世纪中叶,随着科学计算和早期高级编程语言的发展,算法被看作是产生特定输出的一组定义步骤:“如果按照正确的顺序执行,将计算处理输入指令或数据,以产生预期结果。”[6]

在计算机科学家看来,算法是可以在软件中提供控制加逻辑的工具。科瓦尔斯基提出著名的“逻辑+控制”定义:“一个算法可以被视为由一个逻辑组件和一个控制组件组成,逻辑组件指定了在解决问题时要使用的知识,控制组件决定了使用这些知识的解决问题策略。逻辑组件决定了算法的意义,而控制组件影响提高效率。”[7]当将此定义应用于计算领域时,算法逻辑就发挥了作用,它精确地解释了计算机执行为其编程的任务的过程:“编程语言”分配给计算机任务,指示计算机以必要程序解决特定的人类需求,而算法操作逻辑使计算机能够理解任务特征、执行任务。[8]算法将某个值或一组值作为输入,并生成某个值或一组值作为输出,具有有穷性、确定性、可行性等特征。除了这些技术特征外,算法作为社会技术组合的一部分,还具有一些社会特征。

算法具有不透明性。由于其复杂性以及从输入到输出的非透明抽象流,算法运算被称为“黑匣子”。在代码中,算法通常与数百种其他算法结合在一起以创建算法系统,算法系统运算的复杂性增加了其不透明性。算法通过新数据的交互实现不断发展,具有不断变化的性质,甚至它们的创造者也无法完全跟踪、解释或预测其运行,算法这种变化性也增加了其不透明性。此外,算法的编码通常发生在私有领域,往往对公众不透明,不公开。

算法效果具有不确定性。算法的效果并不总是线性或可预测的,用户面临着未实现预期的风险。算法在实践中以多种方式展开工作,并被不断细化、扩展和修补,经过各种版本迭代的算法往往与初始版本大相径庭。输入劣质数据、错误数据或者编码错误都将出现算法结果偏差,导致算法“失控”。如果无人看管,算法可能会执行意外行为,产生副作用和意外后果。

算法具有算法权威。“算法在我们的生活中裁决越来越多的重要决定……由大量数据驱动的算法是社会上新的权力经纪人。”[9]算法会做一些事情,虽然它们做这些事情是通过运行程序来实现的,在算法运行之前,用户相信它们会采取某些行动,且监管机构允许它们做这些事情。但是当算法一旦运行,算法即具有“算法权威”,即算法指导人类行为和验证信息的权威,而不完全依赖于人类权威。[10]与人类专家具有魅力权威和理性法律权威不同,算法主要具有法理权威但不仅限于法理权威。为了维护算法的合法性、权威性,算法必须被表示为客观的、以“纯粹理性存在”的形式。在计算机科学文本中,重点是如何设计算法、确定效率,并从纯技术角度证明其最佳性,在实践中则强调如何执行特定任务。被赋予权力的算法拥有以自主、自动方式行事的权力,不仅可以使软件运行,而且还可以直接地(通过异质化算法)或间接地(通过公共关联算法的知识构建)让人类行动者作出相应反应。

 公众信任算法还是专家? 
 

虽然算法在各个领域中的利用率不断提高,但公众在决策过程中仍可以在专家意见和算法意见之间进行选择。在专家和算法之间,公众更倾向于选择信任哪一方?又有哪些因素影响公众的选择?

(一)公众的算法态度及影响因素

关于公众算法态度,研究发现了“算法厌恶”“算法欣赏”以及“自动化偏误”等几种不同的态度。算法厌恶认为,即使算法比人类专家能更好地解决问题,但当人们面临选择时,还是更加重视人类专家意见。[11]公众更加重视专家的陈述,他们认为只有人类才能作出完美的预测;与人类相比,个人对算法性能的准确性和一致性的期望更高,当意识到某一算法并不完美时,用户更有可能责怪并惩罚该算法。[12]如果犯了错误,相比算法,人类更能容忍专家。“算法欣赏”则提出,人类更多地依靠算法建议而不是人类建议。哈佛商学院研究人员通过实验发现,人们在对视觉刺激进行数字估计、预测歌曲流行程度和浪漫吸引力时,非专业人士认为来自算法的建议比来自个人的建议更能吸引他们。[13]除了算法欣赏,还有研究发现,个人表现出对算法决策辅助工具的过度依赖行为,人们可能会偏爱自动化工具,而不是使用它来增强自己的专业判断力,当人们的信任超过了算法的实际能力,就会出现“自动化偏差”[14]。

不论是“算法厌恶”“算法欣赏”还是“自动化偏差”,都是人类在算法信任和专家信任之间进行选择的结果。信任是对在不确定性条件下用户可以依靠代理实现目标的程度的一种态度判断。[15]影响公众在算法和专家之间进行选择的因素是多样的,往往涉及绩效(算法系统现在做的以及将来能够做的事情)、目的(人们为什么使用算法以及它是否执行这些功能)和过程(算法功能的好坏、是否可靠)等因素的考量。[16]算法性能信息、任务类型等影响公众的选择。研究发现,当算法与人类专家的准确率相近时,用户会选择人类专家来作决定;如果算法具有更高的准确率,则用户会选择算法;当用户没有获得算法与人类专家的绩效信息时,他们对算法的厌恶感明显较低。[17]用户看到算法失败后会更加愤怒,也不太可能将决策委派给算法[18];当自动化算法系统故障超过30%时,用户会停用 [19];当自动化算法错误少于30%时,用户很可能毫不怀疑地使用自动化算法系统,从而导致“自动化偏差”。

面对不同类型的任务时,公众对算法与专家的态度也不同。人们通常认为算法缺乏专业知识、自主权,缺乏诸如同理心等人类能力,因而无法解释用户的独特特征,完成高度主观的任务。[20]但算法可以更好地执行客观、可量化的任务。[21]在作出反映个人品位的决策时,公众依靠专家或朋友建议而不是算法;相反,在具有具体外部准确性标准的领域,诸如投资决策或体育预测等,算法建议可能会让个人感到更合适。公众对算法和专家的态度还在一定程度上取决于看起来的“算法合适”[22],气象模型、算法搜索引擎等都有较长时间的应用,并取得了较好的效果,当遇到这类任务时,公众的信任天平自然地偏向算法。

(二)算法自主性、任务风险强度、交互强度的相互影响

面对不同领域、不同类型的任务,公众与算法的交互强度不同,可以将人与算法之间的交互分为低强度交互(独立)、中强度交互(可选)和高强度交互(依赖)。交互强度、算法自主性、任务风险强度的相互影响,对公众的信任选择产生重要影响。

1.算法自主性程度与交互强度

算法应用旨在解决某些问题或完成定义的任务,不同算法其自主性程度不同,留给人类的自主权程度也不同。算法自主性越强,人类对算法的控制权越小,控制感越低。本文主要基于当前常见的媒介算法(内容生产、检索算法、推荐算法)、自动化、人工智能等展开讨论。自动化的程度由低到高,可以分为手动控制、行动支持、批量处理、共享控制、决策支持、混合决策、刚性系统、自动决策、监督控制和全自动化等十个等级。[23]人工智能应用中还可以根据AI算法的自主程度,分为咨询算法和执行算法。咨询算法向用户提供辅助决策的支持,决策者可以自主决定是部分遵循建议还是完全遵循建议;执行算法则通过收集信息、执行决策以独立完成决策,人类负责监视算法性能和评估结果。

当算法低自主性-低交互性时,人类独立于算法作出决策,对事件的把控权掌握在人类手中;当算法低自主性-高交互性时,虽然人类对算法的意见有较高的依赖性,需要依赖算法给出准确的建议,但是人类对算法有掌控权,能在一定程度上掌握算法运行的方式和方向。当算法高自主性-低交互性时,虽然算法能自主地完成一些任务,但是人类未对其形成依赖,可以自主作出决策;算法高自主性-高交互性时,算法有自主运行的能力,人类对算法有着较强的依赖,在这个过程中,人类处于被动的地位。具体来看,媒介算法、咨询算法等虽然能自主地向用户推荐信息、提出辅助建议,但人类用户在是否接受建议、多大程度接受建议上有很大的自主权;而当算法纳入管理和治理过程时,全自动决策过程通常只传达决策结果,几乎没有任何空间让人类参与决策本身,人类用户对决策中使用的数据、如何决策一无所知,事后监督评估更是难上加难。

2.风险强度与交互强度

“信任是委托人承担风险的意愿”[24],信任通常与行为者的脆弱性或风险相关。委托人向受托人寻求帮助以实现其目标,往往是由于其以自身能力或其他方式实现目标的不确定性。在这个过程中,存在受托人失败的可能性,其结果便是“关系中的风险承担”。算法模型为人类决策者提供建议,这些决策过程既包括高风险领域,如判决、信用决策、医疗和雇佣,又包括低风险领域,如个性化购物、进餐计划、音乐推荐等。面对不同的风险等级,人们的感受和行为模式不同:当一个人处于自认为高风险的境况中时,安全感下降,恐惧和担忧盛行,行事会更加谨慎。

不同风险强度-交互强度的人机关系,对算法和专家的信任需求不同。在低风险-低交互中,公众可以相对独立地实现任务,对算法只有简单的依赖关系,几乎不会存在对算法的担心;低风险-中交互中,公众面对诸如美食推荐、酒店搜索等风险低的任务时,对算法有一定的依赖;低风险-高交互中,公众通过诸如扫地机器人、智能洗衣机、智能电饭煲中的算法帮其完成一些工作,以减轻日常家务劳动的负担,这些任务风险程度低,但公众对算法的依赖性强。在低风险任务中,公众在与算法的交互中几乎没有固有的威胁,公众对算法的信任需求低,甚至并不关心结构性保护措施的存在;由于算法的性能和效率远高于专家,且算法的获得成本远低于专家,可及性高,于是公众更倾向于选择信任算法,而非专家。

高风险-低交互中,在诸如有毒、高温等恶劣环境中,人类依靠算法、自动化设备完成工作。在任务执行过程中,人类设计好程序,算法与机器自动、自主执行,人机交互程度低。在这个过程中,保障算法的良好性能非常重要。高风险-中交互中,面对高风险任务,人类对于算法可以自主选择用或者不用,以及哪些时刻用,体现为部分信任或短时信任算法。诸如自动驾驶中,虽然任务执行中风险程度高,但是人类可以在自动驾驶和人工驾驶之间进行选择,可以在道路交通状况不好的路段选择人工驾驶,而在道路交通状况良好的路段选择自动驾驶。高风险-高交互中,诸如面对重大疾病医疗决策等高风险任务,公众由于缺乏专业医疗知识,不得不将生命托付给算法和专家。公众对算法和专家的态度是“信任但要核实”。他们通过职称、口碑等对专家进行评价,对专家的能力等作出判断;基于经验和认知判断算法能力,相信算法性能以及结构性保护措施能保障其稳定运行。在这个决策过程中,最重要的是对医生的信任,公众基于对医生专业能力的信任而信任算法能为医生所用,帮助其开展正确的治疗。在高风险情境中,公众往往会认为任何保护措施都不够,对算法是一种“不得不”信任的状态,且通常是基于对专家的信任而信任算法。

 算法应用对公众专家信任的影响
 

随着技术进步,算法和算法组合技术框架得到发展,算法有效地对任务进行分类,优化和优先排序;人类应用算法以减少人工工作量或错误,提高效率、速度和安全性。

(一)媒介算法与专家信任

内容生成、搜索算法、推荐算法等算法技术使媒体由传统的信息载体变身为“智媒”,大大改变了媒介内容的生产模式、公众信息获得的范围和内容,同时也给专家信任带来影响。

1.内容生成与专家识别

随着网络技术、社交空间的发展,专业知识传播更加便捷、多元。专家越来越多地使用博客、微博、在线社区以及专业网站发布新想法、新思想;新手专家、伪专家也在各种网络空间中发表见解。与此同时,算法在内容生产中发挥着越来越重要的作用。在网络空间中,除了人类专家自主编写的内容外,还有机器生产的内容以及人机混合生产的内容。自然语言生成算法被用来独立生成完整的体育、经济和突发新闻信息,并基于对受众阅读行为的测量,进行精准推送。人机混合方法也被广泛用于Web社区的内容生产:社区以Wiki格式部署初始门户,机器以半自动方式从大量数据源中提取和集成数据,再邀请社区成员修改和添加材料,实现以最少的投入保持门户网站的更新。在维基百科的创建过程中,算法帮助创建新文章、编辑现有文章、执行规则和标准、检查垃圾邮件和故意破坏行为,支持百科全书的行政工作。[25]各种机器算法基于网络大数据生产内容,由于信息源的多元性、不可靠性,机器生产内容的准确性、可靠性各不相同。又由于算法的“黑箱”特质,公众无法对算法进行评价,而只能去评判专家。面对网络中泥沙俱下的信息,专家识别成为影响公众对专家态度的重要问题。

在“科学传播1.0”时代,公众可以通过多种渠道对专家能力作出判断;但是在线上,判断专家诸如专业领域、隶属关系、教育水平等相关信息来源可信度的有效线索并不明显。由于缺乏面对面的互动,表情、手势、外观这些信誉提示也变得不适用。公众只能使用文本本身所提供的信息来推断消息可信度。对于公众而言,评估“什么是真实的”很难,因为直接观察科学发现通常是不可能的,全面理解科学信息需要专家的专业知识,公众需要服从并依赖专家以作出判断。于是,在某一领域中当面临众多意见及科学分歧时,公众往往难以分辨专家身份、评估专家证言。

2.搜索、推荐算法与专家信任

在浩如烟海的信息中,搜索算法、推荐算法大大提高了人们信息获取的效率。这些算法通过算法代码获取、过滤、分类和排序数据,使某些信息不可见的同时突出显示其他信息,算法直接影响用户能接触到哪些内容。搜索算法根据用户的输入决定提供的内容,用户只需在搜索引擎中键入某个关键词,就可以得到问题的答案。推荐算法则根据用户在互联网中的历史行为数据过滤信息,根据个人偏好向其提供信息和推送服务。

当人们面对问题时,需要将不同来源的外部信息与内部信息相结合,以作出判断和决策。“以自我为中心的偏见”认为,决策者倾向于认为自己的意见要优于其他人(包括顾问)的意见和建议。当顾问拥有更多与任务相关的专业知识时,他们就会拥有“专家权力”。但搜索算法使得公众可以非常方便地获得所需的专业信息,如果本人意见和专家意见相左,本人意见又通过搜索算法得到了更多的检索证据,“以自我为中心的偏见”将影响其对专家意见的接纳。另外,算法在新闻服务或社交网络中精确地根据用户的偏好定制信息,推荐算法则根据用户偏好为其推送满足个性化需求的信息。人们被算法引入“信息茧房”,在那里观点的自由交流被阻断,个体信息无法全面发展,“每个人的世界图景都只是他们所希望看到的,而不是世界本来应该拥有的样子”[26],信息茧房中的“回声室”效应使公众更加固执己见,更加坚定地支持或者反对专家意见。

(二)人工智能与专家信任

近年来,AI技术实现了从“不能用、不好用”到“可以用”的突破,并迎来爆发式增长。AI被用于改善涉及系统不确定性和复杂性的决策,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等。根据AI完成的任务类型,可分为专注解决特定领域问题的弱AI和执行“通用任务”的强AI;根据AI的自主性不同,可分为咨询算法和执行算法。

1.咨询算法与专家信任

面对一项较复杂的问题,人类可以向提供咨询的决策辅助工具求助。诸如Siri、小爱、小度等语音聊天系统,通过强大的网络检索功能获得答案,并能模仿人类语言结构,以类似于人类的方式与人进行交互,为人类提供咨询服务。专家系统算法则是一种模拟人类专家决策过程解决专业领域问题的计算机算法系统。它应用AI技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,以解决那些需要人类专家处理的复杂问题。专家系统算法可以完成分析任务(预测、分类、诊断和决策)和综合任务(生成替代方案、设计、配置和计划等)。专家系统算法通过在知识库中模拟专家思维方式来实现问题求解,知识库中知识的数量和质量决定其质量水平。但是由于缺乏学习能力,专家系统算法普遍无法通过已有经历改善自身性能、自主地获取新知识,不能自行修正知识体系中的错误。

咨询算法在执行任务中并非完美,专家也会出错;鉴于人类和机器又具有互补的优势和能力,专家和自动决策辅助算法结合产生一个高绩效虚拟团队。在这个虚拟团队中,AI决策辅助系统可以加快决策速度,专家则检查AI的推论,确定AI是否可以信任。虚拟团队可以成功规避人工决策者单独决策犯下的错误,如使用医疗专家算法系统的医生、法官都超过任何一个独立专家的能力。[27]在虚拟团队中,专家意见至关重要,团队的成功取决于专家正确地决定何时遵循AI系统的建议,何时撤销。如果专家在可能出错的区域错误地信任AI系统,则可能发生灾难性的故障。然而决策辅助工具、虚拟团队应用并不一定提高公众对专家的信任。有研究发现,患者对使用知名大学开发的决策辅助工具的医生的评价要高于使用一般决策辅助工具的医生[28];与那些没有算法支持作出错误决策的医生相比,患者对那些拥有算法支持却作出了错误决策的医生评价更低;患者对医生个人正确诊断的评价要高于人机混合得出的正确结论。[29]

2.执行算法与专家信任

执行算法具有一定程度的“自我治理”或“自我指导”能力,通常可以通过算法工作来代替人类决策。执行算法通过外部信息(传感器/输入)保持适当的条件,自动执行管理决策、员工选拔或制定医疗决策等高度复杂的任务;还可以动态设定自己的目标,并在无人监督的情况下实现目标。当然,也有可能以意想不到的方式发展。面对执行算法,公众理论上可以选择是否将决策委托给算法,是否在算法执行后监视过程和评估结果。但在现实中,当算法被赋予了对数据采取行动并作出相应决定的权力后,它们基本上是黑盒;公众几乎没有关于系统状态的原始数据,无法解释算法为什么作出特定的决定,用户对算法执行的过程监视和结果评估是很困难的。此外,算法不给予反馈,缺乏反馈使得用户无法预测自己的任务和机器任务之间可能存在的干扰,用户被迫采用反应性策略,而非确保长期适应的预期策略。

面对具有更高自主性的执行算法,公众需要建立信任。在与算法建立联系的早期,由于没有算法使用经验,用户对算法的信任取决于目的而不是表现。用户通过阅读人机界面提供的信息以及培训文件了解算法目的,此时用户建立起对算法的目的信任;随着经验增加,用户可以感受到可靠性,进而感受到可预测性。[30]也就是说,公众建立算法信任的过程,首先是发展信念,其次是对技术操作的理解,最后是反复试验的经验带来可预测性和信任。对算法初始的信任,往往源于对算法开发者以及算法完成目的的信任;之后运行过程中的信任则包括对执行者、监管者等不同领域专家通过制度设计、安全设置实现算法情境正常和结构保证的信任。公众在“不得不”信任执行算法的同时,对专家的依赖增强,对专家不是“仿佛信任”,而是“只能信任”。

 智能社会适宜信任关系发展
 

在未来人机共存的时代,算法自主性逐渐增强,人机交互强度进一步提升。鉴于专家和算法都有可能犯错,两者相互协作必不可少。面对这样的情况,公众不是要在专家和算法之间作出非此即彼的选择,而是要在两者之间发展适宜的信任关系。

正确认识专家、信任专家,不盲从、不苛责。随着智能时代的到来,专家不仅是“可以在困难、危险或技术含量高的事情上合理依靠的人”[31],更是智能社会安全运转的核心,是全人类需要依靠的人。专家既是各种算法的用户,也是算法的研究者、开发者,还是算法的维护者、调整者、解读者,更是算法问题的解决者。算法是由算法工程师、机器人工程师等算法领域专家设计和研发的。算法系统的正常运行,需要众多的专家维护和修正。由于算法的“黑箱”特质,公众无法知晓算法的运作模式和存在的问题,算法性能信息、失败反馈等需要由算法领域专家单独或者联合算法给出。面对算法带来的问题,法律、管理、社会科学等各学科领域内的专家,需要通过制定法律、法规、行业规范以及创建技术伦理等制度加以解决。在智能社会,专家处于核心地位,公众对专家会有更深的依赖。

与此同时,公众必须认识到,专家能力是有局限性的,在某种意义上,专家是“科学无知”的。[32]某一领域的专家往往只关注较窄的专业领域,而较少关心更为广泛的后果,缺乏对整体的预知和控制。当面对涉及计算机、心理学、哲学、语言学等众多学科领域的人工智能等一系列新技术时,当面对社会学、政治学、法学、伦理学、人工智能科学等智能社会治理问题时,多学科、全能型专家并不多。此外,随着专家的理论知识和实践经验的积累,其对待同一问题的思维方式、研究方法也会发生变化,结论也会改变。[33]面对非全能的专家,公众一方面要有自主独立思考的能力,不盲从于专家;另一方面则需要对专家有更多的包容,不苛责专家。

面对算法(尤其是人工智能)的不断发展,公众一方面恐惧被算法奴役,排斥算法;另一方面,又享受算法带来的便利,失去独立思考能力,依赖算法。尽管算法的可靠性会随环境不同而发生变化,但公众通常无法校准对算法的信任,或者低估了算法的能力,或者高估了算法的可靠性。信任不足会延缓技术发展,过度信任则可能带来灾难性的后果。面对算法的发展,需要培育公众算法素养。算法素养是指算法使用者在面对算法时的意识、想象和可能采取的策略。[34]在发展算法素养时,首先,需要发展公众的算法意识。通过宣传教育,让公众认识算法,培育其关注和发现关于算法的意识、兴趣和敏感性。其次,要培育公众的算法想象,即通过教育和培训,帮助公众了解算法的大致工作原理与模式、优点与不足,引导公众思考算法是什么、应该是什么,以及如何发挥作用等问题。再次,要发展公众算法策略,使公众对算法运用于特定决策时可能产生的社会后果、道德和伦理问题有清醒的意识,对算法带来的控制和其他风险有足够的识别与反抗能力。通过算法素养的培育,帮助公众在纷繁复杂的社会生活中,了解算法、认识算法,不断地校准对算法的信任水平,发展正确的人机信任,更好地使算法为人类所用。

 注释

[1][32](英)安东尼·吉登斯:《现代性的后果》,田禾译,南京,译林出版社,2011年。

[2]杨启飞:《晚期现代社会中的专家信任危机及重塑》,《青年记者》,2020年第5期。

[3]郭喨、张学义:《“专家信任”及其重建策略:一项实证研究》,《自然辩证法通讯》,2017年第4期。

[4] Bucher T. The algorithmic imaginary: exploring the ordinary affects of Facebook algorithms. Information, communication & society, 2017, 20(1): 30-44.

[5][6]Kitchin R. Thinking critically about and researching algorithms. Information, communication & society, 2017, 20(1): 14-29.

[7] Kowalski, Robert. Algorithm = Logic + Control .Communications of the ACM .1979:22 (7): 424-36.

[8] Zuin A Á S, Zuin V G. The authority of the teacher in the context digital algorithmic authority Pro-Posições, 2019, 30.

[9]Diakopoulos N. Algorithmic accountability reporting: On the investigation of black boxes. 2014.

[10]Lustig C, Pine K, Nardi B, et al. Algorithmic authority: the ethics, politics, and economics of algorithms that interpret, decide, and manage.Proceedings of the 2016 CHI Conference Extended Abstracts on Human Factors in Computing Systems. 2016, 1057-1062.

[11]Dietvorst, B., J. P. Simmons, C. Massey. Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 2015,144(1):114-126. 

[12]Castelo, N., M. W. Bos , D. R. Lehmann.Task-Dependent Algorithm Aversion. Journal of Marketing Research, 2019,56(5):809-825.

[13][22]Logg, J. M., Minson, J. A., Moore, D. A. Algorithm appreciation: people prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 2019,151:90-103.

[14] Mosier, K. L., Skitka, L. J., Heers, S., & Burdick, M. Automation bias: Decision making and performance in high-tech cockpits. The International journal of aviation psychology, 1998.8(1), 47-63.

[15][18]Lee M K. Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management . Big Data & Society, 2018, 5(1).

[16]Lee, J. D., See, K. A.Trust in automation: Designing for appropriate reliance.Human Factors, 2004. 46(1): 50-80.

[17]Longoni C, Bonezzi A, Morewedge C K. Resistance to medical artificial intelligence. Journal of Consumer Research, 2019, 46(4): 629-650.

[19]Castelo, N., M. W. Bos , D. R. Lehmann.Task-Dependent Algorithm Aversion. Journal of Marketing Research, 2019,56(5):809-825.

[20]Leyer, M. and S. Schneider.“Me, You or Ai? How Do We Feel About Delegation.”Proceedings of the 27th European Conference on Information Systems (ECIS).2019.

[21]Drnec K, Marathe A R, Lukos J R, et al. From trust in automation to decision neuroscience: applying cognitive neuroscience methods to understand and improve interaction decisions involved in human automation interaction. Frontiers in human neuroscience, 2016, 10: 290.

[23]Mica R. Endsley, David B. Kaber,Level of automation effects on performance, situation awareness and workload in a dynamic control task. Ergonomics,1999, 42(3): 462-492.

[24]Cho J H, Chan K, Adali S. A survey on trust modeling. ACM Computing Surveys (CSUR), 2015, 48(2): 1-40. 

[25]Geiger, S. R. Bots, bespoke, code and the materiality of software platforms. Information, Communication & Society, 2014,17(3), 342-356.

[26]Pariser E. The filter bubble: What the Internet is hiding from you. penguin UK, 2011.

[27]Lasecki W S, Bigham J P, Allen J F, et al. Real-time collaborative planning with the crowd.Twenty-Sixth AAAI Conference on Artificial Intelligence. 2012. 

[28]Arkes, H. R., V. A. Shaffer and M. A. Medow. Patients derogate physicians who use acomputer-assisted diagnostic aid. Medical Decision Making,2007, 27(2):189-202.

[29]Pezzo, M. V. , S. P. Pezzo.Physician evaluation after medical errors: Does having a computer decision aid help or hurt in hindsight? .Medical Decision Making, 2006,26(1):48-56.

[30] Muir, B. M.,Moray, N.Trust in automation 2: Experimental studies of trust and human intervention in a process control simulation. Ergonomics,1996. 39(3): 429-460.

[31]Woodruff, P. “Plato's Early Theory of Knowledge.” In S. Everson (Ed.): Companions to Ancient Thought: Epistemology., Cambridge: Cambridge University Press. 1990,60-84.

[33]赵建军:《追问技术悲观主义》,沈阳,东北大学出版社,2001年。

[34]彭兰:《如何实现“与算法共存”——算法社会中的算法素养及其两大面向》,《探索与争鸣》,2021年第3期。

(▲向下滑动查看全部注释)

 基金项目 

教育部人文社会科学研究青年基金项目“新生代农民工数字融入与市民化研究”(项目编号:19YJC840045)。

 作者简介 

吴新慧,杭州电子科技大学法学院副教授,浙江杭州,310018。


本文原载于《学习与实践》2022年第12期。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多