引言
在科技飞速发展的时代,人工智能(AI)已经成为我们生活中的重要组成部分。然而,很多人对AI的态度并不是那么友好,他们对使用AI的建议持有一种“算法厌恶”的态度。想象一下,你在做决定时,有两个顾问可以选择:一个是经验丰富的专家,另一个是一个神秘的AI。大多数人可能会选择专家,因为他们信任人类的判断力。即使AI在许多情况下可以提供更准确的建议,但人们往往仍然保持怀疑。
这种算法厌恶在很大程度上源于对AI的不信任感。人们的潜意识中将AI视为一个不可信赖的“外来物种”,这与他们对少数群体的偏见有相似之处。算法厌恶是一个重要且持久的问题,阻碍了AI进步所带来的益处。本研究从隐含偏见的视角出发揭示了人们在没有足够信息的情况下会对AI产生不信任的潜在偏见,但这种偏见会随着对AI性能了解的增加而减弱,对AI的应用推广有着重要的启示。
研究内容和假设
这篇文章探讨了人们对AI的隐性偏见。在这项研究中,研究者提出了几个关键假设,这些假设旨在揭示人们对人工智能的隐性偏见以及这种偏见如何影响算法建议的接受程度。
首先,本研究假设人们对AI存在一种平均上的隐性偏见。这种偏见表现为自动的、无意识的对AI的不信任,尤其是在与人类专家和自身判断进行对比时。这个假设的基础源于人们通常倾向于信任人类的判断力,而对机器的能力持怀疑态度。
其次,本研究假设当AI与人类专家,而不是自身进行比较时,这种隐性偏见会更加显著。这是因为人类专家通常被视为在其领域内拥有丰富经验和专业知识的可靠信息来源。因此,人们更倾向于将信任寄托于专家,而非自己。这种对比无形中放大了在没有充分了解AI能力的情况下AI在可信度方面的劣势。
第三,研究假设在AI的性能信息尚未揭示时,隐性偏见会导致算法厌恶。这是因为在缺乏具体性能信息的情况下,人们更容易依赖潜意识中的偏见来指导决策。因此,隐藏的偏见可能导致人们对陌生的AI提出的建议持规避态度,即使AI的建议可能更为准确。
最后,研究假设在获得AI的正面使用经验后,这种隐性偏见对算法规避的影响将减弱。随着AI使用过程中的信息获取,人们会从“决策模糊阶段”转变为“决策风险阶段”。在这个过程中,用户变得依赖关于AI性能的信息而非潜意识偏见来做出决策。
研究方法
这个研究包含了一系列实验来探讨人们对人工智能的潜在偏见以及这种偏见如何影响他们对算法建议的接受程度。研究者使用了一种称为隐性联想测试(IAT)的方法来测量参与者对AI的潜在偏见。IAT是一种用于测量人们潜意识中的偏见或隐性态度的工具。IAT通过让参与者快速分类显示在屏幕中央的刺激(如词语或图片)到屏幕左上角和右上角的两个类别来进行测试。核心思想是,当参与者将某个刺激快速分类到正面类别时,这表明他们可能潜意识中认为该刺激是正面的(或好的)。相反,如果某个刺激更快地被分类到负面类别,这可能表明存在隐性偏见,即该刺激在潜意识中被认为是负面的。本研究的IAT测试包含两个版本:一个是将AI与自我进行比较,另一个是将AI与专家进行比较。参与者被随机分配到其中一个版本。
实验包含的任务是让参与者通过一个虚构的AI系统估算照片中人物的体重。参与者被告知这项任务是为了帮助训练和校准一个AI系统。在初始阶段,参与者被要求给出他们对照片中人物体重的初步估算。然后,他们会看到AI系统给出的体重估算,并有机会修改他们的初始估算。在两个阶段之间,参与者会收到关于AI性能的信息(包括他们自己的初始估测、AI的估测、自己的修正估测,以及人物的实际体重)。在这个过程中,参与者会报告他们对自己估算的信心程度。参与者对AI建议的接受程度被权重建议(WOA)来测量。WOA通过参与者初始估测与修正估测之间的变化来计算,反映了参与者在多大程度上采纳了AI的建议。
结论
研究的结论揭示了一个重要的发现:人们对人工智能确实存在隐性偏见,即在无意识中将AI视为不那么值得信赖。这种偏见在以人类专家而不是自己作为参考点时表现得更为明显。隐性偏见会在缺乏具体性能信息时,驱动对AI建议的规避行为。这意味着在初次使用AI时,人们的决策更多地基于无意识的消极情绪。但这种偏见并不是一成不变的。随着参与者对AI的性能和准确性获得更多的信息,他们对AI的信任度逐渐增加,算法厌恶现象开始减弱。这表明,虽然潜意识中的偏见会在初期影响人们对AI的态度。但这种影响是暂时的,信息的获取可以帮助人们克服初期的偏见。本研究还发现了信心变化的复杂性。在获得AI性能信息后,人们在没有AI估测的时候信心会下降,但在再次接受AI建议后信心会恢复。这显示出人们对AI建议的逐步依赖。
贡献和启示
这项研究不仅揭示了人们对AI的隐性偏见,还提供了一种新的视角来理解算法排斥的根源。通过借鉴对陌生群体偏见的研究,研究者为减少AI偏见提供了新的可能性。其次,传统的信息系统抵制研究往往假设和测量用户对新系统的显性认知和情感反应,而没有直接探讨无意识层面的影响。本研究表明,用户对某些信息系统的抵制可能是由无意识偏见驱动的自动反应。因此,研究人员可以在未来的研究中纳入无意识偏见的因素。此外,研究还指出,在人们获得AI的表现信息后,算法排斥会逐渐消失,这为AI系统的设计和推广提供了有力的支持。
参考文献:Turel, O., & Kalhan, S. (2023). Prejudiced against the Machine? Implicit Associations and the Transience of Algorithm Aversion. MIS Quarterly, 47(4), 1369–1394.
文章链接:
https://doi.org/10.25300/MISQ/2022/17961
https://misq.umn.edu/prejudiced-against-the-machine-implicit-associations-and-the-transience-of-algorithm-aversion.html
作者信息:

Ofir Turel
Position: Professor, School of Computing and Information Systems, Faculty of Engineering and Information Technology, University of Melbourne
Research areas: Behavioral managerial and bio-physiological issues related to the use and management of computer information systems and technologies
Site: https://findanexpert.unimelb.edu.au/profile/883811-ofir-turel
E-mail:oturel@unimelb.edu.au

Shivam Kalhan
Position: Postdoctoal Fellow, Department of Psychological & Brain Sciences, Johns Hopkins University
Site: https://www.researchgate.net/profile/Shivam-Kalhan
E-mail:skalhan1@jh.edu