摘要:人工智能(AI)的广泛应用既带来了对其潜在益处的高度期望,也引发了对其滥用可能性的担忧。尽管AI系统的设计在很大程度上依赖技术驱动,但AI的社会影响已促使人机交互(Human–Computer Interaction, HCI)和以人为本的人工智能(Human-Centered Artifcial Intelligence, HCAI)研究的兴起。然而,关于如何构建、设计和评估HCAI,仍然存在相当大的模糊性。本文通过批判性回顾大量HCAI相关文献,试图描绘学术社群对HCAI的定义及其研究现状。基于明确提及“以人为本的人工智能”或“以人为本的机器学习”及其变体的研究工作,本研究揭示了HCAI研究的广度、已形成的研究集群以及正在兴起的“与AI交互”和“合乎伦理的AI”领域。本研究提出了HCAI的新定义,呼吁人工智能研究与人机交互研究更紧密结合,并倡导创建新的HCAI概念。
“以人为本的人工智能(HCAI)”这一术语的使用日益频繁,既传达了一种AI服务于人的理念,也体现了公众对AI潜在风险的担忧。然而,HCAI对不同的人群而言可能意味着不同的事物。人类可能是AI算法研究的对象、AI产品的用户、AI系统设计的代理等等。此外,HCAI也可能被视为一个令人向往的术语,类似于资源领域的“可持续采矿”或“可信自主”。目前,围绕如何实现及是否可以实现这一目标,仍然存在相当大的争议。
本研究旨在通过批判性回顾与HCAI相关的大量文献,加深对学术社群如何定义HCAI的理解。我们分析讨论了相关主题的同行评议会议论文和期刊文章(截至2022年7月),目标是概述HCAI的研究现状,探讨这些研究中“以人为本”主张的内涵,并分析“以人为本”的理念如何影响人类与AI的交互及其带来的影响。
通过分析和映射,本研究归纳了HCAI的主要研究领域如图1所示。构成该地图象限的四个主要研究领域分别为:(1)可解释与可解读的AI,(2)以人为本的设计方法,(3)Human-AI合作,(4)合乎伦理的AI,以及在中心地带,出现了一个新兴的研究领域——“与AI交互”,其中包含了可竞争AI系统的设计。

2.1 与AI交互
我们首先探讨正在兴起的中间地带——与AI交互。这类研究明确关注人们在具体情境中与模型交互的需求。尽管这与Human-AI团队方法(包括交互式AI和人机协同工作)有所重叠,但Human-AI团队方法通常局限于与原系统设计意图高度一致的范围。相比之下,AI交互研究则聚焦于探讨人们如何创造性地使用AI系统,如何能够对AI系统提出质疑,以及AI系统在实际环境中的使用情况如何以超出设计者预期的方式为设计提供指导。
对AI在具体情境中的使用进行研究,可以揭示如何恢复用户的自主性。相关研究可以梳理人们提出的所有问题及其为适应AI模型而采取的解决方案,并确定AI在实际应用中的适用协议。研究还可以识别用户需求,以便为AI设计和工作培训提供信息,从而确保用户能够知情地使用嵌入式AI系统。
AI交互研究的另一个目标是实现更好的交互。Harper指出,人机交互(HCI)可以帮助创建“将用户与应用程序有效结合,让二者协同工作的抽象框架”。Vaccaro等人则认为,在设计中引入“争议性”可以“体现用户价值,使系统设计和实际使用与情境保持一致,并建立合法性”。例如,用户可以说明自己的使用场景,观察AI的表现,评估AI系统的优劣。AI的交互设计还可以通过引入争议性元素,揭示潜在的道德问题、后果及责任归属。
与AI交互这一中间领域的研究需要多学科技术团队的协作,将技术专家、设计师和以人为本的研究者聚集在一起。这或许解释了这一领域兴起较晚但潜力巨大且正在崛起的原因。
2.2 可解释和可解读的AI
可解释AI主要是一种技术驱动的研究,旨在为人类呈现和解释AI决策的过程,同时在一定程度上关注如何使这些解释更适合人类理解。相比之下,可解读AI研究的重点是确保AI决策及其解释能够被人类清晰地理解。
研究发现,与可解释AI相比,可解读AI的相关文献数量更多,这可能是因为可解读AI研究通常更加以人为中心,因而更容易被纳入“以人为本”这一范畴。
2.3 人类与AI合作
Human-AI合作位于左上区域,代表了一种通过人类技能和判断补充AI计算能力的方法。这种合作关系在某些方面是人机交互方法和早期交互式AI形式的演变。这类研究往往具有特定的情境依赖性,因此在图中位于较高的位置。人机交互方法和早期的交互式AI通常被视为以AI为核心,人类通过标注数据、纠正错误分类、评估和调整模型来协助AI。而Human-AI合作超越了这种简单的循环,通过问题框架的设定、提问、标注、信息检索、对话以及应对数据偏差、模型复杂性、罕见案例和异常情况等机器故障的方式,使人类更好地引导AI。反之,AI也能够帮助人类处理大规模数据,进行探索和批判性思考,减轻人类在偏见、注意力有限、疲劳及情绪影响等方面的局限。
设计高效的Human-AI合作需要同时关注使用情境、人类关注点、人类技能、交互设计以及AI技术。高水平的人类控制和高度的自动化可以相辅相成。简而言之,Human-AI合作不仅强调AI的能力,也关注人类在指导和修正AI方面的重要作用,同时重视AI在帮助人类理解和处理复杂数据方面的潜力。其核心目标是找到Human与AI之间最有效的协作模式。
需要明确,Human-AI合作的目的是充分发挥人类和AI的各自优势,而不仅仅是在AI主导的项目中让人类填补AI尚未能够处理的空白。Human-AI合作项目旨在充分利用人类和AI的能力,使双方能够共同学习与发展。他们会仔细考虑哪些任务适合自动化,哪些任务不适合自动化。项目越能够平衡人类和AI的能力,它在图上的位置就越靠近中心,而非偏向左侧。
2.4 以人为本的设计和评估AI的方法
以人为本的设计研究位于右下区域,反映了其以人类价值观和设计为主导的特点。这类研究探讨如何设计AI以满足人类的需求和愿望。研究中的人类角色可能是信息提供者、参与者或合作伙伴。这些设计实践以参与式设计和协同设计领域为基础,将那些可能受到设计影响的人纳入设计过程。这种做法既出于道德考量,也基于实用主义视角。从道德角度考虑,受到影响的群体应在AI设计中被咨询意见;从实用角度来看,受影响群体也是自身领域的“专家”,能够提供详尽的背景信息和有针对性的建议。
许多参与式设计方法已被应用于理解AI的价值与潜力,例如实地考察(访问已运行的系统)、情境构建、未来工作坊和游戏等。这些方法帮助人们设想AI作为未来活动的一部分,并明确其实际应用场景。
然而,迄今为止,AI的思辨设计和交互设计在以人为本的设计研究中尚未得到充分体现,部分原因在于交互设计师在与AI协作时面临困难。然而,当前的交互设计领域正在逐步研究人们如何与AI系统交互,探索AI如何通过用户界面展现其功能,并开始讨论人们如何根据自身需求设计AI。
2.5 合乎伦理的AI
合乎伦理的AI涵盖了一系列研究,旨在探讨AI项目中的价值观、道德、公平性及权力分配等问题。Kalluri简明地指出:“不要仅仅问人工智能是否是好的或公平的,而要问它如何重新分配权力——那些可能被人工智能利用的人,应该参与塑造它的项目。”合乎伦理的AI项目旨在理解和揭示AI的生成方式及其对人类的影响。
合乎伦理的AI倡导并展示AI模型构建的透明流程,包括记录数据的收集方式、数据包含的内容、数据所代表的群体、模型背后的假设与机制、模型如何反映不同用户群体的特性以及其在这些群体中的表现等,从而揭示隐含的价值观及其决策逻辑。此外,它还强调合理部署资源的重要性。
合乎伦理的AI关注AI在现实世界中的人类体验,其研究既以人类价值观为核心,又强调对背景的深刻理解,因此在图中位于右上方区域。大多数研究指出,这一领域需要更具创新性且深思熟虑的设计工作。此外,该领域还体现了后人类主义与超越人类的AI方法,为合乎伦理的AI研究注入新的视角。
HCAI研究具有极大的广度,从以AI为主导到以人类价值观为主导,从以设计为核心到以情境为中心的研究均涵盖在内。然而,AI主导的研究往往完全忽略了人类和用户的参与,或仅在评估阶段考虑用户的角色。尽管AI已经广泛嵌入农业、制造、交通、政府、金融、安全、执法以及医疗保健等多个领域,但对于许多AI开发者而言,用户及受影响的人群依然是一个陌生的群体。企业技术领域的AI研究人员和工程师在设计对我们生活愈发重要的系统时拥有很大的权力,并在算法设计中嵌入其自身的价值观。合乎伦理的AI项目的核心在于检视并揭示这些嵌入的价值观。
类似地,人机交互领域也可能面临批评,即虽然AI正在改变计算的基础,但人机交互研究尚未充分重视学习新型AI系统的工作方式、其影响以及新型交互设计的潜力。在研究中同时考虑系统视角与用户视角,探索如何将用户及其使用情境与AI系统有机结合以实现最佳效果,这是HCAI研究的核心主题之一。
在HCAI研究领域,最大的挑战与机遇在于促进各研究领域间更广泛的协作。这是一项艰巨的任务,因为它要求HCAI内部不同的观点和立场之间进行充分的对话。研究人员需要愿意学习并理解其他领域的语言和方法,以及这些领域研究的价值观和动机。
以AI为主导的研究通常以推论统计的语言和价值观为核心,强调从大数据与算法中提取价值的观念,其应用往往不太关注具体的情境,而是聚焦于在不同时间和地点解决具体问题。相比之下,以人为中心的研究则关注个体及其社会经验背景,以及人们如何在具体情境中使用、适应和体验技术。不可否认的是,AI与人机交互领域需要彼此支持。通过更强有力的跨领域协作,以及致力于理解彼此的工作和价值观,这两个领域的研究可以实现互惠互利。这种合作能够生成新的概念结构,用以解释人类与AI的关系,指导连贯性更强的界面设计,并反映用户意图与推断模型之间的新型设计关系。
此外,HCAI研究还应扩大视野,面向更广泛的AI研究、商业社区以及领域利益相关者。领域专家可以强调对AI设计者来说可能并不显而易见的价值观及潜在后果。鉴于任何情境中都存在利益多样性、用户多样性、商业利益及领域利益,这无疑是一个巨大挑战,但也是值得注意的关键方向。
结合前文研究,我们提出了一个修订后的定义,旨在更好地反映HCAI研究的前景。新定义强调伦理道德的重要性,以及人类与AI交互以理解、引导和挑战AI的能力。早期的定义着重于人类的进步,但未明确界定谁来决定对人类有利的标准,以及哪些人群最终受益。而将伦理道德融入HCAI定义,将关注点聚焦于道德实践的需求,强调考虑所有可能受到影响的群体(包括其他物种)。通过结合交互的维度,新定义突出了对实际使用场景的关注。因此,我们将HCAI定义如下:
以人为本的人工智能(HCAI)是在通过数据增强人类用户能力的同时,揭示其潜在的价值观、偏见、局限性,以及数据收集与算法设计中的伦理规范,从而推动人工智能在道德合规、交互友好和争议性可控的框架下实现负责任的使用。
系统如何呈现自身是一个需要判断和交互设计的问题,而什么具有意义则取决于具体的使用情境。HCAI研究强调可解释性、人类与AI合作、伦理道德、以人为中心的设计和交互,明确指出HCAI系统应以培养用户的能动性和意识为目标,与用户协作。
HCAI的发展需要AI与人机交互研究人员之间更紧密的合作,以开发新的概念框架,解释人类与AI之间的关系,指导更加连贯的界面设计,并反映用户意图与推断模型之间的关联。希望本研究能够帮助研究人员更全面地了解HCAI研究的广度、研究项目制定方式上的差距、可以加强团队和项目的HCAI领域,以及可能的新HCAI结构和方法的研究。
(原文链接:https://dl.acm.org/doi/10.1145/3544548.3580959,本期推文为节选摘编,略有删减和编辑。)
本期策划 | 复旦大学国家智能评价与治理实验基地
供稿 | 邓晨菲 王译晗
本期编辑 | 宋欣雨
基地官网:https://statevalbase.fudan.edu.cn
· end ·