在AI与研究伦理的交叉领域,一个重要的研究方向是建立科研中负责任使用AI的原则。这些原则决定了研究者、作者、审稿人、编辑、出版商、高校及其他在研究中受到AI影响或从AI中获益的主体应当遵循的具体实践。
国际标准化组织(ISO)指出,负责任的AI应当基于公平、透明、无害、问责、隐私、稳健与包容等原则。经济合作与发展组织(OECD)则提出了五项基于价值的原则:包容性增长、可持续发展与福祉;人权与民主价值(包括公平与隐私)、透明性与可解释性、稳健性、安全性与保障性,以及问责制。显然,ISO与OECD的原则在很大程度上重叠,且主要关注组织和政策制定者在AI开发与使用层面的责任。在研究领域,欧盟委员会在其《生成式AI负责任使用动态指南》(Living Guidelines on the Responsible Use of Generative AI in Research)中提出了四项核心原则:可靠、诚实、尊重与问责。Bouhouita-Guermech 等(2023)在综述中归纳出AI研究伦理的若干关键原则与规范:伦理方法的应用、责任、可解释性与有效性、透明性与知情同意、隐私、数据保护,以及隐私与科学进步之间的权衡。Knoechel 等(2024)进一步强调了监管、数据安全、质量控制、原创性、偏见消减、问责、透明性以及对AI使用广泛影响的认知等要素。基于上述框架,可以总结出社会科学研究中负责任使用AI的八项基本原则:
(1)透明(Transparency)
研究者应全面披露AI使用的各个方面,包括所用软件(及其版本)、提示词(若为GenAI)、AI承担的任务、使用时间或时段、操作者身份以及所用数据集等。研究者需详细说明AI使用的管理与操作细节,以确保相关利益方(如编辑、出版商、读者、资助方及研究参与者)能够充分了解AI在研究过程与成果中的使用情况。该原则在现实中常被违反,目前已有大量学术论文被怀疑存在未披露的AI生成内容。
(2)可追溯/可审计(Traceability / Auditability)
AI使用的各个步骤应被系统记录、报告,并可被追踪与验证。使得相关方能够检查训练数据集、提示词及AI输出,确保研究结果的可重复性与有效性。对于生成式AI而言,提供AI会话链接是实现可追溯与可审计的重要方式。
(3)可解释(Explainability)
AI使用者需能够理解并解释AI的决策、输出及其生成过程。这一点尤为关键,因为AI系统往往表现为“黑箱”,用户难以理解其得出结论或决策的逻辑。可解释性还应满足非计算机科学背景研究者的理解需求,采用清晰、平实的语言。使用生成式AI工具时,用户可以要求AI对其生成内容提供理由与解释。
(4)公平(Fairness)
公平性涉及减轻AI使用中潜在的偏见风险,例如训练数据集的偏差(某些社会/受访群体被过度代表或代表不足),或算法本身的偏差(AI的决策使特定群体处于不利地位)。这类偏见尤其令人担忧,因为即便输入数据可靠,算法偏差仍可能导致研究结论失真。例如,AI可能误判文本的语气与含义,或生成侮辱性、歪曲特定社会群体的内容。
(5)隐私与数据保护(Privacy and Data Protection)
在AI工具中应使用匿名化数据,并严格遵守相关数据保护法律与政策(如欧盟《通用数据保护条例》GDPR)。
(6)尊重并意识到更广泛的影响(Respect and Awareness of Broader Impacts)
研究者应尊重所有可能受到AI使用影响的研究相关方(包括其他研究者、受访者、第三方及社会公众),并充分认识AI在研究中可能带来的更广泛社会、经济、政治与环境影响。
(7)人工监督与质量控制(Human Oversight and Quality Control)
AI在研究过程中的使用及其输出需接受人工监督与质量把关。应确保人类始终“在回路中”(AI提供建议,人类作出决策)或“在回路上”(AI作出决策,人类有权干预、修改或否决),而非将关键研究决策外包给AI。不同机构可能有不同规定,跨机构研究合作应就监督程序达成一致。
(8)问责制(Accountability)
需明确研究团队成员在AI使用中的角色,确保所有借助AI生成的成果均有明确责任人。研究者应清楚报告在特定研究中谁以何种方式使用了AI,并在AI或其输出被不当使用时承担相应责任。