Center for Studies of Media Development, Wuhan University.
教育部人文社科重点研究基地
article
中心成果 | 洪杰文、常静宜:用户关切视角下的“生成式AI”伦理框架建构
发布时间:2024-03-05 作者:CSMD 来源:CSMD

用户关切视角下的“生成式AI”伦理框架建构

洪杰文 常静宜

摘要

生成式AI迎来爆发式增长,逐渐走进日常生活场景和媒介实践中,其伦理问题也倍受关注。除了从理论层面构筑生成式AI发展所应遵循的伦理原则之外,实践层面中观察到的用户对伦理的关切也值得研究。本研究通过参与式观察和深度访谈发现:尊严、真实、自主和福祉是生成式AI 用户较为关注的四个维度,而公正、责任、隐私和透明度四个维度同样存在伦理风险却难以被用户察觉。基于此,本研究从用户作为伦理受益者和风险受害者的角度,将上述八个维度纳入生成式AI伦理框架,对原有AI伦理原则内涵进行了拓展和调适;并通过比较“被关注”和“被遮蔽”维度后发现,技术、专家与用户三元主体的相互作用共同推动了用户伦理思考和关切的形成。

关键词

生成式AI;新兴技术;伦理关切;伦理框架

AI产业的大力驱动使得生成式AI迎来爆发式增长。2022 年底 OpenAI公司发布的 ChatGPT在短短的两个月达到了惊人的1亿月活跃用户引发了学界、业界以及公众的讨论热潮。国内外各大互联网公司纷纷跟进推出对话类、创作类AI工具,AIGC的形式也愈加丰富多样,从由专业人员操作的单一模板式内容生产,拓展为可由普通用户使用的定制化内容创作,生成式 AI逐渐走进公众的生活场景和媒介实践中,与此同时,关于生成式AI的伦理讨论也从学术界蔓延到了普罗大众。

尽管学术界关于AI伦理的研究已经相当广泛,但对AI伦理原则具体到生成式AI实践应用情境中,哪些原则更加紧要和凸显?其内涵又是否需要进行拓展和调适?这些问题都有待回答。基于此,本研究在原有伦理原则的基础上,具体探索生成式AI所涉及的伦理问题并尝试建构伦理框架,以呈现前沿 AI技术变革下的最新伦理发展。

目前既有研究侧重于从理论层面构筑 AI 发展所应遵循的伦理原则,而较少对于实际引发的用户伦理关切进行实证分析。哪些伦理维度是用户最为关心的,而哪些又是被遮蔽和边缘化的?为了探究这些问题,本研究通过深度访谈考察生成式AI用户的实际体验和伦理思考,对AI伦理研究中的用户视角进行了一定补充。通过比较生成式AI“被关注”和“被遮蔽”的伦理维度,分析其背后的主体间互动关系,进而探索唤起更广泛的AI伦理关切的可能性。

一、现有研究中的AI伦理原则

关于AI伦理的讨论可以追溯到 1960年。

表1 现有研究中的AI 伦理原则

随着 AI技术革新和应用范围的持续扩大,学界对于 AI伦理的呼吁和讨论愈加热烈。目前被广泛讨论的 AI伦理大多源自计算机和信息技术伦理传统中反复出现的主题,其核心是“以人为本(People Oriented)的人类中心主义立场。2018 年弗洛里迪(Floridi)等人总结了行善不伤害、自主、正义和可解释性五大 AI伦理原则。2019 年,乔宾(Jobin)等学者对 84份由私人或公共研究机构发布的 AI伦理原则和指南文件进行了综合评估,发现在透明度、公平正义、不伤害、责任、隐私、行善和自主等方面存在共识,除此之外还包括信任、可持续、尊严、团结等伦理原则。2021年,张梦等学者提出智能技术伦理包含人类尊严、人类自主、公平、透明、个人信息保护安全、责任、真实和可持续发展九个维度的伦理要求。

综合上述文献和资料,本研究汇总和梳理了学术研究和政策文件中涉及的伦理原则,并对存在包含关系或内涵高度接近的原则进行了合并本研究认为现有研究主要包含十大 AI伦理原则(表1),这些伦理原则之间互有关联,共同构成了AI伦理原则体系。

具体到生成式AI,许多学者认为ChatGPT存在刻板印象、文化排除、信息过期、价值渗透等问题;顾理平提出 ChatGPT 在失当信息传播、著作权侵权和消解科学精神等方面可能带来负面影响;谢梅和王世龙认为 AIGC存在披露未许可、虚假不真实、偏见放大、偏差隐藏、被恶意使用、不道德取利、理性致瘾、小概率惊恐等风险。

布雷(Brey)将新兴技术定义为处于研发阶段和引入阶段的技术,目前仍在不断进行升级革新和市场投放的生成式 AI显然属于这一范畴。新兴技术的伦理分析往往面临“科林格里奇困境”和“价值动态”(value dynamism)问题,即当人们用现有的价值框架去评估新兴技术时人们还不知道技术在未来会产生什么影响,但当这种影响已知时,之前设计的价值框架可能已经不再适用。生成式AI作为一种新兴技术其伦理研究仍存在较大空间,我们有必要对其进行具体情境下的伦理考量,进而对现有伦理原则进行调适。

二、AI伦理的用户关切研究

新兴技术伦理研究的目的之一在于激发人类的道德想象力,从而能够尽可能地跳开人类的“道德阴影”,即避免伦理原则脱离实际的伦理行为。因此,作为实际伦理受益者和风险受害者的用户视角也就成为不可或缺的一环,用户在 AI实践中产生的伦理关切也值得研究。既有研究中,人类地位担忧、责任问题、潜在歧视偏见等议题得到了公众的关注。林嘉琳等学者认为,技术运用中公众表现出人本精神的敏觉。张梦等学者调查微博用户发现,应然层面的伦理原则并不能在实然层面被用户完整地关注到。谢亚可在今日头条的研究中也发现,用户的AI关切向度在应然与实然层面上存在一定偏差。这种应然与实然上的差异性结果,也印证了 AI伦理研究中用户视角的重要性。

基于此,本研究聚焦生成式 AI这一新兴技术,从抽象的伦理原则转向现实情境中的用户关切。运用参与式观察、深度访谈等质性研究方法分析用户真正关心和难以察觉的伦理问题,从用户作为伦理受益者和风险受害者两个角度尝试搭建生成式AI伦理框架。本研究主要回答“生成式AI用户关注到的伦理维度有哪些?难以察觉的维度又有哪些?”、“具体到生成式AI,伦理内涵如何变化和调适?”以及“如何唤起用户更广泛伦理关切的可能性?”等问题。

三、研究设计

(一)研究方法、样本选择与材料收集

在梳理文献资料的基础上,本研究于 2023年5月和9月通过微博、豆瓣、知乎等平台以及微信朋友圈招募访谈对象。为保证研究样本的典型性,本研究通过目的性抽样方法,共访谈了 30名生成式AI使用经历丰富的用户(使用时长 全部达3个月以上、其中13 名访谈对象使用时长达半年以上,均使用过两款以上产品).访谈对象基本信息如表2所示。

表2 访谈对象基本信息

本研究选取的访谈对象年龄在 21-34岁,符台前人研究中新技术使用者年轻化的特征。本研究选取的访谈对象身份多样、职业分布广泛,包括算法工程师、深度学习工程师、产品经理、数据分析师、新媒体从业者、游戏美工等职业,主要可以分为外行体验者(无相关技术背景、基于兴趣而体验,7名)、外行从业者(无相关技术背景、但因工作需要而使用,13名)和内行从业者(有相关技术背景且从事相关行业,10名)三类,基本覆盖生成式AI重点用户群体,可以认为本研究的访谈对象具有一定代表性和权威性。

研究者根据既有研究设计访谈提纲,共包括四部分内容:第一,受访者的基本信息(包括性别、年龄、职业等);第二,受访者使用过的生成式AI产品及使用体验;第三,受访者关注的伦理问题及观点立场:第四,受访者形成伦理关切和观点立场的原因。访谈通过私信、电话等方式进行,每人30 至60分钟。访谈结束后,研究者对访谈内容进行逐句转录.过滤主题无关信息,共得到文本材料约48000字。

(二)框架分析

框架分析法(Framework Analysis)是一种基于访谈材料的定性研究方法,该方法透明严谨在分析质量、深度和丰富性等方面较好。研究者采用框架分析法对原始访谈文本进行浓缩和提炼,具体步骤如下:(1)反复阅读与仔细推敞原始访谈材料;(2)根据现有研究的 A伦理原则确定框架;(3)在框架基础上,对原始访谈材料信息进行统一编码标识;(4)进一步提炼和归纳概念,寻找关联关系并进行解释。具体分析结果见表3。

表3 访谈材料框架分析结果

四、研究发现

AI伦理问题归根结底映射的是人的道德取向。生成式AI的诞生和快速发展,迫使我们思考人与生成式 AI相遇下产生的新社会文化图景对用户来说,哪些伦理维度是其最为关心的,而哪些伦理维度又是被遮蔽的?本次研究的具体发现如下。

(一)被关注的伦理维度:尊严、真实、自主与福祉

研究发现,具体到生成式AI实践情境中,尊严、真实、自主和福祉是用户较为关注的四个伦理维度。

1.尊严维度:模仿与超越人类

受访者较为一致地表达了对生成式AI从模仿人类到可能超越人类的担忧甚至恐惧,这一点契合了尊严原则的要求,即人的地位不应被 AI所削弱和取代。

受访者首先关注到的是生成式AI交流形式的拟人化和交流策略的灵活性:它有一些语气词和礼貌用语,很像我在微信上和真实的人聊天一样(M9):最新的 GPT4语音聊天可以模仿真人的语速、停顿甚至换气,能感觉到它像是在边思考边回答(M11):它承认错误非常干脆。当我反复质疑它的时候,它会逐渐改变立场迎合我(F4)也因此,很多受访者都表现出生成式AI会超越取代和控制人类的担忧,还认为生成式AI甚至模仿出了人类自我反思的能力(F2),比如主动承认错误。但事实上这种“反思”,只是用户触发了相应内置模块后,AI基于数据库进行的资料调用和文本再组织,不能说AI真正理解了人类对自己的质疑,也更遑论AI进行了自省。

2.真实维度:准确性与一致性

访谈发现,受访者对于生成式 AI在知识生产方面的准确性和一致性表现出较高关注度,这点与真实原则相对应。

首先,受访者对于 AIGC 准确性表现出质疑:有些不靠谱,经常出现所答非所问、明目张胆胡说八道的情况(F3);对一些没有固定答案的问题.或者是需要创意的回答,它会很不准确(F8);只能浅显地讲一下,不能解决实际问题(F11)。其次,很多受访者在使用过程中发现,生成式AI可能生成不一致的结果:中文得到的答案和英文的不一样(M7);搜索某领域的研究成果,问了三次得到的内容不一致(M11)。对此,大部分受访者都产生了对这种不真实可能导致后果的担忧:万一它给我提供了一些假的资料,到时候倒霉的还是我自己(F1);AI可以编出一些看起来很真实的文献、事件,长此以往就没有人知道什么是真的什么是假的了(F9)。

受访者对于生成式AI真实性的质疑,从一定程度上暴露了其在技术层面的硬伤和设计伦理上的缺失。在访谈中多名内行从业者提到:涉及专业性较强的问题,AI由于在训练过程中缺乏相关的训练语料,会给出不准确或模糊的答案(M18);这属于原料不足的问题,完全实现全领域的覆盖是不现实的(F11)。况且生成式 AI并不像搜索引擎“原封不动”将内容链接到人,而是把海量语料打碎打散后,将它们的若干局部随机捏合为一个新整体,这一过程足以“以假乱真”。因此首先要从技术设计层面尝试解决信息库无法及时更新和全面覆盖等困难,同时还要进一步探讨人为操控 AI“造假”、剪切拼凑信息“抄袭"等问题.即既要解决技术的问题.也要解决人的问题。

3.自主维度:用户决策与技术依赖

AI 伦理中的自主原则强调的是人类的自主决策权力。多数受访者都对生成式AI 中的自主性问题较为关注,但存在用户决策和技术依赖两种差异化的情境。

很多受访者认为,需要通过设定前置条件去规划和引导 AI的工作:如果要获得更好的体验需要描述清楚问题和使用场景,而不是泛泛而谈(F8)。同时,在 AI生成内容的基础上,还要进行一定的后期核查、优化和决策才可以达到预期目标:我经常不确定它的答案是否正确,还要再搜索一遍才放心(F1);有时候只能用它的一个大概思路,还是要自己做成成品(M4)。在这一过程中,用户意识到、也实际上保留了较为充分的自我决策权力。

但在另一种技术依赖的情境下,许多受访者又甘愿让渡一定的自主权,以满足日常工作学习和生活需求。一方面是建立在生成式AI强大能力和极高效率上的功能依赖:我感觉生活中很需要它,用它写材料之类的已经养成习惯了(F1):另一方面是与 AI建立朋友或恋人的亲密关系呈现出的情感依赖:我有时候跟它对着干.它就侈朋友一样会跟我争论(F4)、我会把 AI训练成男友和心理导师日常生活中提供一些情绪价值(F5)。

用户在自我决策还是依赖技术上的选择差异,实质上是一个用户是否信任技术并愿意让渡自主权的程度问题。自主包含行动自主和道德自主两重关系,早期AI所实现的是简化的行动自主权让渡。而生成式AI不仅能够胜任更加复杂的功能需求.迫使用户进一步让渡行动自主权给AI;随着生成式AI的技术革新和完善,也可能会进一步冲击用户的前期和后期决策空间,从而使道德自主问题也愈发凸显和紧迫起来。

4.福祉维度:个体利益与社会影响福祉

包括两方面:一是人类集体福祉,它指向了人们共同确认的社会目标,即对更好社会生活的总体期待;二是人类个体福祉,它强调对某些人类能力的锻炼、补充和扩增。访谈发现,受访者均较为关注福祉问题,但对个体和社会层面的利弊关系产生了争议,进而形成了支持、反对和限制生成式AI发展的差异化态度。

个体利益层面,多数外行体验者认为在使用生成式AI 的过程中自身能力得到了锻炼和提升.提高了工作和学习效率.因此较为支持生成式AI的发展。外行从业者中,职业属性偏创意类、人际交往类的受访者,对于生成式AI的态度更加积极,而态度较为负面的一般是职业与生成式AI功能重叠更深的受访者。社会影响层面,外行体验者更关注的是不正当竞争的问题:被用来代写文章.造成学术不端或者侵权(F8)。而外行人业者更关注生成式AI可能会造成新的内卷以及进一步拉大社会差距:因为AI能做得更好,你就必须也要更好(M3):以后会用的人很占优势不会用的就落后(F4)。这些受访者倾向于反对生成式AI发展:现在虽然说还没有到威胁的地步但是继续发展下去可能会导致难以预料的后果(M10);或者主张应当限制其发展:重要的是怎么监管和惩罚这种行为,而不是简单粗暴地禁止(F1):发展是必须的.但也要有所限制(M15)。而内行从业者由于自身职业与 AI紧密相关无论从个体利益还是社会影响层面都支持生成式 AI的应用和发展。

尽管存在观点上的分歧,但用户对于福祉的普遍关注反映了最基本的A向善期望。于个体生成式AI发展的目标不应是作为便利工具导致人类能力的“截断”,而应该辅助人类拓展和强化自身能力;于社会,在引入生成式AI技术的过程中必须重视普惠性,尽可能地保障就业用工市场平稳接受冲击,保护M接触弱势群体的生存境遇和发展权利。

(二)被遮蔽的伦理维度:公正、责任、隐私与透明度

除了用户较为关注的尊严、真实、自主和行善维度之外,生成式AI还存在其他伦理问题。我们不仅要看到浮现于表面的、用户已经关注的部分,更应当看到潜藏于深处的、用户难以察觉的部分。

1.公正维度:更加隐蔽的引导性观点输出

现代社会强调以人为核心,而 AI所秉持的却是一种以效率为核心的群组正义观,极易导致个人权利的侵害和歧视、不平等问题。大量学者认为,AI驱动的大规模个性化强化了性别、种族等偏见,或针对弱势群体造成歧视,从而达成了AI必须促进公平正义的基本共识。生成式AI基于人类世界的知识信息库来产生内容,因此人类社会固有的歧视偏见也会借助这些信息库输入给 AI,进而再次通过引导性的观点输出给人类自身,形成一种“放大镜”效果。虽然其归根结底是人类歧视偏见难以消除的原因,但是并不意味着放弃对探索更加公平正义的人工智能的坚持。

访谈发现,受访者很难注意到生成式AI是否产生了引导性的观点输出,即使发现了输出结果存在不准确和不一致,受访者也更倾向于对AI能力有限的理解,而非认为是 AI刻意为之的结果。用户对生成式AI潜藏不平等问题的忽视导致其很容易陷入差别化对待而不自知,也难以有效保护自身权益,因此将公正维度纳入生成式AI伦理框架对其进行规范就显得尤为重要。

2.责任维度:亟待重视的“责任缺口”

我国《新一代人工智能治理原则》中明确将“负责任”作为AI治理的重要原则。在学术讨论中,责任也被认为是AI研发和应用中最基本的伦理原则,以及时有效地实现对 AI负面效应的追责。发展负责任的人工智能已成为一种社会性期望,刘永安认为这反映的是AI“责任缺口”(responsibility gap)忧虑,即人类不能有效控制AI行动,从而不能承担相应责任的问题。

在访谈中,受访者对于责任维度没有太多关注但实际上在生成式AI中同样存在严重的“责任缺口”风险。一是面临“多手问题”(many hands),生成式AI涉及众多的参与者,增加了识别具体责任人和责任分配的难度;二是“多因问题”(many causes),生成式AI的研发、设计、制造和应用之间存在很长的因果链条,导致原始参与者与最终产品应用场景之间保持遥远的时空距离,从而降低他们的责任敏感性。因此,有必要将责任维度纳入生成式AI伦理框架,在其开发阶段就融人责任的伦理观念。

3.隐私维度:数据泄露和信息安全风险

在 AI伦理研究中,隐私往往被作为一个突出的伦理问题进行讨论。进入智能时代,隐私边界不断模糊化,隐私侵犯问题层出不穷。2023年,意大利个人数据保护局宣布禁用 ChatGPT因其缺乏大量收集和存储个人信息的法律依据:加拿大隐私专员办公室也对 OpenAI未经同意收集、使用和披露个人信息提出指控;微软AI研究团队在软件开发平台 GitHub 上意外暴露大量私人缓存数据……一系列涉及个人信息、企业数据的非法获取和泄露事件都表明,生成式 AI中涉及严重的数据和隐私安全风险。

但在访谈中发现,受访者难以察觉生成式AI使用过程中的隐私风险。虽然有少数受访者表示关注到了相关负面新闻,但是内行从业者倾向于将其归因为“遭受黑客攻击、技术存在漏洞,或人员管理操作不当(M17)”;外行体验者倾向于认为数据安全危机只会发生在大型公司或者国家层面,而“自身并没有暴露多少个人的信息和数据(M6)”。生成式AI暴露出的数据风险和用户对个人隐私的忽视,共同凸显了隐私问题的紧迫性,其仍然是生成式AI发展中必须考虑的核心伦理问题。

4.透明度维度:不可忽视的前置伦理条件

“透明度”已经成为大量AI伦理指南中的共识性议题,是发挥其他伦理原则的前置伦理条件。学者们认为提高“透明度”能够增强治理AI的有效性、防止各种形式的歧视,以及敦促责任主体践行责任。除了开放 API接口等代码层面的技术披露外,真正实现“透明度”的有效提升还需要包括两部分:一是可理解性(intelligibility)即需要让用户清楚明白地理解生成式AI的工作原理、数据获取、可能性风险等;二是可问责性(accountability),即公开必要的可追责信息让么众知晓谁该对此负责的问题。

在访谈中,无论是外行还是内行的受访者均没有意识到生成式 AI中“透明度”问题的重要性。前者对于生成式AI的工作原理、技术逻辑等并不关心也无从得知,后者则认为无论是从商业技术保密还是从落地难度来看,都“难以实现(M16)"和“没有必要(M19)”。因此,“透明度”也是必须纳入生成式AI伦理框架并期酌探讨的重要维度。只有实现对技术黑箱的适度透明化,才能让用户有途径理解、反思和监督生成式 AI,进而激活用户在其他伦理维度上的思考和行动。

除此以外,现有 AI伦理原则中还包括不伤害和可持续发展,即AI不能主动给人类和环境造成伤害。这两个伦理原则所讨论的主体主要涉及摩尔(Moor)所定义的显性伦理主体和完全伦理主体,"而目前生成式 AI仍处于隐性伦理主体阶段,尚未达到能够自发对人类和自然环境产生故意伤害的程度,因此本研究暂未对此进行过于前置的讨论。但就技术不断发展的趋势来看,未来更多新型 AI出现后,关于不伤害和可持续发展的伦理考量会越来越重要。

五、结论与思考

对照原有十大 AI伦理原则,本研究通过观察和访谈发现:尊严、真实、自主和福祉是生成式AI用户较为关注的四个维度,与学术讨论中的伦理原则基本一致,但其内涵在实践中衍生出了新的变化;而公正、责任、隐私和透明度四个维度相较于学界的高度关注,在用户视角中难以被察觉,存在较高的侵害风险,亟待进一步强化其伦理规范:不伤害和可持续发展两个维度则暂不适用于生成式AI这一对象。因此,需要对原有伦理原则的内涵进行拓展和调适,不仅从理论应然层面、更要从用户实然层面有针对性地建构生成式AI伦理框架:同时,通过比较被关注和被遮蔽的伦理维度,探寻影响用户产生伦理思考的因素从而促进更广泛意义上的用户伦理关切的唤起。

(一)伦理内涵的拓展与调适:建构生成式AI伦理框架

本研究在梳理原有 AI伦理原则的基础上结合观察到的生成式AI应用情境和访谈到的用户反馈,论述应然层面的伦理原则在实然层面的实际意义,并针对每个维度的具体内涵进行拓展与调适,从而建构生成式AI伦理框架。

首先,尊严、真实、自主和福祉四个维度作为用户最为关注的问题,从伦理受益者的角度证实了四个伦理原则的实际价值。因此,这四个维度作为优先考虑的维度纳入到生成式AI的伦理柜架中。研究者结合访谈中得到的用户实际关切,对这四个维度的伦理内涵进行了细化与扩充:

在尊严维度中,生成式AI在拟人甚至超人方面的优秀表现显著激发了用户对其取代和凌驾人类、损害人类尊严的担优;在真实维度中,用户对生成式AI的真实性表现出极高关注度,而以往研究并未将真实性考量放在特别重要的位置,因此本研究认为需要强调对真实维度的关照,即生成式AI向人类提供的信息、内容等必须保证客观真实性:在自主维度中,用户能够关注到自身在使用生成式AI过程中的自主性,通过前期人为引导和后期自主决策等方式,保持较为充分、有效的自我决定和决策权力。但用户仍然较难摆脱对生成式AI的功能和情感双重依赖从而选择让渡自主权。如何解决用户在捍卫自主权和因技术依赖导致的自主权让渡之间的矛盾,是未来研究者们值得注意的问题;在福祉维度中,用户广泛关注生成式AI在个体利益和社会影响两个层面的利弊关系。但是不同身份的用户存在个体和集体效益感知上的明显差异,未来可能要针对具体的用户群体进行更加细化的伦理规范和制度设计以保障其权益。

其次,公正、责任、隐私与透明度作为实践中用户难以察觉的伦理问题,从风险受害者的角度凸显了对此进行伦理规范的必要性。因此,公正责任、隐私与透明度应该作为重点推进维度,纳入生成式AI伦理框架中。研究者基于原有伦理原则,结合生成式AI的实际应用环境和技术特点对生成式AI中“被遮”的伦理内涵进行了总结在公正维度中,生成式AI除了常见的性别种族等歧视外,还可能根据用户个体数据输出隐敞的引导性观点,因此生成式 AI应当保证其生成内容中不带有性别、种族、国家等歧视性内容以及不基于用户行为数据进行区别化处理;在责任维度中,生成式AI在研发和应用环节中涉及大量复杂技术和操作人员,因此生成式AI应当严格明确参与人员的操作边界和责任划分,以及时有效地实现对生成式AI的监督和问责;在隐私维度中,参照既往对AI信息获取权限的规定生成式AI同样不得未经许可获取用户信息,必须确保用户数据和隐私安全:在透明度维度中生成式AI所有方有义务提供“可理解”的工作原理、数据获取、可能风险等说明,以及在需要追责时进行研发设计环节的适当披露。

(二)被关注与被遮蔽维度的比较:多元主体互动促进伦理关切

博京(Botin)等学者提出了“专家——技术人工物——用户”三元互动关系模型,用以分析新兴技术伦理问题中的各个切面。本研究通过观察与访谈发现,生成式AI这一新兴技术同样存在专家——生成式AI——用户”的三元互动关系,主体间的相互作用有助于推动更广泛伦理思考和关切的形成。

用户与生成式AI的互动首先是一个需求满足的过程。外行体验者基于好奇心、个体兴趣偏好而使用生成式AI,这类用户往往使用频率较低、与AI的互动程度较低,相对应的伦理风险感知也较弱。而外行从业者基于工作学习中的需求而使用生成式AI使用频率较高、与A的互动程度较高。这类用户往往更容易从亲身体验中发现生成式AI存在的不足和问题,对其存在的伦理风险也更为敏感。

通过比较“被关注”和“被遮蔽”的伦理维度可以发现,尊严、真实、自主和福祉都属于与用户自身关联性更强的维度,也更容易被用户从日常互动和体验细节中捕捉到。当需求无法得到满足或者损害了个体利益时,用户更容易产生警惕或戒备心理。而相比之下,公正、责任、隐私、透明度等维度往往涉及到除用户自身以外的其他主体与用户自身的关联性较弱,而且极易被技术的复杂性所掩盖。因此,用户在与生成式 AI的互动过程中积累经验,一定程度上能够增强其技术素养和反思意识,但仅通过使用体验难以达到更深层次的伦理风险感知,这就需要另一主体——专家的介入。

研究发现,用户与专家之间的互动存在直接和间接两种途径。直接途径包括行业专家的技术解读、公开表态和讲座培训等,内行从业者更多通过这一途径获取深度的专业知识。相关领域权威专家的直接发声往往能够立竿见影地对用户的伦理层面认知产生影响:前段时间很多大佬科学家联合出了抵制生成式 AI发展的合约,我印象很深,感觉 AI还是存在蛮多问题的(M4)。而外行体验者和外行从业者往往需要通过间接途径一一即媒体对相关信息和专业知识的宣传来获取相关知识,其又包括专业媒体报道和社交媒体扩散两种形式:媒体报道比较频繁,信息曝光的比较多(F5);我的各种账号上都能刷到很多相关推文(F4)。在与专家的直接、间接双重互动下用户能够以相比于个人经验积累更快的速度了解生成式AI相关知识。

同样对比被关注和被遍敲的几个维度,尊严、真实、自主和福祉维度更具有话题性,在专业媒体和社交媒体上的披露也更多,尤其是后者而公正、责任、隐私、透明度等维度相对媒体曝光度较少,用户对此的感知程度也相对较弱,这在定程度上体现了媒体在生成式 AI伦理关注和伦理讨论中的议程设置作用。除此以外,在豆瓣小组、微博超话、知乎问答这些讨论社群中,用户与用户之间同样存在相互作用关系。用户之间通过相互分享自己使用生成式AI的体验,从而增加了发现更多伦理问题的概率。

生成式AI应用场景中技术、专家与用户三元主体的相互作用,共同促进了用户对于生成式AI的伦理思考和伦理关切。因此,后续研究可以从促进技术、专家、用户不同主体间互动的角度针对性地提出促进更广泛伦理关切的具体举措。除此以外,本研究还有待解决的问题是,生成式AI作为一种新兴技术,仍处于技术发展和政策环境瞬息万变的早期阶段,其未来应用及社会后果尚存在很大的“不确定性问题”(the problem of uncertainty),因此仍需要对生成式AI的伦理问题进行更长时间的持续考察。

 [本文系国家社会科学基金后期资助重点项目“新闻传播的人工智能实践及其反思研究(21FXWA002)和国家广播电视总局部级社科研究项目“视听网站推送算法发展及存在问题研究(GD2318)的阶段性成果]

本文发表于《新闻与写作》2023年第12期

备注:全文引用从略

洪杰文:武汉大学媒体发展研究中心研究员,武汉大学新闻与传播学院教授、博士生导师

常静宜:武汉大学新闻与传播学院硕士研究生

关于我们
关注我们
  • 微信公众号:武汉大学媒体发展研究中心
找到我们
  • 地址:湖北省武汉市武昌区珞珈山樱园路
  • 邮编:430072
  • 电话:027-68756616
  • 邮箱:whucsmd@163.com