2 文献综述
生成式人工智能领域发展迅猛,相关的学术研究也日新月异,新的观点与发现层出不穷,故难免存在研究疏漏之处。因此,在展开文献综述之前,有必要首先阐明本次文献检索的概况。截至 2024 年 3 月 22 日,本次文献检索主要通过以下三个步骤完成:其一,在 SSCI 及 A&HCI 数据库中检索{all=“Generative artificial intelligence” OR all=“Generative AI”},共获得 658 条结果,经筛选后得到 154 篇相关文献。
其二,在 arXiv 数据库中检索{all=“Generative AI” AND all=“cs. CY”},共获得 226 条结果,筛选出 110 篇相关论文。尽管预印本论文未经同行评议,文献质量或有参差,但鉴于人工智能领域的诸多前沿研究集中于 arXiv 平台发表,本文也将其视为重要的文献来源。
其三,在中国知网数据库中,以「生成式人工智能」为检索词,限定学科为「新闻与传媒」或「文艺理论」,共获得 298 条结果;在这些结果中进一步筛选与「图像生成」相关的文献,仅余 5 篇。
本章文献综述旨在系统回顾生成式人工智能、图像生成模型及相关训练数据集的研究现状,重点关注其技术潜力、对艺术创作的深远影响以及由此引发的伦理争议,从而为本论文后续探讨 LAION-5B 数据集的社会形塑过程奠定坚实的理论基础。
具体而言,本综述将首先梳理学界对于生成式人工智能所持的两种主要态度:一种观点认为其蕴含巨大潜力,有望引领新一轮「工业革命」;另一种观点则视其为一场有待检验的泡沫。在辨析这两派观点的基础上,综述将进一步概述关于人工智能背后所隐匿的人类劳动的研究。随后,焦点将转向图像生成模型对艺术创作的具体影响,并最终深入探讨图像生成领域存在的偏见问题。通过揭示现有研究的贡献与不足,本文的研究问题与方法论——即采用数据集谱系学和批判性话语分析方法,深入剖析 LAION-5B 的构建过程——将水落石出。
2.1 神话、炒作与隐形劳动
2.1.1 AI 乐观主义:技术革命的序章
众多研究者与评论家认为,生成式人工智能的崛起可能标志着一个足以改变乃至解放人类社会的技术革命时刻。倘若这确为一场技术革命,那么我们有必要首先审视其在人类工作中究竟如何发挥作用。多项研究证实,生成式人工智能确实能够在诸多场景下显著提升生产效率[1–3]。例如,它能够为服装设计师生成手绘草图、辅助配色,并产出符合设计师特定风格的图纸[4];协助音乐人生成旋律[5,6];以及与作家协作构思全新的故事情节[7]。
在软件开发领域,范式转变也已然发生,GitHub Copilot 便是其中的典型代表——这款工具能够帮助程序员自动补全、修改乃至生成代码。甚至一些产品已能提供自主规划并执行复杂软件工程任务的功能,用户可以自定义软件工程目标,并将其交由自主人工智能代理完成。这些代理能够对代码库执行包括文件编辑、检索、执行、测试和 Git 操作在内的多种操作,从而以近乎全自动化的方式达成任务[8]。
2.1.2 AI 悲观主义:繁荣背后的泡沫隐忧
与此同时,也有观点认为生成式人工智能的潜力被过度夸大,当前整个行业建立在投机性炒作的基础之上,未来或将难逃泡沫破裂的命运。此论断的主要依据在于,人工智能行业近期的增长、营收及利润表现均不尽如人意。据风险投资公司 Sequoia 估计,2023 年,尽管各大公司在英伟达硬件上的投入高达 500 亿美元,由此产生的收入却仅为 30 亿美元,这一数字揭示了人工智能初创企业估值远超其实际价值的现状。此外,较低的毛利率也使其盈利前景备受质疑,连带云计算提供商也开始调低预期。
不仅如此,一些备受瞩目的初创企业也相继遭遇挫折。例如,资金雄厚的私营企业 InflectionAI 正面临解散,其核心资源由微软接手[9]。而对于图像生成领域独角兽 StabilityAI 而言,在其创始人 Emad Mostaque 离任后,公司的未来也充满了不确定性[10]。从公众层面来看,生成式人工智能的热潮似乎并未获得普遍关注;人们或许听闻过 ChatGPT,但对其它相关工具的认知仍然有限[11]。
2.1.3 AI 现实主义:看见隐匿劳动
关于生成式人工智能究竟是革命性的突破还是短暂的炒作,目前下定论为时尚早,尚缺乏充分的实证依据。鉴于大模型技术以及整个人工智能产业仍处于高速迭代的关键时期,相关结论的形成仍需时间和进一步的观察。然而,相较于纠缠于其技术本质和市场前景的争论,深入剖析生成式人工智能背后被遮蔽的劳动维度,则显得更为紧迫且意义重大,这也是当前众多学术文献关注的核心视角之一。
从技术依赖性的角度审视,生成式人工智能的成功并非单纯源于算法创新或计算能力的飞跃,而是高度依赖于大量隐匿的、往往被忽视的劳动投入,可谓「无人工,不智能」。这些劳动涵盖了数据收集、清洗、标注以及模型调试等一系列繁琐且耗时的工作。
倘若忽视对这些隐匿劳动的研究与分析,不仅可能加剧全球劳动分工中的既有不平等现象,也势必削弱我们对生成式人工智能潜在社会影响的深刻洞察。因为只有通过剖析这些隐匿劳动,我们才能更清晰地揭示技术光环背后的人力成本、环境代价以及潜在的伦理挑战。循此思路,我们不妨从最基础的数据集入手,尝试解构这一智能神话。
当我们检视一个用于训练人工智能的图像数据库时,会看到成千上万张图片及其对应的标签。若将机器学习算法比作菜谱,那么训练数据集(training dataset)便是食材。然而,这些数据从何而来?它们又是如何被赋予标签的呢?
构建一个数据集通常涉及以下步骤:首先,是产生数据的初始人类劳动;其次,是将这些数据按照特定格式进行编码;再次,是将数据依据一定结构组织成数据集;最后,在监督学习的框架下,还需对数据进行标签分类。以人工智能历史上举足轻重的图像训练集 ImageNet 为例。普林斯顿大学计算机视觉教授李飞飞受乔治·米勒(George Miller)的 WordNet 英文词汇数据库启发——WordNet 将单词按同义词分组,并依据从具体到抽象的层级进行结构化排序,形成词汇链。
李飞飞的构想便是基于 WordNet 中的名词构建一个图像数据库,使 WordNet 中的每个名词都能与相应的图像关联起来。为此,李飞飞及其合作者开始在 Flickr 和 Google 等平台上检索 WordNet 词汇,并下载了数百万张免费图像。然而,在此过程中,无关图片的筛选任务极为繁重,据估计可能需要 90 年才能完成。最终,团队借助亚马逊土耳其机器人(Amazon Mechanical Turk)平台,将标注图像中物体的劳动外包给数十万名匿名工人,这些遍布全球的工人为每项任务仅获得几美分的报酬[12(页 91),13]。
包括 ImageNet 在内的诸多机器学习数据集,其源头主要集中在全球北方的高科技公司(如 Amazon Web Services、IBM、Microsoft、Google、Oracle、Appen 等)。这背后揭示了人工智能领域一条潜在的「殖民主义」产业链:一方面,人工智能的发展加剧了对自然资源的开采,并产生大量有害废弃物,其环境与社会危害往往被转移至全球南方;而另一方面,其利润却主要流向日益富裕的西方经济体。这种模式下,表面收益的绝大部分是以牺牲边缘化社群的利益、脆弱的生态系统以及人类的未来为代价的——而企业社会责任的辞藻与指标往往对此视而不见[14]。与此同时,通过众包平台将数据标记、筛选等数据苦活脏活转移出去,进一步加剧了国际数字劳动分工的不平等。
另一个突出的案例是 OpenAI 与肯尼亚外包劳工公司 Sama 的合作,旨在减少 ChatGPT 输出内容中的有害信息。ChatGPT 的训练数据源于互联网,海量数据使其文本生成能力飞速提升,但也使其不可避免地沾染了暴力、性别歧视和种族主义等不良言论。由于缺乏简单快捷的方法来清除数据中的这些「不雅之辞」,OpenAI 不得不通过构建额外的人工智能驱动的安全机制来控制潜在危害,以期生产出适合日常应用的聊天机器人。为构建此安全系统,OpenAI 借鉴了 Facebook 等科技公司的做法:开发能够检测仇恨言论等有毒语言的人工智能模型,以辅助平台进行内容筛查。
其实现原理与深度学习类似,只是此时需要向人工智能提供的是充斥着暴力、仇恨言论和性虐待内容的语料。只有通过这种方式,才能训练出一个能够有效识别「毒性语句」的模型。最终,OpenAI 将该检测器内置于 ChatGPT 中,用以过滤掉令人不适的言论。而承担标记这些毒性语句任务的,正是 Sama 公司在肯尼亚、乌干达和印度等地雇佣的员工。
Sama 将自身定位为一家「道德人工智能」公司,并声称已帮助超过五万人摆脱贫困。然而,实际情况是,根据员工的工作表现,他们每小时的税后工资仅为 1.32 美元到 1.44 美元不等,这甚至低于内罗毕接待员每小时 1.52 美元的最低工资标准。更为严峻的是,从事数据标注工作的 Sama 工人每班需工作 9 小时,持续审查来自互联网最阴暗角落的暴力、有毒和辱骂性内容,这些内容充斥着儿童性虐待、兽交、谋杀、自杀、自残和酷刑等骇人细节,给工人们的精神健康带来了巨大创伤[15]。
长久以来,「为了让机器看起来聪明,有必要隐形它们的力量来源,即围绕和运行它们的劳动力」[16]。当今的生成式人工智能亦不例外。所谓的「自动化」在很大程度上是一个神话,因为若没有人类集体知识、文化遗产以及各种形式的劳动投入,现有的人工智能系统均无法实现其功能。
2.2 版权、美学与风格窃盗
在剖析了学术界对生成式人工智能潜力的争论及其背后隐匿劳动的现象之后,我们不难发现,类似的二元对立与复杂争议并不仅仅局限于对技术本身的评价。随着生成式人工智能在具体应用场景中的不断拓展,这些争议进一步延伸至文化与艺术领域。正如历史上艺术家们在面对新兴技术时常展现出截然不同的态度,对于图像生成模型,艺术界同样呈现出拥抱与抵制并存的两极化反应。本节综述旨在通过剖析这组核心争议,厘清图像生成模型如何影响艺术创作的过程与本质,并进一步探讨其对当前视觉文化的塑造作用。
2.2.1 拥抱图像生成模型
积极拥抱技术的艺术家们,已开始在创作实践中运用图像生成模型。其中一个引发广泛社会反响的案例是,艺术家杰森·艾伦(Jason Allen)使用 Midjourney 生成的作品《Théâtre D’opéra Spatial》荣获某艺术比赛大奖[17]。这一事件在艺术界引发了激烈争议:艺术家运用图像生成技术是否违背了公平竞争原则?模型生成的内容能否被视为艺术?仅凭生成图像就能宣称自己是艺术家吗?
另一个案例发生在 2022 年 6 月,《Cosmopolitan》杂志刊登了一期号称「首款人工智能杂志封面」的作品,并宣称在 DALL-E 2 的辅助下,仅用时 20 秒便制作完成[18]。然而,该杂志后续刊载的关于此实验的文章却显示,数字艺术家及杂志团队的其它成员对封面的设计与制作进行了大量的人工干预,实际耗时约 24 小时。这个例子有力地反驳了那些倾向于神化人工智能系统自主性的观点,明确揭示了并不存在所谓的「自主人工智能艺术家」[19],因为图像生成系统本质上既非完全自主,其本身也并非艺术家[20]。
除了在艺术创作过程中直接发挥作用外,图像生成模型也能在艺术探索的早期阶段提供辅助,例如用于构思激发与想法可视化[21,22]。
2.2.2 抵制图像生成模型
相较之下,抵制图像生成模型的声音则更为普遍且强烈。一种核心观点认为,图像生成模型侵犯了艺术家的合法权益。其主要理由在于,这些模型是通过海量数据集训练而成,然而许多原创艺术家对其作品被用作训练数据毫不知情,或并未表示同意;即便是那些同意授权的艺术家,也往往未能获得任何形式的补偿。简而言之,未经许可、未予署名或未提供补偿而使用艺术家的作品,实质上构成了侵权行为,使得本应属于艺术家的创作成果与潜在利益,经由模型被不当转移至科技公司手中[23–25]。
我认同上述观点。既然图像生成模型的成果是基于集体智慧的结晶,那么其产生的财富为何不成比例地向少数技术精英集中?需要强调的是,这一诘问不仅适用于图像生成模型,更应扩展至整个生成式人工智能领域。倘若 Midjourney 和 Stable Diffusion 等模型的运作模式被指认为一种「劳动窃取」,那么 Bard、ChatGPT、Llama 以及其它任何形式的大语言模型又怎能置身事外?究其根本,它们均建立在未经充分同意而大规模攫取数据的基础之上。
我认为,生成式人工智能的健康发展,不仅需要探索创新的数据收集与处理方法,更亟需对当前价值生产与分配机制中的不公现象,以及这种现象是如何在特定社会情境下被形塑出来的,进行细致的经验研究与深入分析。在此之前,这些令人瞩目的新兴技术,并非如其宣称般「站在巨人的肩膀上」,反而更像是「寄生在巨人的内脏中」——它们从人类艺术中汲取养分并维持自身,最终却可能以牺牲当代人类艺术的活力为代价[20]。
另一种普遍的担忧认为,图像生成模型的广泛应用和普及可能导致艺术创作的同质化。首先,训练模型的学习算法在决策过程中(例如,决定在模型训练中对何种输出给予奖励)实质上内含了开发者的特定价值取向。这些模型可能倾向于输出「重复性」而非「差异性」的结果,从而使得图像生成模型在艺术创作中易于形成固化的模板,进而削弱审美的多元性。
同时,人工智能生成的内容也可能成为未来生成模型训练的「养料」,由此创造出一个自我参照的、潜在的「恶性审美循环」,并可能进一步巩固由人工智能驱动的文化规范[26]。正是由于这一特性,目前公众对于模型生成艺术的接受度并不高。普遍观点认为,模型缺乏必要的情感理解能力和个体经验积累,尚无法创作出真正能够触动人心的作品[27]。
其次,模型对图像的解读往往仅停留在表层。这是因为它们是基于数以百万计的、对视觉素材的直观描述(例如名词加形容词,或动词加副词的组合)来构建的。模型通过这些词语或描述性短语,以及一些概括性的风格特征,来捕捉图像中元素的视觉特性及其空间排列方式。因此,由这些系统生成的图像,往往只能严格按照给定的提示词内容进行再现。任何超越直接描述的深层含义、创作意图或赋予特定文本结构的隐喻性及文化内涵,在生成过程中均面临着丧失的风险。一个典型的例证是,模型在创作抽象图像时表现尤为不佳,因为在抽象艺术中,线条、符号、尺寸、阴影、色彩和纹理等元素往往承载着远超其单纯图形表达本身的信息与意蕴[20]。
最后,图像生成模型模仿特定艺术家独特风格的能力,受到了不少用户的青睐。例如,在 Stable Diffusion 推出后不久,用户便发现通过在指令中加入波兰艺术家格雷格·鲁特科夫斯基(Greg Rutkowski)的名字,便能生成具有其鲜明风格的高品质奇幻场景画面。在鲁特科夫斯基公开表示抗议后,Stability AI 公司才决定限制使用其作品风格的功能。然而,「风格窃取」的影响远不止于艺术创作的同质化,它还可能直接剥夺艺术家的商业机会。鲁特科夫斯基及其它一些艺术家表示,随着模型能够逼真地复制他们的画风,寻求他们承接委托创作的需求已有所减少[28]。
针对上述批评,一些技术乐观主义者援引历史上艺术家接纳摄影等新技术的先例,认为对「艺术家之死」的担忧是杞人忧天。他们相信,在生成式人工智能的影响下,艺术家的角色无疑将发生转变,艺术的定义也将再次被重塑[29]。这样的反驳很难说是错的,但它最大的问题在于没有多说些什么,大家都知道艺术定义会流变。但我们又可以反问,艺术的定义什么时候固定过呢?我们并不能摇着历史的大旗,就把当前艺术家们所面临的困境都隐藏起来。
基于以上讨论,我认为艺术家所感受到的权益损害并非空穴来风。但同时,我们也观察到艺术家通过自身的行动与抵制,在一定程度上改变了现状,这种能动性值得被进一步发掘与阐释。此外,需要强调的是,正如前述研究所揭示,深刻理解开发者在设计数据集、算法和模型过程中所嵌入的价值取向至关重要。只有通过对此进行深入研究与分析,才能洞察究竟是谁,以及通过何种方式,在掌握着艺术再定义的权力。倘若艺术可以被视为一种「感性的再分配」,那么一个关键的问题是:在图像生成模型的语境下,这种「感性总体」的范围究竟是如何被界定与塑造的呢?
2.2.3 图像生成模型的美学风格
最后一个值得关注的观点,则指向图像生成模型所倾向输出的美学风格。有学者通过分析模型的提示词及其生成的图像,发现提示词更倾向于强调流行风格和表面化的美学特征,例如「电影灯光效果」、「逼真效果」或「超级细节」等[30]。这种对表面美学的过度偏好,可能导致艺术创作中其它重要元素的被忽视,诸如叙事深度、现实关联性、情感真实性以及原创精神。
进一步地,通过对多个图像生成模型网站内容的图像进行统计与分析,研究者发现其内容主要集中于年轻女性的特写或中景肖像,以及游戏或动漫风格的插图。尽管该研究提供了坚实的实证依据,但其研究方法预设——即认为仅通过分析提示词和图像便足以理解图像生成模型所塑造的视觉文化——尚有可商榷之处。要更全面地回答这一问题,或许还需要深入理解用户在何种具体场景下、出于何种目的使用这些模型,即从用户具体的实践经验出发,进行更为深入的田野调查。
2.3 偏见、来源与模型修补
在审视了图像生成模型如何影响艺术创作之后,我们可以进一步观察到,此类模型的影响并不仅限于审美表达或创作领域本身,而是通过更为深层的机制渗透到社会结构之中。尤为突出的是图像生成模型在内容生成时所携带的各类偏见。这些偏见不仅直接影响艺术作品的呈现方式,更有可能通过视觉文化的广泛传播,进一步固化公众的刻板认知。因此,从创作影响的讨论深入到对偏见的剖析,有助于我们更全面地理解:图像生成模型在何种程度上成为了社会偏见放大与延续的媒介,以及我们应如何应对这一挑战。
2.3.1 模型有哪些偏见
首先,多项研究[31–34] 均已揭示,模型在生成的文本和图像内容中存在显著的性别偏见。有学者通过分析图像生成模型在法律、医学、工程和科研等专业领域中的性别视觉表征,发现 76% 的图像呈现为男性,而女性的占比仅为 8%。此外,图像生成模型的结果往往在传统上男性占主导的职业中,对女性的代表性呈现不足;而在女性从业者比例较高的职业中,女性的代表性又可能被过度强化。这种现象将进一步巩固现有的性别分工刻板印象,可能导致公众对女性在这些职业中的角色定位和实际能力产生误解[35]。
这种偏见是否仅仅源于提示词的不够精确呢?后续的研究发现否定了这一推测。当向模型提供关于社会角色的提示时,它往往倾向于将白人形象视为默认的或理想的范例;当提示与职业相关的内容时,模型则会放大既有的种族与性别间的不平等现象;而基于物品的提示,则可能固化以美国为中心的文化规范。值得注意的是,无论提示语是否明确提及身份认同或人口统计学特征,上述这些刻板印象均普遍存在。而且,尽管研究者尝试通过各种方式进行缓解——无论是用户主动请求包含特定反歧视元素的图像,还是试图在模型层面引入「安全边界」机制——这些根深蒂固的偏见似乎都难以彻底消除[36]。
类似地,偏见也广泛体现在种族[31,37,38] 和地域[39–41] 等多个维度。心理学领域长期且大量的文献表明,当个体持续暴露于充满刻板印象的图像时,无论这些图像是否反映真实情况,都会潜移默化地加强其对特定社会群体的固化认知。这种固化认知往往会导致对被标签化群体的歧视和敌意,甚至可能为针对他们的暴力行为提供某种程度的合理化借口[36]。总而言之,若这些偏见在技术系统中被不断复制和强化,不仅会对个体造成直接或间接的伤害,还可能引发更广泛的社会分化,并进一步加剧弱势群体的边缘化处境。
2.3.2 偏见从哪里来
那么,为何人工智能模型总是难以避免地表现出偏见呢?一个常见的答案被简单地归结为「数据本身存在偏见」。然而,这种解释往往过于笼统,甚至带有一定的敷衍意味。将所有问题都归咎于「数据偏见」,并不能帮助我们更深刻地理解这一复杂现象,更遑论触及偏见背后更为根本的成因。
首先,数据并非凭空产生并自带偏见;它是特定历史背景、社会条件以及人类选择共同作用的产物。更为重要的是,机器学习的整个生命周期远不止数据收集一个环节,它还包括模型设计、训练、评估和部署等多个相互关联的阶段,其中任何一个环节都可能引入或放大偏见。因此,仅仅聚焦于单一环节的分析已不足以解释问题。随着机器学习模型日益复杂和强大,我们愈发需要从整体流程的视角,对其进行自始至终的审慎考察[42,43]。
第一,历史偏见(Historical Bias)。当我们提及「数据有偏见」时,很大程度上指的便是历史偏见。历史偏见指的是,即使数据收集过程本身完美无瑕,模型仍可能忠实地反映出现实世界中既有的不公平或有害模式。这种偏见源于社会、历史或文化中根深蒂固的不平等结构,并通过数据传递到模型之中。例如,在自然语言处理领域,词嵌入(word embeddings)1 技术通过学习海量文本数据来捕捉词语间的语义关系。
然而,研究者发现,词嵌入模型可能从历史文本中习得并复制性别或种族的刻板印象,例如将「护士」一词与女性高度关联,而将「工程师」与男性高度关联。这种偏见并非源于数据采集的失误,而是现实世界历史遗留问题的直接反映。历史偏见的可怕之处在于,即便数据本身是「真实」的(即准确反映了彼时的社会现实),它依然可能导致有害的后果,使得这些刻板印象在聊天机器人或翻译工具等应用中得以延续和强化[44]。
这背后,与其说是生成模型的表现强化了西方中心主义或白人中心主义,不如更准确地说,是模型本身内嵌了既有权力结构的逻辑和价值取向。由于模型是从既有社会结构中攫取的数据集进行训练的,那么当社会结构本身就存在系统性问题时,我们也无法期望人工智能的表现能够超越这种局限。偏见并非源自模型本身的技术缺陷,而是社会价值观形塑了模型;而一旦模型被广泛应用,它们又会反过来加剧这些社会价值观,并可能掩盖其产生的真实社会根源[45]。
第二,代表性偏见(Representation Bias)。当用于训练模型的样本数据无法充分代表其预期的目标人群时,便容易产生代表性偏见,这会导致模型在某些子群体上的泛化能力不足。其成因通常包括:目标人群定义不当(例如,使用某一地区的数据去分析另一地区的人口特征);样本中某些群体的代表性不足;或是抽样方法存在缺陷(例如,仅从特定人群或渠道收集数据)。
针对 ImageNet 图像数据集的经典研究便揭示了这一问题:研究者发现,这个被广泛使用的图像数据集中,绝大多数图像来源于美国和西欧国家,而来自中国和印度的图像占比分别仅为 1% 和 2.1%。因此,基于 ImageNet 训练出来的模型,在识别来自巴基斯坦或印度的图像时,其性能会显著下降,这清晰地显示了地理多样性方面的代表性不足问题[39]。
第三,测量偏见(Measurement Bias)。简而言之,当我们用于衡量特定概念或现象的方法、工具或指标本身存在系统性问题,或者这些测量方式对不同群体产生差异化影响时,便会导致测量偏见,进而产生不公平的结果。在机器学习中,当选用某些「代理指标」(proxies)来代表我们真正希望测量的目标变量时,这种偏见尤为常见。例如,我们希望评估一个人的「信用度」,但「信用度」本身难以直接量化,因此实践中常使用「信用分数」作为其代理指标。然而,信用分数并不一定能完全、公正地反映个体的真实信用状况,对于某些群体(例如,缺乏建立信用记录机会的人群)可能尤为不利。
一个典型的案例是美国刑事司法系统中使用的 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)风险评估工具。该工具旨在预测被告再犯的可能性,其评估结果(即「风险评分」)可供法官在决定是否准予保释或量刑时参考。COMPAS 的运作机制是基于被告的背景资料(如年龄、性别、犯罪记录等)给出一个风险分数,预测其未来再次犯罪的概率。分数越高,代表风险越大,被告获得保释的可能性就越低;反之则越高。然而,COMPAS 并非直接预测「这个人是否会再次犯罪」这一真实目标,而是采用了一些代理指标,例如「历史逮捕次数」。这意味着该工具假设个体的逮捕次数能够有效反映其犯罪倾向。
但在美国的社会现实中,不同社区受到的警力监控程度存在显著差异。例如,少数族裔(尤其是非裔美国人)聚居的社区往往受到更严密的监控,警察在这些区域的巡逻更为频繁,逮捕行动也更为密集。这就导致非裔美国人的平均逮捕次数可能高于白人,但这并不必然意味着他们实际的犯罪率更高,而更可能反映了他们因所处环境而更容易被「执法」。因此,以「逮捕次数」作为「犯罪倾向」的代理指标,对非裔美国人群体而言,本身就可能带来系统性的不公[46]。
第四,聚合偏见(Aggregation Bias)。当将一个统一的、单一的模型应用于内部存在显著异质性(即包含不同特征、行为模式或需求的子群体)的数据集时,便可能产生聚合偏见。这种偏见源于模型假设所有样本都遵循相同的底层模式,从而忽略了不同子群体间的关键差异,最终导致模型无法满足特定群体的独特需求,甚至对某些群体产生不利影响。
例如,有学者在研究芝加哥帮派青年在 Twitter 上发布的帖子时发现,通用的自然语言处理工具难以准确理解这些帖子中蕴含的地方性语言、俚语以及特定的文化背景。某些表情符号在该社群中具有特定的象征意义,但通用模型可能会将其误解为攻击性言论,这便清晰地展示了聚合偏见对特定群体可能造成的不良影响[47]。
第五,学习偏见(Learning Bias)。学习偏见主要发生在模型训练过程中,当人类为机器设定的优化目标或学习算法本身存在缺陷时,可能导致模型在学习过程中无意间放大或固化了训练数据中既有的不公平性。例如,某些为了保护个体隐私而设计的差分隐私(differential privacy)训练方法,在实践中可能会不成比例地削弱模型对数据集中稀有模式或代表少数群体特征的学习能力。这种训练方法为了在宏观上保护隐私,可能会「抹平」或淡化这些少数群体数据的独特影响,从而使得模型对这些群体的特定需求不够敏感,反而可能加剧了不平等[48]。
第六,评估偏见(Evaluation Bias)。在机器学习模型训练完成后,通常会使用一组独立的测试数据来评估其性能,检验其在未见过的数据上的泛化能力。理想情况下,这些测试数据应能充分代表模型在未来实际应用中可能遇到的各种真实场景和数据分布。然而,如果测试数据集本身存在偏差——例如,未能覆盖所有关键的子群体,或者其评估指标未能全面反映模型在不同方面的表现——那么模型的评估结果就可能无法真实反映其整体性能和潜在的公平性问题。
例如,一些商业化的人脸分析工具(如用于识别性别或表情的软件)在标准的基准数据集上测试时可能表现优异,但在实际应用中却暴露出严重问题。其原因往往在于,这些工具赖以评估的基准数据集中,深色皮肤女性的照片样本占比较低。这就好比一套考试试卷中几乎全是针对浅色皮肤人群的题目,模型即便在此「考试」中取得高分,也并未充分证明其在识别深色皮肤人群方面的准确性和公正性[49]。
第七,部署偏见(Deployment Bias)。当模型的实际使用方式或应用场景与其最初的设计目的、训练环境或预期假设不符时,便可能产生部署偏见。模型在不同环境下的性能可能因背景信息的差异、用户行为的改变或其它未预料因素的影响而显著下降或产生非预期后果[50]。例如,一个在特定医院的特定患者人群数据上训练出来的医疗诊断模型,在被部署到另一家医院,面对不同的患者特征、医疗设备或操作流程时,其诊断准确性和可靠性可能会大打折扣。
综上所述,机器学习是一个从数据收集到模型部署的完整链条,涵盖了数据创建(包括采集和标注)、数据准备(清洗和分割)、模型开发(选择算法和训练)、模型评估(测试性能)以及模型部署(实际应用)等多个关键阶段。每一个阶段都可能成为引入偏见或错误的潜在源头。如果我们仅仅满足于用「数据偏见」这一笼统的标签来概括所有问题,那么就无法揭示其背后复杂的成因机制,也就更难以构想出有效的解决方案。
2.3.3 如何应对偏见
面对人工智能系统中普遍存在的偏见问题,一种常见的应对思路是尝试通过技术手段进行干预,例如采用数据预处理技术、调整模型算法与优化目标,或是在模型输出后进行后期处理等,以期检测和消除或至少缓解偏见的影响[51,52]。我的观点是,此类方案表面上看似积极且直接,但其背后往往潜藏着一种技术解决主义(techno-solutionism)的意识形态——即认为人工智能系统产生的问题,总能通过更先进、更精巧的技术方案来修复。这种观念的底层假设是,系统中的差错和偏见是可以被技术性地纠正和迭代优化的。
然而,模型的偏见并非单纯的技术瑕疵,而是深深植根于复杂的历史、社会结构、语言习惯、日常生活实践以及主流意识形态之中。其本质是社会权力结构与价值分配不均在技术系统中的反映与再生产,而非孤立的技术问题。技术解决主义的视角往往忽视了社会与技术之间相互建构、共同演化的动态过程,从而将解决方案局限于看似高效但实则治标不治本的技术路径。
我认为,更为根本且可持续的解决方案,需要在技术系统的整个设计与开发周期中,积极引入并保障多元参与方的实质性介入。这意味着,在从数据收集到模型部署的每一个环节,开发者都需要主动倾听并充分吸纳来自不同背景、尤其是潜在受影响的在地使用者的声音与诉求;同时,也应提高技术决策过程的透明度,让使用者有机会了解并参与讨论开发者所秉持的价值观与设计取向。只有在这样一种持续对话、权力共享的过程中,才有可能真正开启一种以互惠、反思和赋权为核心的技术实践,从而更有效地应对人工智能系统中的偏见问题[35,53]。
2.4 本章小结
本篇文献综述首先揭示了学术界对于生成式人工智能所持有的两种主要态度——即将其视为引领技术革命的颠覆性力量,抑或是可能迅速破裂的投机泡沫——并深入探讨了该技术背后往往被忽视的隐匿劳动维度,细致剖析了数据集构建过程中涉及的人力成本与固有的不平等问题。
此外,本研究还审视了图像生成模型对艺术创作所产生的双重影响:一方面,它为艺术家带来了前所未有的创作助力与可能性;另一方面,也引发了关于版权侵犯、风格窃取以及审美同质化等一系列严峻的批评与担忧。
最后,文献综述聚焦于模型内部所嵌入的偏见问题,明确指出现有模型由于受到历史性偏见、代表性偏见及测量偏见等多重因素的影响,存在固化乃至加剧社会不公的风险。尽管技术解决主义是当前应对此类偏见的主流方案,但其往往忽视了智能系统作为复杂社会技术系统的本质属性,未能从根本上触及偏见产生的深层社会根源。
然而,通过本次综述过程中的系统梳理与批判性对话,我们也不难发现,尽管现有研究在人工智能的劳动分析、社会影响评估以及伦理探讨等方面取得了显著进展,但在以下几个方面仍存在明显的局限与值得进一步探索的空白之处:其一,对于数据集构建过程的深入社会技术分析尚显不足。当前文献更多地集中于分析数据集自身的内容特性(例如样本的代表性、偏见的统计分布等),或是其对模型输出结果的社会影响,而较少关注数据集的构建过程本身是如何被特定的社会力量、技术选择和潜在的价值取向所共同形塑的。
其二,针对大规模多模态数据集(large-scale multi-modal datasets)的批判性研究几乎处于空白状态。现有文献尚未充分探讨此类新兴数据集的创建动机、数据来源与筛选标准,以及这些因素背后所蕴含的价值观如何深远地影响模型的内在特性及其最终的社会效应。相较于传统的、主要用于分类任务的图像数据集(如 ImageNet),生成式人工智能所依赖的图像 - 文本配对数据集(image-text dataset)具有远超以往的规模和复杂性。探究其背后潜藏的生产过程、运作逻辑以及社会意涵,无疑是亟待深入的关键领域。
词嵌入是一种将自然语言中的词语映射到高维向量空间的技术。每个词语由一个向量表示,该向量旨在捕捉词语的语义信息及其与其它词语的关系。例如,语义上相近的词语(如「图像生成模型」与「Stable Diffusion」)在向量空间中的距离会比较近,而语义上不相关的词语(如「图像生成模型」与「西红柿」)则会相距较远。向量的每个维度代表词语的某种潜在语义特征,这些特征是通过机器学习算法从大规模文本数据中学习得到的。↩︎