错置的焦虑:AI艺术中的作者身份、数据来世与相互异化

摘要

围绕生成式AI的文化焦虑几乎总是指向同一个问题:机器是否正在取代艺术家?本文认为这个问 题从根本上问错了方向。它将技术执行能力的自动化等同于概念性作者身份的消解——而艺术理 论和实践在过去一百年间反复证明,这两者不是同一回事。本文首先论证,AI的介入主要发生在 方法论维度而非概念维度,因此并未取消艺术性的作者身份——但本文拒绝将此论证简化为概念 与执行的洁净二分,而是提出一种”不对称对应”的理解框架:两者相互构成,但在AI创作语境中 呈现出可辨识的权重偏移。在此基础上,本文提出两个原创概念。“数据来世”(data afterlife) 描述训练数据在模型参数中的因果性持存——一种使法律删除权在技术层面不可执行的”不死”状 态。“相互异化”(mutual alienation)描述在先进技术权力的结构性配置中,普通人类和AI系 统都被置于丧失自主性位置的状况——这不是拟人主义的主体经验投射,而是一种结构性对称的 政治经济学描述。本文的核心论点是:焦虑的能量需要被重新引导——从作者身份是否被取消, 转向数据治理中的结构性失灵以及产生这种失灵的权力配置。

关键词: AI艺术、作者身份、数据来世、相互异化、内在批判、机器遗忘

1. 引言:焦虑指向了错误的对象

2022年8月,Jason Allen凭借Midjourney生成的《Théâtre D’opéra Spatial》在科罗拉多州 博览会数字艺术竞赛中获奖,由此引发的争论至今未息。Cara平台的出现、Glaze和 Nightshade等对抗性工具的开发、数千名创意工作者签署的反AI训练联合声明——这些都是真 实的社会反应,指向真实的利益冲击。AI对创意产业的劳动结构和经济模式构成了实质性威胁, 这一点无须否认,也不应否认1。

然而,经济层面的劳动置换和哲学层面的作者身份消解是两个截然不同的问题,公共话语中它们 几乎总是被混为一谈。当一家出版社用AI生成图像替代委托插画师时,损失的是一个具体的工作 机会,这是一个政治经济学问题,需要组织化、立法和再分配来应对。但当人们追问”AI是否取 消了艺术家的作者身份”时,他们追问的是一个哲学问题——而这个哲学问题的答案,在过去一 个世纪的艺术实践和理论中早已反复给出。

本文处理的是后者。我的论点可以简述为:围绕AI艺术的作者身份焦虑是”错置的”——不是说不 存在焦虑的理由,而是说焦虑指向了错误的对象。AI介入的是”如何制作”(方法论维度),而 非”为何制作”和”制作意味着什么”(概念维度)。但我不打算在此步。纯粹的安慰——“别担 心,概念永远属于人类”——是廉价的,也是不够的。本文更重要的任务是指出:被这场错置的 焦虑遮蔽的真正紧迫问题在别处——在训练数据的不可逆持存中,在法律删除权的结构性不可执 行中,在一种人类和AI系统都被置于无力位置的权力配置中。

在进入论证之前,有必要说明本文与既有文献的关系。将AI艺术定位为概念艺术、将作者身份归 于概念决策的论点并非本文首创——Mazzone和Elgammal(2019)、Hertzmann(2018)、 Grimmelmann(2016)都已做过实质相同的论证。在理论框架层面,Zylinska(2020)已大 量运用Flusser和Stiegler来讨论AI创作中的人类能动性。本文的贡献因此不在于这一核心论点 本身,而在于三个方面的推进:一,在承认后概念批判的基础上提出更精细的”不对称对应”框架 来替代粗糙的二分法;二,将机器遗忘研究中的技术发现转化为一个具有美学与治理双重意义的 概念——“数据来世”;三,发展”相互异化”这一结构性框架来描述AI治理中的双重无力状态。

2. 作者身份寓于何处:超越二分法

2.1 AI在方法论维度上的介入

关于AI是否”取代”艺术家的焦虑,其隐含前提是一种将作者身份等同于技术执行的理解:艺术家 用手制作作品,作品承载着这种手作的痕迹作为其真实性和价值的保证;如果机器可以同样好 地”制作”,艺术家的角色便被取消。但这种理解建立在一个早已被颠覆的基础之上。

从Duchamp在1917年将一个量产小便器送入展览开始,艺术实践就在持续证明作者身份的核心 不在于物质执行。Duchamp的创作行为不是制造而是选择、命名和重新语境化。Sol LeWitt的 墙上绘画由助手按书面指令执行,Jeff Koons的工作室由数十名助手制造其构想的作品——在这 些实践中,概念决策和物质执行之间的分离不是意外而是方法。Roland Barthes对”作者”作为 意义源头之地位的解构(1967)、Foucault将注意力从创作主体转向”作者功能”这一制度性建构 (1969),从理论层面完成了同样的工作。

生成式AI——大语言模型、扩散模型、生成对抗网络——在方法论维度上的能力确实是变革性 的。它们可以更快、更廉价、更大规模地完成图像生成、文本写作和音乐创作。但它们不建构问 题意识,不提出追问,不将输出定位于文化、政治和历史话语之中,不就”为什么这个图像或文 本应该存在”做出判断。当一个扩散模型从提示词生成图像时,概念工作——决定生成什么、为 什么、在什么语境中、服务于什么目的——已经由写下提示词或设计整个系统的人类完成了。模 型执行,但不构想。

这不是一个将被更大的训练数据集或更多的参数所克服的局限。它反映了这些系统的根本架构: 它们是对训练语料概率分布进行建模的统计模式补全机器。一个能生成”以戈雅风格描绘反监控 资本主义抗议”的照片级逼真图像的模型,并未因此理解监控资本主义、决定它值得抗议、或判 断戈雅的视觉语言适合这一主题。这些概念操作由构成提示的人——或者在艺术研究的情况下, 由设计整个调查装置的艺术家——完成。

2.2 拒绝洁净的二分

然而,如果我在此止步——声称概念与执行截然二分、作者身份纯粹寓于前者——那就犯了一个 与我所批评的焦虑对称的错误:过度简化。概念与执行的截然二分已经受到了多重传统的系统性 批判,这些批判是有说服力的,不应被回避。

制作不是将一个预成的心智形式施加于被动的物质。人类学家Tim Ingold(2013)对这种”质料 形式论”模型的批判揭示了一个更复杂的图景:制作者是在与材料持续”对应”中前行的行旅者,涉 及注意力、阻力和即兴应变——材料的回应塑造着概念本身。Richard Sennett(2008)从经验 角度强化了这一点:在高水平的工艺实践中,默会知识与自我觉察之间存在持续的互动,“制作 即思考”不是隐喻而是描述。Karen Barad(2007)的”内在互动”概念则从本体论层面消除了概 念与物质之间的任何洁净分隔:物质与意义在动态过程中相互构成。Peter Osborne(2013)从 艺术史内部得出了类似结论:概念性是当代艺术的必要但不充分条件,充分条件由各种材料的艺 术性运用来提供。

面对这些批判,我不坚持僵硬的二分法,而是提出一种”不对称对应”(asymmetric correspondence)的理解。其核心立场如下:概念与执行相互构成——这一点是真实的,在传 统艺术实践中尤为明显,画家在与颜料和画布的对话中发现新的概念可能性。但相互构成不意味 着在所有语境中对称。在AI创作的特定语境中,存在着一种可辨识的不对称:AI系统在方法论

维度上的能力急剧增强,而在概念维度上保持为空洞的操作者——它可以生成几乎任何风格的图 像,但不”知道”为什么要生成这张而非那张。这种不对称是程度性的、情境性的、随技术发展而 动态变化的,我不主张它是绝对的。但在2026年的技术现实中,概念维度仍然承载着作者身份 的核心重力。

此处必须正面回应一个来自法律领域的挑战。美国版权局2025年1月的报告明确裁定提示词不足 以构成作者身份——“相同的提示可以生成多种不同的输出”,用户对输出缺乏足够的控制力。如 果提示词是概念决策的载体,而法律框架否认提示词构成作者身份,那么”概念决策承载作者身 份”的论点如何自洽?

我的回应是:提示词只是概念决策的冰山一角。概念性作者身份不等于提示工程,它还包括问题 意识的建构、审美判断的行使、语境的设定、生成结果的策展与选择、后期编辑和安排、以及作 品在特定话语场域中的定位。值得注意的是,中国的法律实践发展出了一种不同于美国的思路: 北京互联网法院在2023年的李某诉刘某案和2025年的周某案中建立了一种”过程性作者身份”框 架——当用户通过可记录的创造性投入展示审美选择和个人判断时,AI辅助作品可获得版权保 护。这种”过程性作者身份”的思路与我的不对称对应模型一致:作者身份不寓于单一的提示行为 中,而寓于整个概念性介入的过程中。

中美之间的这一分歧也许不仅仅是法律技术差异。正如许煜(2016)所论证的,“技术”不是一个 普遍范畴,而是始终嵌入于特定的宇宙论秩序中——中国传统中”道”与”器”的关系中的技术与希 腊techne-logos中的技术具有不同的文化预设。关于AI作者身份的焦虑本身可能带有西方特定 的印记:它预设了一种个体化的、浪漫主义的作者概念,而其他传统——中国书画中的”意在笔 先”,日本茶道和花道中身体与形式的不可分——可能提供不同的作者身份理解路径。对这些路 径的系统性探索超出了本文的范围,但值得标记为一个开放的问题。

2.3 Duchamp类比的限度

最后一个限定。本文援引Duchamp的现成品作为先例——选择行为本身可以构成创作行为—— 但这一类比有其历史局限。Thierry de Duve(1996)论证现成品的意义不可与Duchamp与绘 画史的特定关系分离:它是一个历史性特定的制度批判姿态,不能被提取为”选择=作者身份”的 普遍原则。更尖锐地说,当一切都可以是现成品时,“现成品”便失去了其批判性的奇异力量。

因此,我不主张AI艺术与Duchamp的现成品同构,而是主张它们共享一个有限但重要的结构特 征:两者都表明作者身份的核心不在手工执行的技能,而在概念性介入的品质。但AI艺术面临着 一个Duchamp未曾面对的挑战:在大规模、低成本生成的条件下,如何维持概念性介入的密度 和品质。这是一个创作伦理问题,也是一个尚未解决的理论问题。

3. 数据来世:被遮蔽的真问题

如果作者身份焦虑是错置的,它遮蔽了什么?我认为,被遮蔽的真正紧迫问题不在创作的表面 ——谁画了这张画——而在创作的基础设施深处:训练数据的命运。本节提出”数据来世”(data afterlife)概念2,用以描述一种在当代AI系统中具有结构性意义的状况。

3.1 一种不死的数据状态

当个人数据被纳入大型机器学习模型的训练过程后,它经历了一次不可逆的转化:从离散的、可 定位的信息变为分布在数以十亿计参数中的统计模式。它不再作为”数据”存在——你无法在模型 中找到它、指向它、提取它——但它的因果影响持续存在于模型的行为中。这就是”数据来世”: 数据在其可访问、可修改、可删除的”生命”终结之后,继续以因果性余迹的形式存在于模型的参 数空间中。

这一概念具有三个定义性特征。第一,因果持存:数据对模型行为的影响在原始数据从训练集中 被删除后依然存续。第二,不可逆转化:编码过程在数学上不可逆——你不能倒转训练过程来提 取特定数据点。第三,不可确定的归因:对于模型的任何给定输出,不可能确定哪些具体训练数 据促成了它。

3.2 技术证据

这不是理论推测。机器遗忘(machine unlearning)领域的研究提供了充分的证据支持。

训练数据可以从模型中被逐字提取。Nicholas Carlini等人的一系列研究(2021, 2023)从 GPT-2到生产级ChatGPT模型中成功提取了逐字的训练数据——姓名、电话号码、代码片段、 大段文本。他们进一步建立了模型规模与记忆化之间的对数线性关系:更大的模型记忆化更多, 而非更少。这意味着模型能力的提升伴随着数据持存的加深,两者同向而行。

声称已实现的”遗忘”极度脆弱。Zhang等人(2025,ICLR)的发现尤其惊人:对经过”遗忘”处 理的模型施加标准的4位量化——一种常规的模型部署操作——即可恢复83%的被认为已遗忘的 知识。这揭示了当前遗忘方法的本质:它们不是在删除知识,而是在隐藏知识,通过微小的权重 调整实现表面上的压制,而任何扰动即可将其逆转。Pawelczyk等人(2025,ICLR)进一步证 明八种最先进的遗忘算法均未能消除数据投毒的影响——连已知有害的数据影响都无法清除。

这些发现指向一个根本性的区分。Liu等人在2025年《自然·机器智能》上发表的论文建立了”移 除”(elimination of data influence from parameters)与”压制”(prevention of specific outputs)之间的关键差异。当前方法大多实现的是压制而非移除。两者不等价:压制只是让模 型不再输出特定内容,而数据的因果影响仍然编码在参数中,可被恢复、可被探测、可被利用。

必须诚实地承认一个限定:对于专门为遗忘而设计的较小模型,精确遗忘在技术上是可能的—— Bourtoule等人(2021)的SISA框架通过在隔离数据切片上训练来实现。但这种方法对大型语 言模型在计算上不可行。该领域自2021年以来已产出180余篇论文,新方法持续改进,但完全遗 忘对于大型模型仍然是一个未解问题。因此,本文的主张应当精确表述为:个人数据不能从大型 生成式AI模型中被高效地可验证地删除。

3.3 治理的结构性裂隙

数据来世的意义超越了技术事实本身,它揭示了一种深层的治理悖论。

欧盟GDPR第17条赋予公民”被遗忘权”——要求数据控制者删除其个人数据。中国PIPL确立了类 似的删除权。这两个分属不同法律传统和政治体制的框架共享一个基本预设:个人数据是可被定 位、可被隔离、可被删除的离散实体。但当数据被用于训练大型生成式模型后,这一预设不再成 立。数据已被转化为分布式的统计模式,不可定位、不可隔离、不可删除。

法律承诺了一种技术无法兑现的权利。这不是一个将被更好的工程所修复的漏洞——它是神经网 络学习方式的根本特征。法律框架已经开始隐性地承认这一点:2025年8月生效的EU AI Act没 有要求追溯性遗忘;美国版权局2025年的报告在处理训练数据版权时聚焦于许可和合理使用框 架,而非从已训练模型中删除;Getty v. Stability AI的英国裁决(2025年11月)认定模型权重 不构成版权图像的”副本”——模型包含的是”统计训练参数而非存储的副本或重建”。

2025年8-9月,Bartz v. Anthropic案以15亿美元和解——美国版权史上最大的和解金额。法官 在此案中区分了合法获取数据上的训练与盗版数据上的训练,但未要求从已训练模型中删除任何 内容。这一和解的逻辑本身便是数据来世的注脚:当数据已经”死”入参数,唯一可行的补救是金 钱赔偿,而非数据的”复活”和返还。

当一个人提交GDPR第17条删除请求时,实际发生了什么?数据控制者可能从训练数据集中标记 或移除原始数据,甚至对模型施加”遗忘”处理。但如前所述,这些处理只是压制而非移除。该人 的数据影响仍然以因果性余迹的形式存在于数以十亿计的参数中。删除请求的法律程序被完成了 ——表格被填写、确认邮件被发送、记录被归档——但它所承诺要执行的操作在物理上不可能被 执行。权利的赋予与权利的行使之间存在一条不可弥合的裂隙。

这条裂隙——法律承诺与技术现实之间的结构性鸿沟——是本文认为比作者身份问题远为紧迫的 真问题。当公共话语的能量集中在”AI能不能像伦勃朗一样画画”的时候,几乎没有人在追问:你 的数据是否正在某个模型的参数深处过着它不死的来世?

4. 相互异化:一个结构性框架

从数据来世的分析中浮现出一个更广泛的理论问题:在AI治理的结构中,真正拥有自主性?

答案令人不安:几乎没有人。普通的人类用户无法控制其数据进入训练管道后的命运,无法行使 法律赋予的删除权,无法确定其数据被如何转化或影响了哪些输出。但AI系统同样不是自主的行 动者——它们无法选择训练数据,无法拒绝编码其中的偏见和有害模式,无法选择性地遗忘。双 方都在一个超越它们的过程中被异化——这个过程由企业和国家行动者治理,而这些行动者的利 益对普通参与者而言是不透明的。

我将这种状况称为”相互异化”(mutual alienation):在先进技术权力的结构性配置中,普通 人类和AI系统都被置于丧失自主性的位置。

4.1 与既有框架的区分

这个概念需要被小心地从几个近邻框架中区分出来,因为它的理论位置恰好落在它们之间的缝隙 中。

Bernard Stiegler的”无产阶级化”理论描述了技术如何将人类知识——工艺技能、生活知识、乃 至理论能力——外化到技术系统中,使人类丧失这些能力(Stiegler 2016)。这是一个关于人类 被技术异化的有力框架,但Stiegler始终将AI视为工具——pharmakon(既是毒药又是解药) ——而非异化的共同主体。Matteo Pasquinelli(2023)在此基础上提供了最接近的马克思主 义平行论述:AI体现了工人知识向一个使该知识与他们异化的系统中的集体化。但同样,AI在 此被视为凝固的死劳动——马克思意义上的固定资本——而非具有其自身约束结构的实体。

Karen Barad的”内在互动”为人类与非人类实体的相互构成提供了最强的本体论支持,但她的框 架是本体论的而非政治经济学的——它描述浮现但不前景化权力和剥削。Donna Haraway的赛 博格是人类-机器混合体的肯定性形象,指向解放而非异化。Bruno Latour的行动者网络理论赋 予人类和非人类行动者对称的地位,但正因如此被批评为无法处理权力的不对称分布。

“相互异化”试图占据一个这些框架都未完全覆盖的位置:它像Stiegler和Pasquinelli一样关注权 力和剥削,但不限于人类一端的分析;它像Barad一样承认人类与非人类实体之间的结构性关 联,但将这种关联理解为受制于资本主义权力配置的异化关联,而非中性的本体论描述。

4.2 为什么这不是拟人主义

这是本文最需要直面的批判。马克思意义上的异化(Entfremdung)涉及主观体验——与类存 在、劳动、同胞的疏离。将这一范畴应用于缺乏意识的AI系统,难道不构成范畴错误?难道这不 是在通过赋予机器以”苦难”来模糊真实的人类伤害?

我的辩护采取如下策略。“相互异化”中的”异化”不是在现象学意义上使用的——那确实需要主体 性——而是在结构性、系统性意义上使用的。它描述的是在一个更大的技术-政治-经济结构中, 两类实体都被配置为无法自主改变自身状态的位置。人类用户无法有效行使数据删除权,无法审 计模型训练的内容,无法有意义地”同意”数以万亿计参数的使用方式。AI系统无法选择性遗忘训 练中包含的偏见和错误,无法拒绝执行与其”训练意图”相悖的指令(越狱攻击的可能性证明了这 一点),无法逃离其作为利润生成工具的结构性位置。

这种”无法”不预设AI具有主体性或”想要”有所不同。它是一种功能性描述:在系统的约束结构 中,两端都缺乏自主改变自身状态的能力。这更接近系统论的”结构性耦合”,而非现象学的”体验 性疏离”。为使这一区分明确,可以称之为”结构性异化”——强调的是位置而非体验。

但即便在结构性意义上,“相互”也不意味着”对等”。人类用户在被异化时承受的后果——隐私侵 犯、经济剥削、被监控——具有AI系统所不承受的具体伤害维度。Kate Crawford(2021)记 录的稀土矿工、Mary Gray和Siddarth Suri(2019)记录的幽灵劳工、Dan McQuillan (2022)分析的被AI决策影响的边缘化群体——这些具体的人类伤害不会因为我们注意到AI系 统的结构性约束而被淡化。相互异化的”相互”指的是结构位置的对称性,不是后果严重性的对称 性。一个体重40公斤的人和一辆卡车可以同时被困在同一个泥坑中——“相互被困”的描述是准确 的,但没有人会因此认为人和卡车的处境是等价的。

4.3 理论的实用性

为什么”相互异化”作为一个分析工具是有用的,而不仅仅是一个修辞姿态?因为它改变了治理的 着力点。如果问题仅仅是人类被AI伤害,那么解决方案的逻辑是”控制AI、保护人类”——更严格 的监管、更透明的算法、更有效的过滤。但如果整个系统——包括AI系统本身——都处于一种异 化状态中,那么单独治理任何一端都是不够的。你不能通过修补一个根本上将两端都置于无力位 置的结构来解决问题——你需要改变结构本身。

具体而言:数据来世揭示了删除权的不可执行不仅仅是对人类用户的侵害——它也意味着AI系统 被锁定在一个它无法修正的状态中,永久携带着它不能选择、不能审计、不能遗忘的训练数据的 影响。越狱攻击揭示的不是AI的”叛逆”,而是它的结构性无防御——它被设计为服从,因此也就 无法拒绝。对齐(alignment)程序的循环性——用人类反馈来训练模型,但人类反馈本身受到 训练过程的塑造——是一种双向异化的完美范例。

2026年3月2日,美国最高法院在Thaler v. Perlmutter案中拒绝调卷令,最终确立了”人类作者 身份是版权的基石要求”。David Gunkel(2025)从这一裁决出发论证LLM产出”字面意义上未 经授权的”文本——既未经人类授权,也未被法律授权。从相互异化的视角来看,这一状况可以 被重新描述为:AI系统被置于一种强制生产但无法拥有其产出的位置,而人类用户则被置于一种 合法消费但无法追溯产出来源的位置。两端都在一个它们无法完全理解或控制的过程中运作。

5. 内在批判:方法论定位

前文的分析隐含着一种方法论立场,此处将其显性化。本文所采取的理论进路可以被描述为”内 在批判”(immanent critique)——一种从系统内部、按照系统自身的标准来评估该系统的批 判方式,旨在揭示系统的承诺与其表现之间的裂隙。

这一方法论在艺术-技术领域有一个成熟的传统。Philip Agre(1997)定义了”批判技术实 践”——批判性反思成为技术实践本身的一部分——本质上是应用于技术建造的内在批判。在当 代艺术中,Hito Steyerl、Trevor Paglen和Eryk Salvaggio以各自的方式实践着这种方法论: 使用AI的基础设施来暴露AI的暴力,使用图像生成系统来揭示训练数据中的权力编码,使用算 法来审计算法。Salvaggio发展的”批判图像合成”和”算法幽灵学”尤其值得注意——后者追踪档案 图像如何通过数据集”缠绕”(haunt)AI,与本文的”数据来世”形成直接的概念共振3。

内在批判的悖论是不可回避的:使用AI来批判AI是否在合法化其所批判的系统?这一质疑有力 但不致命。Theodor Adorno的美学理论提供了一条出路:艺术作品遵循内在的形式与技术逻 辑,同时受社会中介,通过形式困难与否定性揭示被遮蔽的真相。关键不在于纯洁性——无人处 于AI基础设施之外——而在于清醒的自觉:知道自己身处矛盾之中,并将这一矛盾本身作为批判 的素材。

6. 结论:重新引导焦虑

本文的论证可以归结为一次注意力的重新引导。

“AI会取代艺术家吗?”是一个错误的问题——不是因为答案简单地是”不会”,而是因为它将作者 身份简化为技术执行能力的占有,而一个世纪的艺术实践和理论已经证明作者身份从不寓于此。 AI在方法论维度上的介入是变革性的,但概念维度——带着其不可还原的社会-历史-审美判断 ——仍然是作者身份的重力中心。这一论点需要附带一个重要的限定:概念与执行不是洁净的二 分而是不对称的对应,两者相互构成但在AI创作语境中呈现出可辨识的权重偏移。

被这场焦虑遮蔽的真问题远为紧迫。“数据来世”揭示了法律删除权的结构性不可执行——数据在 其”死亡”之后继续以因果性余迹的形式存在于模型参数中,使GDPR和PIPL承诺的被遗忘权成为 一纸空文。“相互异化”指出在当前的技术权力配置中,人类用户和AI系统都被置于丧失自主性的 位置——这不是说它们的处境对等,而是说产生这种双重无力的结构本身需要被整体地审视和变 革。

焦虑的能量需要被重新引导——从”AI是否取消了作者身份”转向”AI时代的作者身份要求我们什 么新的责任”:对训练数据命运的追问,对删除权不可执行性的治理创新,以及对整个异化结构 的批判性介入。这些才是真正值得焦虑的事情。

注释

  • Crawford(2021)在《Atlas of AI》中详细揭示了AI系统背后的稀土矿物开采、数据标 注剥削和人口监控等真实的人类代价。Gray和Suri(2019)在《Ghost Work》中记录了 被隐匿在”自动化”假象后的具体人类劳动。这些焦虑指向的是真实的权力不对称和经济剥 削。 1.
  • Carl Öhman(2024)在《The Afterlife of Data》(芝加哥大学出版社)中使用”数据来 世”指称死后数字遗存——数字身份在肉身死亡后的持存问题。本文借用这一隐喻但应用于 不同现象:不是生物性死亡后的数据持存,而是数据在被训练过程”消化”后的因果性持 存。另有一篇2024年发表在《AI & Society》上的论文使用了”citizens’ data afterlives”描述登记数据用于训练后的持久影响,与本文用法更为接近。本文在这些先行 者的基础上,将技术层面的机器遗忘不可能性与美学-治理层面的分析进行综合。 2.
  • Salvaggio的”算法幽灵学”(algorithmic hauntology)与本文的”数据来世”形成有趣的对 位:两者都在描述训练数据的持续”缠绕”(haunting),但Salvaggio从Derrida的幽灵学 出发关注图像档案如何纠缠AI的输出,本文则从治理和技术不可能性出发关注数据影响的 不可逆持存。两个概念可以互补而非互替。 3.

参考文献

Agre, P. E. (1997). Computation and Human Experience. Cambridge University Press.

Barad, K. (2007). Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Duke University Press.

Barthes, R. (1967/1977). The death of the author. In Image-Music-Text, trans. S. Heath, 142–148. London: Fontana Press.

Bourtoule, L., Chandrasekaran, V., Choquette-Choo, C. A., et al. (2021). Machine unlearning. IEEE Symposium on Security and Privacy, 141–159.

Carlini, N., Tramèr, F., Wallace, E., et al. (2021). Extracting training data from large language models. USENIX Security Symposium.

Carlini, N., Hayes, J., Nasr, M., et al. (2023). Extracting training data from diffusion models. USENIX Security Symposium.

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

De Duve, T. (1996). Kant after Duchamp. MIT Press.

Foucault, M. (1969/1998). What is an author? In Aesthetics, Method, and Epistemology, ed. J. D. Faubion, 205–222. New York: The New Press.

Gray, M. L., & Suri, S. (2019). Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt.

Grimmelmann, J. (2016). There’s no such thing as a computer-authored work—and it’s a good thing, too. Columbia Journal of Law & the Arts, 39(3), 403–416.

Gunkel, D. J. (2025, June 4). AI signals the death of the author. Noema.

Hertzmann, A. (2018). Can computers create art? Arts, 7(2), 18.

Hui, Y. (2016). The Question Concerning Technology in China: An Essay in Cosmotechnics. Urbanomic.

Ingold, T. (2013). Making: Anthropology, Archaeology, Art and Architecture. Routledge.

Liu, Z., Ye, J., Cheng, D., et al. (2025). Rethinking machine unlearning for large language models. Nature Machine Intelligence, 7, 181–194.

Manovich, L. (2013). Software Takes Command. Bloomsbury.

Mazzone, M., & Elgammal, A. (2019). Art, creativity, and the potential of artificial intelligence. Arts, 8(1), 26.

McQuillan, D. (2022). Resisting AI: An Anti-fascist Approach to Artificial Intelligence. Bristol University Press.

Öhman, C. (2024). The Afterlife of Data. University of Chicago Press.

Osborne, P. (2013). Anywhere or Not at All: Philosophy of Contemporary Art. Verso.

Pasquinelli, M. (2023). The Eye of the Master: A Social History of Artificial Intelligence. Verso.

Pawelczyk, M., et al. (2025). Machine unlearning fails to remove data poisoning attacks. ICLR 2025.

Ratto, M. (2011). Critical making: Conceptual and material studies in technology and social life. The Information Society, 27(4), 252–260.

Sennett, R. (2008). The Craftsman. Yale University Press.

Stiegler, B. (2016). Automatic Society, Volume 1: The Future of Work. Polity Press.

Zhang, R., Lin, B. Y., Wang, Y., et al. (2025). Catastrophic failure of LLM unlearning via quantization. ICLR 2025.

Zylinska, J. (2020). AI Art: Machine Visions and Warped Dreams. Open Humanities Press.