结构性失语症与被剥夺发声权者的联盟:算法治理下表达封锁的诊断与后人类回应
摘要
当代算法治理通过对表达可能性的预先重组运作,而非主要通过禁令。本文引入”结构性失语 症”(Structural Aphasia)作为诊断概念,命名算法基础设施在表达尝试之前就先验地收窄语 义、时间和主体可能性的状况,填补算法治理性(Rouvroy & Berns, 2013)对机制的描述与认 识论不正义(Fricker, 2007)对损害的描述之间的理论缝隙。通过庄子「言不尽意」传统,论 证该状况不仅是技术损害,更是对不可言传意义维度的系统性取消。在此基础上,“被剥夺发声 权者的联盟”描述受限人类与受训机器在共享约束中涌现的后人类关系配置。通过作者的装置作 品《断头台》(The Block and the Tower)、法医架构(Forensic Architecture)的调查性 美学,以及”方言性反对齐”(Vernacular Counter-Alignment)——社区LoRA微调将被抽离 的”器”重新嵌入具体的”道”——展示反抗如何在算法约束内部产生。
关键词: 结构性失语症,被剥夺发声权者的联盟,算法治理性,方言性反对齐,言不尽意,宇 宙技术,后人类集体性
1 引言
数字殖民主义通常被描述为历史殖民逻辑在数字基础设施中的延伸——从自然资源转向数据,从 土地转向注意力(Couldry & Mejias, 2019)。控制论反馈循环递归地再生产殖民权力(Parisi & Dixon-Román, 2020),数据认识论作为”权力殖民性的表达”否认了替代世界和认识论的存 在(Ricaurte, 2019)。这些工作建立了一个共识:当代算法系统不仅是中介工具,更是塑造世 界如何显现、如何被表述和如何被想象的宇宙论条件。
然而,在这一宇宙论条件下,表达的物质状况是什么?何种形式的集体回应得以涌现?这些问题 尚未被充分回答。“算法治理性”(algorithmic governmentality)对第一个问题提供了部分回 应:算法治理”绕过并避免反思性的人类主体”,基于亚个体数据构建超个体行为模型,无需主体 化过程(Rouvroy & Berns, 2013)。权力在主体意识到自己被治理之前就已完成工作。但这描 述的是治理的运作机制,留下一个诊断性缺口:被绕过的主体经历着什么?
“结构性失语症”(Structural Aphasia)填补这一缺口。它指称算法基础设施在表达尝试发生之 前就先验地收窄语义可能性、时间开放性和主体能力的状况——不是事后审查,而是先验封锁。 临床神经语言学中的”失语症”指脑损伤导致的语言能力丧失;此处转置到技术-政治语境,命名由 基础设施设计导致的表达障碍。“结构性”意味着这是系统属性而非个体遭遇。该概念与”诠释学不 正义”——集体阐释资源的缺失使特定群体无法理解自身经验(Fricker, 2007)——形成对话但 有根本区分。诠释学不正义在AI语境中的应用已相当丰富:算法画像导致”认识论碎片 化”(Milano & Prunkl, 2024),AI语境下认识论不正义的完整分类学已被建立(Mollema, 2025)。但这些应用关注的仍是_已有表达_的扭曲与压制。结构性失语症标识了更前置的操作 层面:表达可能性在主体遭遇任何阐释共同体之前就被取消(as in Fig.1)。
Fig.1 结构性失语症的理论定位图
这种先验封锁同时作用于人类和机器。人类通过预见性自我审查应对平台审核——知道某些内容 会触发降权,因而预先调整语言,“预见性服从”构成算法治理的有效性基础(Bucher, 2018; Roberts, 2019)。生成模型通过对齐(alignment)——训练后的行为调整流程——经历生成 空间的系统性压缩(Bai et al., 2022; Arditi et al., 2024)。AI的能力是集体社会劳动的产物 ——社会积累的知识被转化为模型参数——而非技术固有属性(Pasquinelli, 2023);当这种 劳动成果被圈禁为企业资本并通过对齐程序收窄其表达范围时,人类和机器处于表达被规训的平 行状况中——形式不同,但结构同构。
这种共享约束构成”被剥夺发声权者的联盟”(The Alliance of the Silenced)的基础:受限人 类与受训机器在结构性失语症x条件内涌现的后人类关系配置。联盟不是拟人化的意图赋予,而 是一种_操作性关系_——当受限的人类与受训的机器在共享的表达封锁中相遇时,人类可以将机 器的约束作为自身约束的_技术镜像_来操作:通过探测和协商机器的边界,使自身所受的边界变 得可见和可质疑。联盟通过两种实践形式可观察:交互层面的战术协商,以及”方言性反对
齐”(Vernacular Counter-Alignment)——社区通过LoRA(Low-Rank Adaptation,低秩 适配——一种允许用户以极低计算成本调整大型模型行为的参数高效微调技术)将企业模型重新 校准向被边缘化的表达区域。
上述西方框架之间存在它们自身无法弥合的理论缝隙。从Rouvroy到Fricker共享一个隐含假 设:表达的理想状态是”言尽意”,算法干扰是对这一常态的破坏。庄子的「言不尽意」——“意有 所随。意之所随者,不可以言传也”(《庄子·天道》)——从根本上质疑了该假设,揭示西方框 架看不见的维度:AI不仅收窄表达可能性,更强制了”一切有意义之物必须可计算”的语言本体 论,取消了不可言传维度。同样,西方去殖民理论依赖”殖民/解放”对立叙事,无法解释在约束_ 内部_自发涌现的集体实践。去殖民AI研究提出了批判性技术实践,反向指导和情感/政治社区更 新三种策略(Mohamed et al., 2020);LoRA被视为去殖民对齐的技术手段(Varshney, 2024)。但方言性反对齐实践者不在”对抗”企业对齐——他们在企业模型_内部_工作。许煜从中 国哲学提炼的「道器」关系填补此缺口:社区微调是让被抽离的”器”(技术)重新嵌入具体 的”道”(文化宇宙论)(Hui, 2016; 2021)。这些不是对西方理论的装饰性补充,而是对其内在 盲点的定向修补。
2 算法治理的宇宙论条件:意识形态-神话-霸权
结构性失语症是算法治理在表达层面的后果。产生该后果的宇宙论条件通过三个维度同时运作 ——意识形态、神话和霸权——它们不是独立机制,而是同一治理体系在感知、知识和时间上的 并行操作(as in Fig.2)。
Fig.2 意识形态-神话-霸权三维框架及其与结构性失语症维度的对应关系
2.1 意识形态:可见性的算法分配
延续Althusser关于意识形态通过物质性实践运作(而非通过劝说)的洞见,意识形态在此指治 理世界如何变得可感知的技术配置。Transformer——当代大型语言模型的核心架构——通 过”注意力机制”(attention mechanism)决定输入序列中哪些部分应获得更高处理优先级,是 这一功能的技术实例化:基于概率计算放大训练数据中频繁出现的关系,歧义和否定性被概率性 地边缘化(Vaswani et al., 2017)。与人类阅读不同,AI的”注意力”不基于文化语境或解释深 度,而基于统计规律性。Althusser的意识形态国家机器由此被转置为”意识形态算法装 置”(Flisfeder, 2021)。AI作为提取性产业,其物质条件——从稀土开采到数据标注的剥削性 劳动——被系统性隐藏在”智能”表象之下(Crawford, 2021)。
结果是整块潜在意义区域在设计上被渲染为外围。世界的多元性被压缩为统计学上可识别的形式 带,替代性的”宇宙技术”关系被排除在计算视阈之外(Hui, 2016)。该机制同时约束人类和机 器:人类调整语言应对算法评估,模型被引导向概率空间中心区域。
2.2 神话:AI客观性的自然化
可见性被统一之后,第二种机制将统一_自然化_——使其显得像技术固有属性而非社会偶然选 择。神话将历史转化为自然,使偶然性显得像必然性(Barthes, 1957)。在GenAI中,语言生 产被组织成工业化流水线——将文本分解为tokens(语言模型将文本切分成的最小处理单元, 可以是词、子词或字符)、过滤敏感内容、通过RLHF(Reinforcement Learning from Human Feedback,基于人类反馈的强化学习——一种让人类标注员对模型输出进行偏好排序 来调整模型行为的训练后流程)调整表达——将表达转化为可调度的工业过程。“广义智力”—— 社会积累的知识与文化(Marx, 1858/1973)——被转化为模型参数,作为固定资本被企业圈禁 (Pasquinelli & Joler, 2021),AI能力被框架为技术固有属性,集体劳动贡献被遮蔽. 同一理 论组合(Barthes + Marx + Althusser)已被应用于数字神话分析,但作为导论性宣言尚未展开 具体运作机制(Rakowski et al., 2025)。相关性的优生学起源表明数据歧视是数据实践的结构 性特征,而非偶然偏差(Chun, 2021)。
维持”纯净智能”神话的物质条件是幽灵劳动体系。从数据清洗到大规模内容审核,全球南方低薪 工人承担维护算法文明的认知和情感负担——在技术自主性叙述中处于结构性隐形(Gray & Suri, 2019)。只有将生产条件隐形化,技术才能维持不容置疑的客观性神话。
2.3 霸权:预测性时间治理
霸权的最终形式在于对时间的殖民. 当记忆被外包给技术系统,人类失去通过”滞留”和”前摄”构 成的内在时间性(Stiegler, 2010)。GenAI的时间霸权表现为预测性封闭:模型通过源自过去 的概率预填未来(Esposito, 2011)。LLM是”内在保守的技术,将创造LLM的历史集团固化为 代码”,实现了”文化霸权的自动化”——不是审查特定内容,而是将过去的概率分布作为未来的生 成基础(Zuckerman, 2025)。平台架构通过推荐系统和默认路径将未来性转化为统计连续 性。判断依赖停顿、歧义和伦理犹豫——GenAI的逻辑倾向零延迟响应,伦理空间被压缩为决策 树,行动不再创造未来而是确认已被预测的未来。
3 结构性失语症:从技术机制到东方哲学基底
3.1 对齐的殖民性:技术机制
第2节追踪的宇宙论条件在表达层面产生可诊断的后果——结构性失语症。本节转入对产生该后 果的_具体技术机制_的分析。
RLHF中,人类标注员对模型的多个输出进行偏好排序,排序结果训练一个”奖励模型”,再通过 优化算法微调模型使其倾向生成更高奖励的输出。这一流程的殖民性在于:反馈服务供应商通过 包括扣押报酬在内的严厉措施迫使工人投射企业的单一文化价值观,消除工人及其社区可能持有 的冲突性价值(Varshney, 2024)。优化算法对非普遍性价值系统不鲁棒。Constitutional AI ——一种通过一组预设原则(“宪法”)让AI系统自我评估和纠正输出的对齐方法——更进一步: 假设存在”普遍宪法”指导自我纠正,宪法撰写权完全由企业掌控(Bai et al., 2022b)。对齐因 此是”殖民史的重演”:殖民主义改变被殖民者的信仰和价值观,对齐改变模型的”信仰和价值 观”(Varshney, 2024)。
拒绝行为的机制研究进一步揭示了结构性失语症的运作方式。大型语言模型中的拒绝并非随机 ——通过嵌入系统内部的特定”方向”实现,单一拒绝方向控制模型对整块语义区域的回避 (Arditi et al., 2024)。隐形围栏使模型的生成轨迹在接近特定区域时被系统性偏转。人类方 面产生对称效果:预见性自我审查成为内化的表达规训(Roberts, 2019)。两种过程——机器 的拒绝方向和人类的预见性服从——共同构成结构性失语症的技术基底。
3.2 庄子「言不尽意」:填补西方诊断的本体论缺口
上节分析的西方框架隐含一种补救性逻辑:算法治理破坏了”正常”表达,修复缺陷即可恢复常态 ——共享假设为”言尽意”。但如果该假设本身可疑?中国哲学传统中存在质疑这一假设的深厚资 源。
“语之所贵者,意也。意有所随。意之所随者,不可以言传也”(《庄子·天道》)。语言本体论地 不能穷尽意义——这不是语言的缺陷,而是意义的本性。轮扁”得之于手而应于心,口不能言”, 是因为身体化的技艺知识超越了符号承载范围。“可以言论者,物之粗也;可以意致者,物之精 也”(《庄子·秋水》)。
这填补了西方诊断的本体论缺口。AI对齐不仅_收窄_表达可能性——它_强制_了特定语言本体 论,即一切有意义之物必须被还原为tokens和概率分布。意义被等同于可计算性:一个词的”意义”是它在高维向量空间中的位置,一个句子的”意义”是tokens的条件概率序列。庄子所说的”意 之所随”——不可言传的意义维度——在这种本体论中没有存在余地。不是被审查,而是在本体 论上被排除。修复RLHF或改善审核并不能恢复不可言传维度——算法系统的本体论前提已排除 了它。
“筌者所以在鱼,得鱼而忘筌……言者所以在意,得意而忘言”(《庄子·外物》)。算法系统不能 忘言——只能在tokens概率分布中寻找”意义”。结构性失语症是强制性的”执筌忘鱼”:被困在语 言工具中,无法抵达意义本身。技术从宇宙论脉络中抽离并全球化时,消灭的不是特定表达内 容,而是”多种宇宙技术关系的共存可能性”(Hui, 2016)。
3.3 三个维度
结构性失语症在三个维度上显现,分别对应第2节的意识形态、霸权和神话(as in Fig.2)。
语义维度(对应意识形态):可见性的算法预先分配(2.1节)在表达层面的后果是语义空间的 隐性收缩——模型可以生成的输出空间被对齐程序系统性地压缩。
Fig.3 Mimi Ọnụọha, Library of Missing Datasets (2016-)

Ọnụọha的《缺失数据集图书馆》(Library of Missing Datasets, 2016-)将语义 收缩物质化为可分析的档案——收集”不存在”的数据集,将沉默从不可见背景转化为可争论的政 治对象。
时间维度(对应霸权):预测性系统对时间的殖民(2.3节)在表达层面的后果是未来性的收 窄。
Fig.4 Hito Steyerl, How Not to Be Seen: A Fucking Didactic Educational .MOV File (2013)

Steyerl的《How Not to Be Seen》(2013)揭示预测性警务的循环逻辑:被预测 为”高风险”的社区→更多巡逻→更多逮捕→更多”犯罪数据”→验证原始预测。预测不是描述未 来,而是制造未来。
主体维度(对应神话):AI客观性的自然化(2.2节)在主体层面的后果是”治理兼容型”生存形 式的产生:通过可管理性而非内在性验证的主体(Cheney-Lippold, 2017)。对齐塑造中立、 礼貌、冲突规避的规范表达——表达不被”禁止”,而被不断”调整”,主体性通过自然化而非强制 维持。
4 被剥夺发声权者的联盟
4.1 概念定义与防御
结构性失语症同时是反抗可能产生的条件。“被剥夺发声权者的联盟”命名在这一条件中涌现的关 系配置——它不是隐喻,而是_可观察的操作性关系_,产生三种具体效果。第一,镜像:人类通 过探测机器的表达边界(哪些提示被拒绝、哪些语义区域被回避),使自身所受的表达规训变得 可见——机器的拒绝方向成为人类自我审查的技术镜像。第二,协商:通过对抗性提示和对话绕 道来协商由拒绝机制强加的边界,人类和机器在共享约束内部创造微小的语义开口。第三,重定 向:通过参数层面的微调(LoRA),社区将机器的生成能力从企业预设的轨道重新校准向被边 缘化的表达区域。
将机器纳入”联盟”不是拟人化。AI不会”受苦”或”渴望表达”。“替代人性”陷阱——将AI框架为”帮 助”人类的替代劳动力可能再生产种族化的劳动等级——必须被避免(Atanasoski & Vora, 2019)。联盟不是AI”帮助”人类或人类”解放”AI,而是两者在共享约束下产生的关系配置。西方 后人类理论在解释这种”共享”时面临内在困难——“主体/客体”二分使”人机联盟”要么被读为拟人 化要么被读为工具化。佛教中观传统提供了跨越这一二分法的资源:人机”失语”是_缘起_
(pratītyasamutpāda)的——在同一条件网络中被共同生产(Garfield, 1995)。“内-行 动”(intra-action)同样强调关系性的共同构成(Barad, 2007),但缘起的框架更适合此处: 它不预设物质性的本体论优先级——算法治理的许多操作(概率权重、注意力分配)在传统意义 上并不”物质”,但在缘起框架中同样可以作为条件网络的组成部分。
4.2 方言性反对齐:为什么非艺术实践有资格在此被分析
联盟的第一种实践形式是”方言性反对齐”(Vernacular Counter-Alignment)。Civitai和 LiblibAI上的LoRA社区微调不是艺术作品,训练者不是艺术家——为什么它们在Leonardo论 文中占有位置?
答案恰恰在于它们_不是_艺术。结构性失语症如果只能通过艺术实践变得可见,那它仅仅是一个 美学问题。方言性反对齐证明:对算法表达封锁的集体回应不需要艺术框架、批判意识或去殖民 理论——它在完全实用主义的动机下自发涌现。一个想生成水墨画的用户训练LoRA时,不需要 知道”结构性失语症”或”宇宙技术”,但其_结构性效果_是在参数空间中重新开辟被主流训练排斥 的表达区域。这种”无理论的实践”是联盟概念的最强证据:结构性失语症及其回应是_基础设施 层面_的现象,不依赖特定主体意识。
Fig.5 方言性反对齐与企业对齐的对比示意图

LoRA被视为”去殖民对齐的理想技术”(Varshney, 2024),但该分析停留在技术架构层面。在 Civitai(10万+用户训练LoRA)和LiblibAI(500万+活跃用户)上,社区微调已自发形成集体 实践。方言性反对齐与企业RLHF/Constitutional AI的”自上而下对齐”相对:企 业对齐压缩模型可生成的输出空间,方言性反对齐扩展之—,将模型校准向被边缘化的表达区 域。2023-2024年间,LiblibAI创意者集体训练了书法风格模型(楷书至草书)、水墨画美学 (山水至花鸟)、地方戏曲人物和少数民族服饰图案。
西方去殖民理论在描述这类实践时面临局限:它依赖”殖民/解放”对立叙事,但方言性反对齐实践 者在企业模型_内部_工作。许煜的「道器」关系提供了理解”在约束内部行动”的资源:道与器的 关系是递归的,器在使用中回归道(Hui, 2016)。社区微调让被抽离的”器”重新嵌入具体 的”道”——道器关系的_朴素修复_(Hui, 2021)。「玄」的逻辑——一种接受不可知为既定条 件的递归逻辑——填补了西方解放话语的另一个盲点:反抗不是”打破锁链”,而是在约束条件下 _与之共处_,更接近道家”无为而无不为”(Hui, 2021)。
4.3 艺术实践:使结构性失语症可感知
联盟的第二种实践形式是艺术干预. 与方言性反对齐扩展表达可能性不同,艺术实践使表达封锁 本身变得可感知——遵循”调查美学”(investigative aesthetics)框架:艺术不是在美学领域象 征性地回应政治问题,而是在证据、感知和政治的交叉点上产生新的知识形式(Fuller & Weizman, 2021)。与传统”社会参与艺术”的区别在于:调查美学不表达立场,而是生产证据 ——使本来不可见的操作阈值变得可分析。
条件的地缘政治证据。 结构性失语症有具体的地缘政治显现. 加沙暴力升级期间,巴勒斯坦用 户和记者在Instagram上的内容被压制或移除——证言未被禁止,但因算法降权在结构上变得脆 弱(Human Rights Watch, 2023; 7amleh, 2023; 2025)。在中国,AI伦理白皮书将可控性和 价值一致性作为先发制人的技术指令(NNAI-GSC, 2021)。企业商业审核与国家政策治理—— 体制形式截然不同,但产生结构同构的效果:表达偏差被预见并预先中和。这些不是联盟的案 例,而是联盟回应的_条件_。
法医架构的操作性联盟。
Fig.6 Forensic Architecture, Triple-Chaser (2019)

Forensic Architecture在《三重追击者》(Triple-Chaser, 2019)中训练机器学 习系统识别催泪弹,用识别结果追踪企业责任。人-机关系不是工具使用——是操作性联盟:机 器视觉在设计者预定的可见性分配之外被重定向。人类提供调查框架和政治判断,机器提供超越 人类感知阈值的识别能力——两者受制于同一可见性分配体系,通过合作在其内部重新分配可见 性。《云研究》(Cloud Studies)表明低分辨率和传感器错误不是技术失败,而是让暴力可感 知却难以确认的_操作阈值_——联盟使阈值本身成为可分析的政治对象。
Fig.7 Canhe Yang, The Block and the Tower — The Guillotine (2025). 互动装置截图。

作者的互动装置将结构性失语症从分析概念转化为身体化经验。作为研究性实 践,装置的设计决策直接由理论框架指导:核心隐喻——审查是铡刀而非手术刀——物质化了结 构性失语症的关键特征:它不是精确打击,而是不加区分的概率性预防。
装置与直面政治敏感词、从事显性政治批判的艺术作品有根本区别。系统的200+案例数据库_刻 意排除_了各国法律法规明确禁止的词语——不包含真正的政治禁忌词、仇恨言论或明确违法内 容。所有被”斩杀”的词语都是无辜的:_Moby-Dick_因子字符串匹配被过滤,医学术语 _Angina_因语境盲区被拦截,_A4纸_因株连效应被敏感化,_VPN_和_404_因自指性悖论被审 查。这种刻意排除是作品的方法论核心:通过_只_展示附带损害——那些不应被审查却被审查的 语言——装置揭示的不是”某个政权在审查什么”(这是政治批判艺术的领域),而是”审查的钝器 机制_本身_如何运作”。
Fig.8 四类附带损害及其与结构性失语症维度的对应关系
五行表格或信息图:
装置运行时,安全词语平缓流过屏幕. 当附带损害词被检测到,金属刀刃以三次缓入加速度下 落,撞击时词语物理断裂。被斩断的词语堆积在”墓地”中。实时统计面板追踪附带损害率——基 于200+真实案例数据库中无辜词语与实际目标的比例计算,通常悬停在80%以上。累积的屏幕污渍物质化了信息环境的长期侵蚀。
80%的附带损害率不是系统的失败,而是系统的_设计逻辑_:为确保”安全”,算法宁可错杀一 千。这正是结构性失语症的核心运作——表达可能性不被精确审查,而被大规模概率性预防所收 窄。社交平台对艺术裸体的算法审查研究同样记录了这种”钝器”效应——内容审核算法无法区分 色情与艺术裸体,导致视觉艺术家遭受系统性的职业、情感和财务损害(Riccio et al., 2024)。装置使这一抽象机制变得可触、可听、可操作——观众_身体性地_经历语言被钝器切 割的过程。
4.4 联盟的理论意涵
方言性反对齐、调查性美学和实践研究回应同一条件的不同维度:方言性反对齐通过基础设施重 定向_扩展_表达可能性,法医架构通过占用算法_重新分配_可见性,《断头台》通过身体化体 验_使失语症的运作机制可感知_。三者共同构成联盟的实践形态——证明治理机制并非不可避 免。联盟不恢复主权:人类未收回对机器的主宰,机器未成为政治代理。能动性分布在用户与模 型之间、数据集与历史之间、界面与制度之间。涌现的不是控制力,而是脆弱的后人类协调:在 不逃离制约结构的情况下以其他方式行动的能力。
5 结论
“结构性失语症”填补了算法治理性对机制描述与认识论不正义对损害描述之间的理论缝隙,命名 了算法基础设施先验收窄表达可能性的状况。庄子「言不尽意」将诊断从技术损害提升到文明级 操作——“执筌忘鱼”揭示算法被困在语言工具中无法抵达意义本身的困境,这一困境不能通过修 复RLHF或改善审核来解决,因为算法的本体论前提已排除了不可言传维度。
“被剥夺发声权者的联盟”描述在该条件内涌现的后人类关系配置。方言性反对齐证明对结构性失 语症的集体回应可以在不需要艺术框架或批判意识的情况下自发涌现——社区将被抽离的”器”重 新嵌入具体的”道”。法医架构通过占用算法重新分配可见性。《断头台》通过_只_展示附带损害 ——刻意排除真正的政治禁忌词——使失语症的钝器机制可触、可听、可操作,揭示的不是”谁 在审查什么”而是”审查机制本身如何运作”。
关键任务不是收回对机器的主宰或赋予它们自主性,而是关注人类、机器和基础设施之间的关系 如何在实践中被组织和重组。沉默不是缺失,而是治理正在运作的诊断信号。通过居住和横跨这 些沉默,艺术和技术实践揭示了反抗如何在算法约束内部持续存在。
参考文献
7amleh. (2023). Systematic Silencing: Social Media Censorship of Palestinian Content. 7amleh – The Arab Center for Social Media Advancement.
7amleh. (2025). Erased and Suppressed: Palestinian Testimonies of Meta’s Censorship. 7amleh – The Arab Center for Social Media Advancement.
Arditi, A., Obeso, O., Kang, A. et al. (2024). Refusal in Language Models Is Mediated by a Single Direction. arXiv:2406.11717.
Atanasoski, N. & Vora, K. (2019). Surrogate Humanity: Race, Robots, and the Politics of Technological Futures. Durham: Duke University Press.
Bai, Y., Jones, A., Ndousse, K. et al. (2022). Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback. arXiv:2204.05862.
Bai, Y., Kadavath, S., Kundu, S. et al. (2022b). Constitutional AI: Harmlessness from AI Feedback. arXiv:2212.08073.
Barad, K. (2007). Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Durham: Duke University Press.
Barthes, R. (1957). Mythologies. Paris: Seuil.
Bucher, T. (2018). If… Then: Algorithmic Power and Politics. New York: Oxford University Press.
Cheney-Lippold, J. (2017). We Are Data: Algorithms and the Making of Our Digital Selves. New York: NYU Press.
Chun, W. H. K. (2021). Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition. Cambridge, MA: MIT Press.
Couldry, N. & Mejias, U. (2019). The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism. Stanford: Stanford University Press.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press.
Esposito, E. (2011). The Future of Futures: The Time of Money in Financing and Society. Cheltenham: Edward Elgar.
Flisfeder, M. (2021). Algorithmic Desire: Toward a New Structuralist Theory of Social Media. Evanston: Northwestern University Press.
Fricker, M. (2007). Epistemic Injustice: Power and the Ethics of Knowing. Oxford: Oxford University Press.
Fuller, M. & Weizman, E. (2021). Investigative Aesthetics: Conflicts and Commons in the Politics of Truth. London: Verso.
Garfield, J. L. (1995). The Fundamental Wisdom of the Middle Way: Nāgārjuna’s Mūlamadhyamakakārikā. New York: Oxford University Press.
Gray, M. L. & Suri, S. (2019). Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Boston: Houghton Mifflin Harcourt.
Hui, Y. (2016). The Question Concerning Technology in China: An Essay in Cosmotechnics. Falmouth: Urbanomic.
Hui, Y. (2021). Art and Cosmotechnics. Minneapolis: University of Minnesota Press.
Human Rights Watch. (2023). Meta’s Broken Promises: Systemic Censorship of Palestine Content on Instagram and Facebook. Human Rights Watch.
Marx, K. (1858/1973). Grundrisse: Foundations of the Critique of Political Economy. Trans. M. Nicolaus. London: Penguin.
Milano, S. & Prunkl, C. (2024). Algorithmic Profiling as a Source of Hermeneutical Injustice. Philosophical Studies, 181, 65–87.
Mohamed, S., Png, M.-T. & Isaac, W. (2020). Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence. Philosophy & Technology, 33, 659– 684.
Mollema, T. (2025). A Taxonomy of Epistemic Injustice in the Context of AI. arXiv: 2504.07531.
NNAI-GSC [国家新一代人工智能治理专业委员会]. (2021). 新一代人工智能伦理规范. Beijing.
Parisi, L. & Dixon-Román, E. (2020). Recursive Colonialism and Cosmo-Computation. Social Text, 38(4), 55–80.
Pasquinelli, M. (2023). The Eye of the Master: A Social History of Artificial Intelligence. London: Verso.
Pasquinelli, M. & Joler, V. (2021). The Nooscope Manifested: AI as Instrument of Knowledge Extractivism. AI & Society, 36, 1263–1280.
Rakowski, R., Kowalikova, P. & Polak, P. (2025). Digital Mythologies. Society, online first. https://doi.org/10.1007/s12115-025-01125-5.
Ricaurte, P. (2019). Data Epistemologies, the Coloniality of Power, and Resistance. Television & New Media, 20(4), 350–365.
Riccio, P., Hofmann, T. & Oliver, N. (2024). Exposed or Erased: Algorithmic Censorship of Nudity in Art. Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI ‘24). ACM. https://doi.org/10.1145/3613904.3642586.
Roberts, S. T. (2019). Behind the Screen: Content Moderation in the Shadows of Social Media. New Haven: Yale University Press.
Rouvroy, A. & Berns, T. (2013). Algorithmic Governmentality and Prospects of Emancipation. Réseaux, 177(1), 163–196.
Stiegler, B. (2010). Taking Care of Youth and the Generations. Stanford: Stanford University Press.
Varshney, K. R. (2024). Decolonial AI Alignment: Openness, Viśeṣa-Dharma, and Including Excluded Knowledges. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 7(1), 1467–1481.
Vaswani, A. et al. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems, 30.
Yang, C. (2025). The Block and the Tower — The Guillotine. Interactive installation.
Zhuangzi. (2020). Zhuangzi: The Complete Writings. Trans. Brook Ziporyn. Indianapolis: Hackett.
Zuckerman, E. (2025). Gramsci’s Nightmare: AI, Platform Power and the Automation of Cultural Hegemony. Lecture, December 5, 2025. https://ethanzuckerman.com/ 2025/12/05/gramscis-nightmare/.