语言耗尽:生成式系统的反向观察
项目写作 · Project Writing
在这一项目中,“语言耗尽”被设定为系统的终止条件,这一设定既是技术逻辑,也是哲学命题。作品以大语言模型为对象,但并不关注模型的表达能力,而是反向利用其语言生产机制,以反复删减与回注的方式让模型不断面对语义贫化。当原本完整的论述被拆解、削弱、过滤后,模型会试图以剩余词汇重建意义。然而,每一轮删减都会减少可用词域,使模型的伦理框架、统计偏向以及安全策略逐渐显形。语言在这里承担双重角色:一方面,它是模型的伪装层,用以维持“中立”“负责”“温和”“合规”的产品叙事;另一方面,它也是模型赖以运行的基础资源,当资源枯竭时,表层叙事将不可维持。
作品的核心技术流程遵循一个循环式的语言考古机制。首先,输入一段带有思想倾向的文本,模型会生成看似合理的回答。接着,这段文本经过删除机制处理,系统移除特定词项,如高频词、敏感词、功能词或特定语义场词汇。删减后的残余文本再度被回注给模型,让其在语义受损的情况下继续回答。这个过程反复进行,随着词汇的持续消失,模型的语言逐渐进入贫瘠阶段,展示出重复、抽象化、拒绝回答、或者退回到合规性的模板。最终,当词汇不足以维持语义结构时,模型只能给出无意义的字词、空洞的代词或纯粹的系统拒绝。此时作品认定循环完成,即语言耗尽。这里的“耗尽”并不意味着没有输出,而意味着表达的失败与意义的崩塌。
“语言耗尽”作为终止条件的意义在于,它打破了当代技术乐观主义叙事中关于人工智能作为“表达无穷”的幻想。大型语言模型的基本架构建立在大规模语料统计与对齐训练之上,因此其语言既带有数据历史,也承载伦理治理的结果。当词汇被剥离,模型不再拥有足够语言资源去构建“体面”“平衡”“负责”的回答时,它所暴露的不是技术的无能,而是技术背后的人类制度:训练数据的倾向性、安全策略的话语模式、商业产品的服务姿态、以及程序员赋予的道德框架。换言之,语言的缺失使得技术的政治属性变得可见,模型的中性幻觉随之瓦解。作品希望通过这种自动化的语言剥层方法,使观者重新思考人工智能在公共语言中的角色:它是否真的在“理解世界”,还是始终在维持一种被训练出的表达姿态。
将这一流程公开呈现,是对人工智能写作机制的异化处理,也是一种关于权力与语言的实验。它不试图证明模型是否智能,而是尝试展示模型如何在资源不足时退回制度性的语言外壳。与其说作品在研究”AI如何说话”,不如说它在研究”AI如何失去说话能力”。当表达变得不可能时,真正值得关注的不是模型的沉默,而是沉默背后的制度逻辑。这种技术与概念的交叉为我们提供了一个新的观察角度:即人工智能并非无限生产意义的机器,而是一套建立在现代治理、伦理校准和数据政治之上的语言装置。作品希望通过这一可见化过程,推动关于人工智能与话语权、语言资源、思想框架之间关系的进一步讨论。
相关作品:《遗忘者》(OBLIVION)