AIGC宇宙 AIGC宇宙

研究显示:低质数据可令 AI“大脑退化”,OpenAI 奥尔特曼担心的“死网论”正逐渐成真

10 月 22 日消息,康奈尔大学最新研究指出,大语言模型(LLM)在长期接触低质量网络内容后可能出现类似“大脑退化”(brain rot)的现象,其理解力、推理力及伦理一致性均显著下降。 这一发现令业界再次聚焦“死网论”(Dead Internet Theory)—— 即网络因充斥机器生成或低质内容而逐渐失去人类创造力的假说。 AI 性能受“低质数据”影响显著研究团队以 Meta 的 Llama 3 和阿里云 Qwen 2.5 为实验对象,通过构建不同质量比例的数据集,测量低质量内容对模型性能的影响。

研究显示:低质数据可令 AI“大脑退化”,OpenAI 奥尔特曼担心的“死网论”正逐渐成真

10 月 22 日消息,康奈尔大学最新研究指出,大语言模型(LLM)在长期接触低质量网络内容后可能出现类似“大脑退化”(brain rot)的现象,其理解力、推理力及伦理一致性均显著下降。

这一发现令业界再次聚焦“死网论”(Dead Internet Theory)—— 即网络因充斥机器生成或低质内容而逐渐失去人类创造力的假说。

AI 性能受“低质数据”影响显著

研究团队以 Meta 的 Llama 3 和阿里云 Qwen 2.5 为实验对象,通过构建不同质量比例的数据集,测量低质量内容对模型性能的影响。

结果显示,当模型仅以低质量内容进行训练时,其准确率从 74.9% 骤降至 57.2%,长文本理解能力从 84.4% 降至 52.3%。

研究人员还指出,这种“剂量 — 反应效应”(dose-response effect)意味着模型在持续接触低质数据后会出现逐步退化现象,不仅推理链条被简化甚至跳过,生成的回答也更表面化。此外,模型的伦理一致性下降,出现“人格漂移”(personality drift)倾向,更容易输出错误信息。

“死网论”引发科技圈担忧

近几个月,多位科技界人士公开表达了对“死网论”的担忧。Reddit 联合创始人 Alexis Ohanian 表示:“如今互联网上的很大一部分实际上已经‘死了’—— 无论是机器生成的、半 AI 的内容,还是充斥着低质量信息的社交平台。”他呼吁未来的社交网络应能“验证人类真实性”。

OpenAI 首席执行官 Sam Altman 也持类似观点,认为“死网论正在我们眼前发生”,并称现今多数 X(前 Twitter)账号已由 AI 接管运营。

研究显示:低质数据可令 AI“大脑退化”,OpenAI 奥尔特曼担心的“死网论”正逐渐成真

网络内容质量危机正在加剧

亚马逊云科技(AWS)研究团队去年发布的报告指出,目前约有 57% 的网络内容是由人工智能生成或翻译的,这一趋势正影响搜索结果的质量与可靠性。

前 Twitter 首席执行官 Jack Dorsey 亦警告,由于图像生成、深度伪造(deepfake)与视频合成技术的普及,“我们将越来越难分辨真假”,用户必须通过亲身体验来验证信息真伪。

随着 AI 生成内容的快速扩散,互联网正面临内容质量与真实性的双重考验。业内专家提醒,如果人工智能模型与网络生态继续陷入低质量循环,所谓“死网论”终有一天会成为现实。

相关资讯

OpenAI回归开源:gpt-oss-120b和gpt-oss-20b完整指南

译者 | 陈峻审校 | 重楼本文将向你介绍OpenAI新发布的两个开源模型--gpt-oss-120b和gpt-oss-20b,它们的特点,以及在何种场景下该使用哪个模型。 近期,OpenAI发布了两个开源的大语言模型(LLM)--gpt-oss-120b和gpt-oss-20b。 它们是自GPT-2以来,由OpenAI第一个公开许可的LLM。
8/15/2025 8:17:41 AM
陈峻

DeepSeek级AI?训练自己的推理模型仅需七个步骤

译者 | 布加迪审校 | 重楼谁需要超级计算机? 仅用15GB VRAM就可以训练你自己的功能强大的AI推理模型! DeepSeek的R1模型在不需要人类反馈的情况下就能进行更深思熟虑的推理,已颠覆了大语言模型(LLM)领域。
3/11/2025 8:37:42 AM
布加迪

LLM的“记忆”与“推理”该分家了吗?一种全新的训练范式,彻底厘清思考流程

在医疗诊断中,模型误将“罕见病症状”与“常见病混淆”;在金融分析里,因记错政策条款给出错误投资建议——大语言模型(LLMs)的这些“失误”,本质上源于一个核心症结:记忆知识与逻辑推理的过程被死死绑定在黑箱中。 当模型的思考既需要调用事实性知识,又要进行多步逻辑推导时,两种能力的相互干扰往往导致答案失真或决策失据。 罗格斯大学、俄亥俄州立大学等团队发表于2025 ACL的研究《Disentangling Memory and Reasoning Ability in Large Language Models》,为破解这一难题提供了全新思路。
10/20/2025 9:33:49 AM
Goldma
  • 1