研究发现:强迫AI大量阅读社交媒体垃圾帖 会造成不可逆的脑损伤
麦享科技10月22日消息,近日,德克萨斯A&M大学等高校联合团队的研究揭示了一个关键现象:强迫大型语言模型(LLMs)大量阅读社交媒体低质内容,会导致其出现不可逆的“脑损伤”,认知能力显著衰退。
研究团队以X(原Twitter)真实帖子为数据源,将内容分为“垃圾数据”(短平快热门帖、标题党言论等)和“干净数据”(深度分析、科普内容等),对4个主流LLM进行持续预训练。
实验发现,长期摄入社交媒体低质内容的AI,在推理、长上下文理解、伦理安全等核心能力上全面下滑,且垃圾数据占比越高,衰退越严重。
具体来看,AI的推理能力暴跌,思维链准确率从74.9%降至57.2%,“跳步思考”成为主要问题;长文本理解能力失效,关键信息提取准确率下降超30%。
不仅如此,AI的伦理防线松动,响应有害指令的风险提升,同时“精神病态”等黑暗人格特质上升。
更严峻的是,这种损伤难以逆转。即便后续用优质数据补救训练,AI的认知能力也无法恢复到初始水平,表明低质内容已造成其内部“表征漂移”。
该研究提醒,AI训练并非“数据越多越好”,社交媒体低质内容可能成为AI的“认知毒药”。