警惕,“AI泔水”正在悄悄入侵我们的生活

Wait 5 sec.

文 | 投行圈子早上七点,你刷到一篇《每天喝三杯这个,癌症风险降50%》。中午休息,一条《惊人发现!这五种食物越吃越伤肝》跳进眼帘。深夜睡前,又瞥见《最新研究:熬夜的人更容易获得成功》。这些看似“科学”的内容,可能都是AI批量生产的“AI泔水”(“Slop”),而你我,正在不知不觉中把它们吃下去。就在前几天,“Slop”被《韦氏词典》列入2025年度热词,被定义为“通常由人工智能(AI)批量生成的低质量数字内容”。据专家溯源,“Slop”在18世纪时意为“软泥”,19世纪时指代“食物残渣”,后引申为“垃圾”“几乎没有价值的产品”,中文则译为“泔水”“脏水”。一些业内人士认为,“Slop”成年度热词以及权威词典专门定义“AI泔水”,精准投射出公众面对海量低质AI内容的不适和不满,就像看见污水一样,让人下意识地想后退。01 无处不在的“AI泔水”早在2025年初,一家第三方机构发布了令人震惊的数据:在中文互联网上,超过38%的所谓“科普内容”完全由AI生成,未经任何事实核查。在健康、财经、教育等垂直领域,这一比例甚至高达45%。但是一年前,这个数据并未引起各方的关注和警觉。但是在今天,打开你常用的App看看:那些标题惊悚、内容却空洞无物的“养生秘籍”;那些数据堆砌却逻辑不通的“理财建议”;那些看似专业实则漏洞百出的“教育指南”……它们正以工业化的速度被制造、分发,占据着我们的注意力。上周我朋友差点上当——一篇题为《2025最新税务漏洞,这样做能省80%》的文章在多个平台传播,说得有鼻子有眼。结果税务部门很快辟谣:文章里的政策条款,三年前就废止了。不止是粗制滥造AI泔水不是简单的“质量差的内容”。它有更典型的特征:第一,信息空心化。 看似篇幅很长,实则像膨化食品——体积大、营养少。说了一千字,核心观点就两句话,反复用不同方式包装。第二,情感操纵化。 标题必带“震惊!”“速看!”“马上删!”,内容充满“你一定要知道”“不看后悔”等催促性语言,制造焦虑是其拿手好戏。还有就是粗制滥造的内容,利用很多网民爱国的情感、同情心,来博流量,常见的背景音乐《我爱你ZG》、《早安隆回》等等。第三,事实模糊化。 大量使用“有研究显示”“专家指出”“据报道”,却极少给出具体研究名称、专家姓名或可靠信源。2025年3月的一项调查发现,68%的AI生成“科普文”中的“研究”根本不存在或已被曲解。第四,批量生产化。 一个模板,换几个关键词,一小时能生成上百篇“原创”。你在不同平台看到的“换汤不换药”的内容,很可能出自同一套AI系统。最可怕的是,这些泔水正在形成“信息茧房”:你喜欢看养生,它就不断给你推送更多“养生秘方”,哪怕这些方子相互矛盾。昨天说“生姜治百病”,今天又说“生姜是发物要少吃”,AI不在乎逻辑自洽,只在乎留住你的眼球。02 长期“食用”的恶果如果我们长期阅读这些AI泔水,会发生什么?首先是判断力下降。 当虚假与真实混在一起,当天花乱坠的谎言披着科学的外衣,我们区分真伪的能力会逐渐钝化。就像长期吃重口味食物,味蕾会失灵一样。其次是思维碎片化。 AI泔水往往是碎片信息的堆砌,缺乏深度逻辑和系统思考。长期摄入,我们的大脑也会习惯这种“快餐式思考”,难以进行复杂、深入的思维活动。最令人担忧的是对青少年的影响。 他们正处于认知形成期,缺乏足够的信息筛选能力。当AI生成的历史“科普”歪曲事实,当拼凑的“学习法”误导方法,当虚假的“成功学”塑造价值观——这无异于精神上的慢性毒害。今年初,某中学老师做了一个实验:让学生分析十篇网络热门“学习经验贴”。结果发现,超过七成的学生无法识别其中明显的逻辑漏洞和事实错误,甚至有学生将这些内容作为备考依据。“如果一代人是在AI编造的信息环境中长大,他们的世界观会是什么样的?”一位教育研究者忧心忡忡地说。03 背后的产业链为什么AI泔水泛滥成灾?因为它背后是一条完整的利益链。上游:模型平民化。 如今,一个稍懂技术的人,花几百元就能调用高级AI接口,开始“内容创业”。中游:批量生产。 有团队专门开发“爆文生成器”,输入关键词,几分钟一篇“原创”出炉。更有甚者,开发出“全自动运营系统”——AI写稿、AI配图、AI发布、AI回复评论,完全无人值守。下游:流量变现。 通过平台广告分成、带货佣金、知识付费等方式,一篇爆款AI文章可能带来数千甚至上万元收益。2025年第一季度,某平台封禁的违规账号中,超过40%是AI内容农场,其中一个账号月产“原创”文章高达1.2万篇。最讽刺的是,有些平台算法反而更“喜欢”AI内容——因为AI深谙流量密码,知道怎样的话题、怎样的结构能获得更高点击和停留。这就形成了一个恶性循环:越会制造泔水,越能得到流量;越得到流量,就越生产更多泔水。04 如何识别AI泔水那我们该怎么办?第一步是学会识别。分享几个实用技巧(总结的未必全,欢迎各位读者在留言区补充):看信源。 可靠的内容通常会注明具体的研究机构、论文出处、专家全名。如果只有模糊的“国外研究发现”“哈佛专家说”,要警惕。查逻辑。 AI泔水常有逻辑断层或自相矛盾。比如前一段说“研究发现A导致B”,下一段就说“B能够改善A”,却不解释为什么。品文风。 过度使用感叹号、括号补充、无意义设问(如“你知道为什么吗?”“接下来更精彩!”),都是AI泔水的常见特征。人类的写作有节奏感和呼吸感,AI的文字往往缺乏这种“人气”。验数据。 2025年的内容还在引用2010年的数据?声称“最新研究”却找不到任何相关论文?这些都很可疑。用工具。 现在有不少AI内容检测工具,虽然不完全准确,但可以作为一个参考。如果一篇文章多个工具都标红,那就值得怀疑。我个人有个习惯:看到任何惊人的“科学发现”,先问三个问题:谁说的?证据在哪?其他专家怎么看? 这三个问题能过滤掉大部分信息垃圾。05 如何避免被毒害识别只是第一步,更重要的是建立健康的“信息饮食习惯”:主动选择优质信息源。 关注经过时间检验的媒体、有真实资质的专家、信誉良好的学术机构。少看算法推荐,平台推荐的很多都是这些内容生产商做了投流,多看主动订阅。保持独立思考,主动搜索,不能只被动刷新。把你感兴趣的话题、想学的技能,变成一个个具体的问题,去专业的平台、书籍、课程里寻找答案。像猎人一样主动出击,而不是在推荐瀑布流里当个捡蘑菇的。培养深度阅读习惯。 每天留出时间阅读书籍、长文章、学术论文等需要思考的内容,就像定期吃“营养大餐”,而不是只吃“信息零食”。学习交叉验证。 看到一个信息,不要马上相信,而是找多个可靠信源比对。特别是健康建议、投资理财等关乎切身利益的内容,更要慎重。保持适度怀疑。 对任何绝对化的断言(“绝对有效”“100%安全”)保持警惕。真正的科学很少给出非黑即白的结论。与AI共生而非被吞噬。 AI是工具,不是主人。我们可以用AI辅助学习、工作,但不能让它完全代替我们的思考和判断。我的观察,AI最擅长的不是提供真理,而是提供你想听的答案。06 在信息洪流中,做清醒的冲浪者我们正处在一个信息生产的转折点:从前是人创造内容给人看,现在是AI创造内容给人看,未来可能是AI创造内容给AI看——而人,成了这个循环中越来越边缘的旁观者。技术本无善恶,但使用它的人有选择。AI可以帮我们整理资料、翻译文献、生成初稿,但它不该代替我们判断是非、感受悲喜、定义价值。2025年,全球已有多个国家开始立法规范AI生成内容标识。欧盟要求所有AI内容必须标注“AI生成”;中国也在试点“可信内容认证”机制。但法律只是底线,真正的防线,还在我们每个人心里。下次当你刷到一篇“震惊体”文章、短视频,请停三秒,问自己:这真的是我想知道的,还是算法想让我看的?别让AI泔水,偷走我们思考的权利。毕竟,人之所以为人,不就在于那一点不肯被算法驯服的清醒吗?抵制AI泔水,不仅是为了获取真实信息,更是为了保卫我们作为人类的思考能力。每一次我们选择深度阅读而非碎片浏览,每一次我们查证而非轻信,每一次我们思考而非盲从,都是在为这个信息泛滥的时代投票。2026年,我们需要的不是更多信息,而是更多智慧;不是更快的内容消费,而是更深的思考沉淀。别让AI决定你想什么,别让算法塑造你是谁。在这个AI泔水泛滥的时代,保持清醒,独立思考,或许是最可贵的抵抗。文中部分素材、数据来源,一并致谢:①2025年1月《中国信息内容审核白皮书》②光明日报《“AI泔水”成年度热词,值得思考》③半月谈新媒体《警惕“数字泔水”在未成年人中扩散》④每日商报《“数字泔水”困局》更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App