保哥笔记

AI批量生产内容:为什么你不是在规模化内容,而是在规模化失败

保哥最近在海外SEO圈子看到一句话,扎心程度堪比315晚会:"You're not scaling content. You're scaling disappointment."——你不是在规模化内容,你是在规模化失望。

这句话精准地击中了当下内容行业最大的集体幻觉:用AI一个月批量生产500篇文章,以为数量可以碾压一切。结果呢?你碾压的不是竞争对手,而是你自己网站的质量信号、爬虫预算和品牌信誉。

今天保哥要把这个话题从头到尾讲透,不是为了唱衰AI——保哥自己每天都在用AI工具——而是为了让你看清楚"内容规模化"这面墙到底在哪里,以及如何真正有效地用AI做内容。

一、15年的轮回:每一代"规模化内容"都死在同一面墙上

保哥入行这些年,亲眼看过这面墙把多少人撞得头破血流。最荒诞的是,每隔几年行业都会集体失忆,用更精美的工具重复完全相同的错误。

1.1 第一代:伪原创时代(2008-2011)

那时候的玩法简单粗暴:拿一篇文章,用同义词替换软件自动"洗"出50篇"原创"文章。这些文章读起来像是有人把一本字典扔进了搅拌机。但即使产出的内容足够通顺,这个前提本身就是错的——"独特性"从来不是稀缺品。一只猴子在键盘上乱按也能产出独特的内容,那串字符确实从未存在过,但那又怎样?真正困难的从来不是制造独特性,而是制造有价值的独特性。

Google容忍了一阵子,因为它的系统还没追上来。然后2011年2月Panda算法上线,影响了将近12%的搜索查询,内容农场的流量一夜蒸发。当时的内容农场代表Demand Media在第二年报告了640万美元的亏损。

1.2 第二代:程序化SEO时代(2015-2022)

玩法升级了。不再是"洗"文章了,而是搭建模板,用结构化数据填充内容。"最好的[X]在[城市]"页面,动辄生成上千个,每一个都是数据库查询外面套了一层薄薄的模板皮。

有些确实提供了价值——如果底层数据足够好、模板确实满足了用户真实需求。但大多数不是。大多数只是穿了一身体面衣服的"桥页"(doorway pages)。Google花了好几年磨练识别和降权这类内容的能力。

1.3 第三代:AI批量内容时代(2023至今)

现在我们又来了。同样的套路,更闪亮的工具。"我们一个月能产出500篇文章!"非常好。但你能产出500篇值得阅读的文章吗?500篇包含读者从现有搜索结果中得不到的信息的文章?500篇展现任何形式的专业知识、实际经验或原创思考的文章?

如果不能,你不是在规模化内容,你是在规模化对爬虫预算的浪费

保哥最近观察到一个特别讽刺的案例:一款主打"AI可见度优化"的工具,自己网站上批量生成了数百个页面,全部遵循"best SEO agencies in {城市名}"的模板。任何经历过程序化SEO时代的人一眼就能认出来——这是2017年的剧本,只不过文案现在由大语言模型来写了。模板获得了语法升级和一个"这是AEO"的标签,但策略本身没有任何进步。

海外知名SEO专家Lily Ray也标记了一个类似案例:一个简历网站生成了500多个程序化页面,标题全是"resume examples for {职业}",每个标题遵循完全相同的公式,页面模板近乎一致,AggregateRating schema被滥用,到处都是AI生成的内容。她的总结只有三个词:"Worked until it didn't"——有效,直到它不再有效。

这句话应该被纹在每一个内容规模化方案的封面上。它总是暂时有效的。然后突然就不行了。

二、"质量墙"为什么不可逾越

保哥把每一代内容规模化策略都撞上的那面墙叫做"质量墙"(The Qualitative Wall)。它的本质是这样的:

Google不是孤立评估你的内容。它是把你的内容跟索引库中同一主题的所有其他内容进行相对评估。

发布500篇AI生成的房贷利率文章不会让你成为房贷利率的权威。它只是让你变成了用略微不同的词说着同样东西的第500个信息源。Google已经有499个这样的了,它不需要你的。

质量墙的定义是:存在一个真正价值的最低阈值——原创洞察、亲身经验、特定专业知识、读者在别处得不到的东西——低于这个阈值,再多的数量都帮不了你。你可以在阈值以下发布一百万个页面,对真正重要的关键词你什么都排不上。

2.1 更糟的是:低质量内容会主动伤害你

对于那些专门为了在AI驱动的搜索系统中获取可见度而规模化生产AI内容的人来说,这个策略不仅仅是失败——它会主动反噬

一项2025年关于LLM时代检索评估的研究论文引入了一个指标,同时衡量检索中的"有用段落"和"干扰段落"。关键发现是:低价值内容不会安静地躺在索引中等着被忽略,它会把检索模型带偏,降低系统生成答案的质量。

换句话说,你那500篇薄弱的文章不仅仅是"不可见"的,它们是噪音。而如果你的网站还有一些真正有用的页面被淹没在这些噪音中,恭喜——你给自己构建了一个干扰模式。你以为能帮助被发现的数量,正在积极淹没那些本来可能获得排名的页面。

2.2 Google的站点级质量评估

这一点非常关键,保哥必须重点强调:Google是在站点级别聚合质量信号的,不仅仅是页面级别。

你可以有个别页面表现还行,但与此同时你网站的整体质量信号在持续退化。而当算法执行追上来的时候——无论是算法更新还是人工惩罚——它不会逐页逐页地打击你,而是一锅端。

这就是内容伪原创时代的谬误在不断重复:"现在在排名,所以一定是好策略。"Demand Media的内容也在排名。直到它不排名了。

每一个内容规模化的"成功案例",都是在修正到来之前拍的快照。没有人会发布续集。

三、Google已经说得不能再明白了

Google的垃圾信息政策明确将"规模化内容滥用"(scaled content abuse)定义为:以搜索排名为主要目的、而非帮助用户而生成页面的行为。它明确列出了"使用生成式AI工具或其他类似工具大量生成不为用户增加价值的页面"作为示例。

这不是弦外之音,这是正文。

2025年6月,Google开始针对规模化内容滥用发出人工操作惩罚(manual actions),打击的正是那些批量发布AI生成内容的网站。英国、美国和欧盟的多个网站收到了Search Console通知,引用了"激进的垃圾信息技术,如大规模内容滥用"。页面不是在排名中下滑,而是直接消失。

2025年8月的垃圾信息更新继续执行。2025年12月的核心更新进一步收紧了螺丝。根据行业分析数据,这次更新提升了最低质量门槛,让真实世界的经验、内容深度和用户满意度成为竞争排名的刚需。这是第一个明确针对AI内容质量进行评估的核心更新。

每一次更新被打击的都是同一个画像:高产量、低实质、无编辑把控。而每一次,受影响的站长都表现得很惊讶——好像Google没有告诉他们这件事,已经长达15年了。

四、"但是我们的内容排名挺好的呀"

这是保哥见过的最经典的自欺欺人。在每一轮周期中都会出现。"我们的AI内容在排名,所以一定没问题。"

说"这在排名"恰恰就是Google为你的网站发布算法改进和人工操作惩罚的原因。如果你的低价值内容在排名,那只意味着系统还没追上来。仅此而已。

Google的John Mueller在2025年11月的表态值得反复品味:"我们的系统不关心内容是AI还是人类创作的。我们关心的是它是否有用、准确,以及是否为服务用户而创作,而非仅仅为了操纵搜索排名。"

翻译成保哥的话就是:AI不是问题,用AI批量生产垃圾才是问题。

五、经济账根本算不过来

保哥来帮你算一笔账。

假设你一个月AI生成500篇文章。每一篇都需要审核准确性——因为大语言模型会产生幻觉,发布不准确的信息带来的责任远远超出SEO范畴。每一篇都需要检查原创性——因为如果它读起来跟索引库中所有其他文章一样,它提供的增量价值为零。每一篇都需要编辑把控,确保它真正服务于你声称服务的受众。

如果你做了所有这些,那成本只是从内容创作转移到了质量管控——而且很可能增加了。你以为省下来的"效率"在你应用内容实际需要达到的质量标准的那一刻就蒸发了。

如果你什么都没做呢?那你就是在以品牌名义大规模发布未经审核、缺乏原创、可能不准确的内容。保哥真心不理解怎么会有人签字同意这件事。

六、同一个错误,更好的工具

内容伪原创。程序化SEO。AI批量内容。三种不同的工具,一个完全相同的错误:把内容当作一个制造业问题来处理。

制造业的核心是大规模生产一模一样的产出——这正是制造业的意义。而内容的价值恰恰来自相反的方向:来自特定性,来自经验的积累,来自说出索引库中其他内容没有说过的东西。

每一次试图将内容工业化的尝试,都会在这个矛盾上撞得粉碎。

你无法自动化"特定性"。你无法模板化"经验"。你无法通过给LLM一个提示词然后祈祷出点有用的东西来"生成"原创思考。 而这些限制不会被下一个模型版本解决——它们根植于内容之所以值得阅读的本质之中。

那些不断追逐规模化的人,优化的是错误的变量。他们把"更多内容"视为输入,把"更多流量"视为输出。但这个函数不是线性的,从来都不是。它受质量门控,再多的数量都无法绕过这道门。

七、那AI到底应该怎么用?保哥的实操框架

说了这么多"不该做什么",保哥现在来讲"应该怎么做"。AI是一个强大的工具,关键是用对方式。

7.1 发布前必须过的唯一检验

在你发布任何内容(无论是否AI辅助)之前,只需要回答一个问题:

这个页面提供了什么读者从现有搜索结果中得不到的东西?

如果答案是"没有,但我们会有更多页面被索引",你不是在构建内容策略,你是在构建一颗定时炸弹。

7.2 AI作为"增强器"而非"替代器"

保哥推荐的模型是:人类专业知识 × AI效率 = 高质量规模化内容

具体来说,AI可以在以下环节发挥巨大价值:研究阶段的信息搜集和整理、初稿的结构搭建和框架生成、已有内容的多格式改编(文字转视频脚本、长文转社交媒体摘要等)、数据分析和趋势洞察、SEO技术层面的优化(Schema标注、结构化数据等)。

但以下环节必须由人类主导:原创观点和独特洞察的输出、专业经验和行业知识的融入、事实核查和准确性验证、品牌调性和价值观的把控、最终的质量审核和发布决策。

7.3 质量优先的内容规模化公式

保哥的建议是用"10-3-1法则"来替代"500篇/月"的幻想:

10个主题深度研究→找到你真正有独特见解和经验的10个核心主题领域。

3种内容深度层次→每个主题生产深度指南(3000字以上的权威长文)、中度内容(解决具体问题的实操文章)、轻度内容(社交媒体碎片、FAQ条目)。

1个不可替代的价值锚点→每篇内容都必须包含至少一个读者在任何其他地方找不到的元素——可以是原创数据、亲身测试结果、专家访谈、独家案例研究等。

这样一个月下来,你可能只产出30-50篇内容,但每一篇都在质量墙以上。30篇有价值的内容比500篇垃圾内容能带来的长期收益,不是多几倍的关系,而是根本不同维度的差距。

7.4 建立内容质量的"防火墙"

保哥建议每一个使用AI辅助创作的团队都建立以下机制:

事实核查清单:AI生成的每一个事实性陈述、数据引用、产品参数都必须经过人工验证。大语言模型的幻觉问题目前远未解决,发布错误信息的风险远大于节省的时间成本。

原创性审计:定期将AI辅助产出的内容与搜索结果中的Top 10进行比对。如果你的内容90%都跟已有内容说的是一样的东西,那它就不值得发布。

E-E-A-T信号嵌入:确保每篇内容都有明确的作者署名(且该作者具备相关资质)、原创数据或经验佐证、权威来源引用,以及清晰的编辑标准声明。

站点健康监控:定期在Google Search Console中检查索引覆盖率、页面质量信号、以及是否有任何人工操作惩罚的预警。当你发现大量页面被标记为"已发现-当前未编入索引"或"已抓取-当前未编入索引"时,这就是Google在告诉你:你的内容不值得索引。

八、结语:墙一直在那里

从2008年的内容伪原创,到2015年的程序化SEO,到2023年至今的AI内容工厂,工具在不断进化,但那面质量墙从未移动过。它不会因为你的工具更先进、你的产出速度更快、你的文章语法更通顺而移动哪怕一毫米。

保哥在这个行业看了太多次相同的剧情上演。每一次都有人站出来说"这次不一样"。每一次都一样。

在内容的世界里,深度击败广度,证据击败承诺,聚焦击败规模。这不是观点,这是15年来被反复验证的规律。

AI是这个时代最强大的内容创作辅助工具。但请注意"辅助"两个字。当你把辅助工具当成了替代方案,当你把效率提升的红利全部投入到数量扩张而非质量提升,你就已经踏上了通往那面墙的高速公路。

而那面墙,从来不让步。