请在上方填写站点信息…
llms.txt 文件上传到你网站的根目录(与 robots.txt 同级),即可通过 https://你的域名/llms.txt 访问。建议同时在 robots.txt 中添加引用。llms.txt 生成器帮助你按照 llmstxt.org 的官方规范,通过可视化界面快速创建 llms.txt 文件。无需手动编写 Markdown 语法,填写表单即可自动生成符合规范的文件内容。
llms.txt 是由 Answer.AI 的 Jeremy Howard 在 2024 年提出的一项新兴开放标准,旨在帮助大语言模型(LLM)更好地理解和使用网站内容。它是一个放在网站根目录(/llms.txt)的 Markdown 格式纯文本文件,为 AI 系统提供网站的结构化概览和关键资源链接。
robots.txt 告诉搜索引擎爬虫该抓什么页面一样,llms.txt 告诉 AI 大模型你的网站有什么重要内容、应该重点关注哪些页面。
大语言模型的上下文窗口有限,无法一次性处理整个网站的所有页面。将复杂的 HTML 页面(包含导航、广告、JavaScript)转换为 AI 可用的纯文本既困难又不精确。llms.txt 提供了一种简洁的方式,让 AI 快速了解网站的核心内容和结构。
随着越来越多的用户通过 ChatGPT、Perplexity 等 AI 搜索工具获取信息,确保你的网站内容能被 AI 准确理解和引用变得至关重要。llms.txt 是 GEO(Generative Engine Optimization,生成式引擎优化)的重要组成部分。
没有 llms.txt,AI 只能随机抓取你网站的页面片段来"猜测"网站内容。有了 llms.txt,你可以主动告诉 AI:这是我网站最重要的页面,这些是核心文档,这些是 API 参考——让 AI 的理解更准确、更全面。
目前 Anthropic、Cloudflare、Mintlify 等科技公司已经部署了 llms.txt 文件。Yoast SEO 插件也已支持自动生成 llms.txt。虽然主要 LLM 提供商尚未正式宣布支持此标准,但提前部署可以让你在竞争中占据先机。
llms.txt 使用 Markdown 语法,遵循特定的结构:
| 元素 | 语法 | 说明 | 必填 |
|---|---|---|---|
| 站点名称 | # 站点名称 | H1 标题,整个文件只有一个 | ✅ 是 |
| 站点描述 | > 描述文字 | Blockquote 引用块,简要概述网站 | 推荐 |
| 补充说明 | 普通段落 | 对文件链接的额外解释 | 可选 |
| 内容分区 | ## 分区名 | H2 标题,按类别组织链接 | 推荐 |
| 链接条目 | - [标题](URL): 描述 | 具体页面链接,描述部分可选 | 推荐 |
# My Website> A comprehensive platform for SEO tools and resources.## Docs- [Getting Started](https://example.com/docs/start): Quick setup guide- [API Reference](https://example.com/docs/api): Full API documentation## Blog- [SEO Guide 2025](https://example.com/blog/seo-guide)- [Link Building Tips](https://example.com/blog/link-building): Proven strategies
无需手动编写 Markdown,通过表单填写站点名称、描述、分区和链接,工具自动生成符合规范的 llms.txt 文件内容。实时预览让你随时查看最终效果。
可以添加任意数量的 ## 分区(如 Docs、Blog、Products、API 等),每个分区下可以添加多条链接。支持拖拽排序和一键删除。
每条链接需要填写标题和 URL(必填),描述为可选。工具会自动按照 - [标题](URL): 描述 的标准格式生成。
生成的内容可以一键复制到剪贴板,或直接下载为 llms.txt 文件。文件使用 UTF-8 编码,可直接上传到网站根目录。
为公司网站生成 llms.txt,引导 AI 关注产品页面、关于我们、服务介绍等核心内容,确保 AI 搜索结果中准确展示公司信息。
为 API 文档、SDK 指南、开发者教程等技术内容创建 llms.txt,帮助开发者通过 AI 助手(如 Cursor、GitHub Copilot)快速找到正确的文档。
将产品分类、退换货政策、配送说明等关键信息纳入 llms.txt,让 AI 能准确回答用户关于产品和服务的问题。
按主题分区组织最重要的文章链接,确保 AI 引用的是你最新、最权威的内容,而不是过时的旧文章。
输入网站名称、描述、URL等基本信息。
逐条添加允许或禁止AI访问的内容路径和描述。
设置AI爬虫的访问权限和内容使用条款。
预览生成的llms.txt内容,一键复制或下载部署到网站根目录。
robots.txt 控制搜索引擎爬虫的抓取行为(允许或禁止抓取某些页面),而 llms.txt 向 AI 大模型提供网站的内容概览和重要资源链接。两者目的不同,建议都设置。可以在 robots.txt 中添加对 llms.txt 的引用。
sitemap.xml 列出网站所有可索引的 URL(可能有数万个),目的是帮助搜索引擎发现所有页面。llms.txt 只列出最重要的核心页面(通常几十到几百个),目的是帮助 AI 快速理解网站的核心内容和结构。
截至目前,Google 尚未正式宣布支持 llms.txt 标准。Google 的 John Mueller 也确认了这一点。但 Anthropic(Claude 的开发公司)已在自己的网站上部署了 llms.txt,表明他们对这一标准持开放态度。
放在网站根目录,通过 https://你的域名/llms.txt 可以直接访问。与 robots.txt 和 sitemap.xml 处于同一层级。
每当网站有重大内容更新(发布新产品、新文档、新功能)时应更新 llms.txt。建议至少每月检查一次,确保链接有效、内容反映网站最新状态。
没有硬性限制,但建议保持简洁。llms.txt 的目的是提供精炼的概览而非完整的内容索引。通常几十到几百条链接即可。如果需要提供完整内容,可以另建 llms-full.txt 文件。
AI 仍然会通过抓取网页来了解你的网站,但理解可能不够准确或全面。设置 llms.txt 是一种主动优化,让你控制 AI 对网站的理解方向。