
26 критериев AI-Readiness: как я провёл аудит собственного сайта (и обогнал три B2B SaaS-гиганта)
26 критериев AI-Readiness: как я провёл аудит собственного сайта (и обогнал три B2B SaaS-гиганта)
В мае 2026 я провёл структурированный аудит собственного сайта ivannikov.pro по 26 критериям AI-readiness. Стартовый score: ~42/100. После одного дня фиксов — 80/100. Затем прогнал тот же аудит на Stripe, Twilio и Linear. Twilio и Linear провалили pre-condition E1 — их публичные сайты нечитаемы для LLM-кроулеров без JavaScript. Stripe набрал 55/100, упустив базу типа llms-full.txt и явной AI-policy в robots.txt.
Если у вас B2B SaaS и вы рассчитываете на органический трафик — это важно. Discovery сместился из Google в AI-агентов: ChatGPT, Claude, Perplexity, Google AI Overview. Сайты, не оптимизированные под LLM, теряют видимость квартал за кварталом. Большинство «AI SEO» советов в интернете — общие; этот пост даёт конкретный чек-лист.
26-критерийный фреймворк
Пять категорий, 100 баллов суммарно, плюс жёсткий pre-condition gate:
E1 gate (pre-condition)
Контент доступен без выполнения JavaScript. LLM-кроулеры (GPTBot, ClaudeBot, PerplexityBot) JS не исполняют. Если ваш сайт требует JS для отрисовки контента — весь аудит UNRELIABLE, чините это первым. Именно здесь сильно теряют SPA-сайты.
A. Discovery (18 баллов)
Может ли AI-агент найти ваш контент с холодного старта? Смотрим:
/llms.txt— индекс сайта в формате llmstxt.org./llms-full.txt— расширенная версия с конкатенированным контентом./robots.txtс явнымAllow:для AI-кроулеров (не толькоUser-agent: *)./sitemap.xmlс тегами<lastmod>.
B. Per-page артефакты (22 балла)
На отдельных страницах:
.md-зеркала —/page.mdвозвращает чистый Markdown. Самый эффективный single fix для SPA.- JSON-LD
TechArticle/Article/Person/Organizationschema в<head>. <link rel="canonical">присутствует и точен.Last-ModifiedHTTP-заголовок илиdateModifiedв JSON-LD.- OpenGraph + Twitter Card метаданные.
C. API spec (25 баллов) — skip если у вас не API-продукт
- OpenAPI на предсказуемом URL (
/openapi.json). - Валидная спека.
- Per-endpoint примеры (request + response).
- Postman / Insomnia / Bruno коллекция.
- SDK-ссылки рядом с доками.
- Версионирование в спеке и URL.
D. Контент (20 баллов)
curl-пример на каждый endpoint.- Реалистичные payloads (не
{"foo": "bar"}). - Error codes документированы.
- Auth-метод явно описан.
- Rate limits документированы.
- Глоссарий domain-specific терминов.
- SDK code examples рядом с REST.
E. Hygiene (15 баллов)
- No-JS доступ (E1 gate выше).
- Стабильные URL (без hash-routing).
- Версия в URL для стабильной цитируемости.
- TOS / AUP / AI-политика опубликована.
Полный чек-лист с распределением баллов и методами верификации — в open-source репо.
Self-audit: ivannikov.pro
До фиксов (manual audit, 2026-05-16 утром):
| Категория | Score | |---|---| | A. Discovery | 4/18 | | B. Per-page | 9/22 | | E. Hygiene | 10/15 | | Total (A+B+E, partial) | 23/55 → ~42/100 |
После фиксов (вечер того же дня):
| Категория | Score | |---|---| | A. Discovery | 15/18 | | B. Per-page | 12/22 | | E. Hygiene | 11/15 | | Total | 38/55 → ~69/100 manual; 80/100 по автоматическому скрипту |
Что изменилось за один день:
- Добавил
/llms.txtв формате llmstxt.org (+6). - Добавил
/llms-full.txtс ~3000 слов canonical-контента (+5). - Обновил
/robots.txtс явнымAllow:для 20+ AI-кроулеров: GPTBot, ClaudeBot, PerplexityBot, Google-Extended, anthropic-ai, cohere-ai, meta-externalagent (+3). - Обогатил JSON-LD
Personschema —alternateName(варианты handle),givenName/familyName,worksForOrganization schema, расширенныйknowsAboutс AI/RAG/LLM/GEO (+2). - Переставил услуги — AI-first (
ai-optimisation,ai-developmentсверху), Web3 как adjacent capability.
Benchmark: B2B SaaS-гиганты
Прогнал автоматический subset аудита на трёх популярных B2B SaaS:
| Сайт | E1 gate | Score | Notes | |---|---|---|---| | ivannikov.pro | ✅ PASS | 80/100 | После Week 1 фиксов — SSG + llms.txt + robots AI policy + sitemap | | Stripe | ✅ PASS | 55/100 | Есть llms.txt (без H1), нет llms-full.txt, generic robots.txt, нет sitemap.xml в корне, нет OpenGraph | | Twilio | ❌ FAIL | 32/100 UNRELIABLE | SPA — body пустой без JS. LLM-кроулеры не читают контент. | | Linear | ❌ FAIL | 40/100 UNRELIABLE | Есть llms.txt (218 строк!) и llms-full.txt, но основной сайт JS-рендеренный. |
Вывод: два из трёх B2B SaaS-гигантов невидимы для LLM-кроулеров со своих публичных маркетинговых сайтов. Они скорее всего цитируются через вторичные сигналы (docs-поддомены, third-party упоминания, лаг training data), но органическую AI-видимость они оставляют на столе.
Если ваши конкуренты в похожем состоянии — окно first-mover в вашей нише открыто на ближайшие 12–18 месяцев.
Где большинство команд проигрывают
Три паттерна, которые я вижу постоянно:
1. SPA по умолчанию (E1 trap)
Single-page приложения рендерят контент на клиенте. Для вас выглядит ОК — для кроулера это пустой <body>. Stripe закрыл это правильно, отдавая HTML напрямую. Twilio и Linear платят SPA-tax. Фиксы — от «переключить несколько ключевых страниц на SSR» до «добавить per-page .md зеркала через route handler». Markdown-зеркало — fix с самым высоким ROI.
2. Нет явной AI-policy в robots.txt
Голый User-agent: * технически разрешительный, но явные Allow: для GPTBot, ClaudeBot и т.д. — позитивный сигнал, плюс ещё возможность тонко запретить если хочется. У большинства команд просто нет ни того, ни другого.
3. JSON-LD отсутствует или устарел
Если у вас в <head> Person / Organization / Article JSON-LD — агенты могут резолвить entity references. Если нет — вы ставите на собственный retrieval LLM. С явным sameAs (линковка GitHub, LinkedIn, Telegram, X, Upwork) вы становитесь одной сущностью в ментальной модели агента — вместо трёх handles с похожим именем.
Почему это важнее для founder-led брендов
Для студий, агентств и freelancer-led SaaS есть второе измерение, которое я называю entity authority — узнаёт ли LLM, что вы — один человек, или три разных?
Если у вас:
- GitHub
your-name - LinkedIn
your.name - Twitter
your_name - Telegram
yourname
…это потенциально четыре отдельные сущности. Schema.org alternateName — стартовая точка, но долгосрочный фикс это bio consistency (одна био-строка везде) + linkback дисциплина (каждый профиль линкуется обратно на ваш домен) + регулярная техническая писанина под вашим именем.
Это отдельный companion чек-лист — 13 критериев, 50 баллов, охватывает platform footprint, schema signals, consistency, external mentions. Тот же open-source репо.
Попробуйте на своём сайте
Методология, prompt, bash-скрипт и примеры отчётов — под MIT-лицензией:
github.com/ivannikov-pro/ai-readiness-audit
Три способа использовать:
-
Bash-скрипт для 30-секундного автоматического subset:
./scripts/check-ai-readiness.sh https://yourcompany.com -
Claude / ChatGPT prompt — вставьте
prompts/audit-prompt.mdв LLM вместе с вашим URL. -
Manual чек-лист — пройдитесь по
audit-checklist.mdс полными 26 критериями.
Если хочется, чтобы кто-то реально провёл аудит, приоритизировал фиксы и отслеживал AI Visibility Score по времени — это платная услуга.
TL;DR
- AI-агенты всё чаще — это как клиенты находят B2B SaaS.
- Большинство популярных B2B SaaS-сайтов проваливают базовый AI-readiness — SPA с JS, нет
llms.txt, нет явной AI-policy. - Fix — известный, скорируемый список из 26 критериев.
- Я довёл свой сайт с 42 до 80 за один день. Инструменты open source.
- Окно first-mover в большинстве ниш открыто на ближайшие 12–18 месяцев.
Если статья была полезна: подпишитесь в X, Telegram, или на канал. Полная стратегия и методология будет публиковаться по мере развития.
— Александр Иванников / IVANNIKOV.PRO