calcal.ru
Инструмент для вебмастеров и SEO-специалистов

Генератор robots.txt

Визуальный конструктор файла robots.txt с полной поддержкой директив Яндекса (Host, Clean-param) и Google. Готовые шаблоны для популярных CMS и фреймворков, встроенный валидатор.

5+
Готовых шаблонов
WordPress, Next.js, блокировка ИИ-ботов и другие
17
Известных ботов
Googlebot, Yandexbot, GPTBot и другие
7
Директив
User-agent, Disallow, Allow, Sitemap, Host и др.
100%
Бесплатно
Без регистрации и ограничений

Что такое robots.txt

Файл robots.txt — это текстовый файл в корне сайта, который указывает поисковым роботам (краулерам), какие разделы и страницы можно индексировать, а какие нельзя. Это стандарт Robots Exclusion Protocol, предложенный в 1994 году и поддерживаемый всеми крупными поисковыми системами.

📄

Стандарт REP

Robots Exclusion Protocol (REP) — стандарт, принятый в 1994 году Мартином Костером. В 2019 году Google предложил формализовать его как RFC 9309. Все крупные поисковики — Яндекс, Google, Bing, Mail.ru — соблюдают этот протокол и проверяют robots.txt перед сканированием сайта.

🔍

Как работает

Поисковый робот, приходя на сайт, первым делом запрашивает файл /robots.txt. Если файл найден, бот читает правила и следует им: не сканирует запрещённые страницы, соблюдает задержку между запросами (Crawl-delay). Если файла нет — робот индексирует весь сайт без ограничений.

⚠️

Рекомендация, не защита

Robots.txt — это рекомендательный протокол. Добропорядочные боты (Google, Яндекс) его соблюдают, но вредоносные парсеры и скраперы могут игнорировать. Для настоящей защиты контента используйте авторизацию, HTTP-заголовок X-Robots-Tag или мета-тег noindex.

Возможности генератора

Наш инструмент учитывает особенности всех популярных поисковых систем, включая специфические директивы Яндекса.

🔎

SEO-оптимизация

Правильный robots.txt помогает поисковикам эффективно сканировать ваш сайт, направляя краулинговый бюджет на важные страницы и исключая технические разделы.

🛡

Защита серверных ресурсов

Закрывая административные панели, API-эндпоинты и служебные директории, вы снижаете нагрузку на сервер от ботов и защищаете чувствительные данные от попадания в выдачу.

⚡

Оптимизация краулингового бюджета

Каждый поисковик выделяет сайту ограниченное количество запросов. Блокируя фасетную навигацию, дубли и технические страницы, вы направляете бюджет на ценный контент.

🇷🇺

Яндекс-специфичные директивы

Поддержка Host для указания основного зеркала, Clean-param для борьбы с дублями из-за UTM-меток, и правильная настройка Crawl-delay, критичная для индексации в Яндексе.

📋

Готовые шаблоны

Предустановленные конфигурации для WordPress, Next.js, блокировки ИИ-ботов (GPTBot, ClaudeBot) и типовых сценариев. Один клик — и основа файла готова.

✅

Встроенный валидатор

Вставьте существующий robots.txt и получите детальный разбор: ошибки синтаксиса, предупреждения о нестандартных директивах, пояснения по Яндекс-специфике.

Синтаксис robots.txt/ полное руководство

Файл robots.txt состоит из набора правил. Каждое правило начинается с директивы User-agent, за которой следуют инструкции Disallow и Allow. Дополнительные директивы (Sitemap, Host, Clean-param) указываются отдельно.

User-agent

Указывает, для какого робота предназначены следующие правила. Символ * означает «все роботы». Можно указать конкретного бота: Googlebot, Yandexbot, Bingbot, GPTBot и др.

User-agent: *
User-agent: Googlebot
User-agent: Yandexbot

Disallow

Запрещает сканирование указанного пути и всех URL, начинающихся с этого пути. Пустое значение Disallow разрешает доступ ко всему сайту. Поддерживаются подстановочные символы * и окончание $.

Disallow: /admin/
Disallow: /api/
Disallow: /*.pdf$
Disallow: /search?*q=

Allow

Разрешает сканирование указанного пути, даже если он попадает под более широкое правило Disallow. Позволяет создавать исключения: запретить директорию целиком, но разрешить отдельные файлы внутри.

Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap

Указывает путь к XML-карте сайта. Должен содержать полный URL с протоколом. Можно указать несколько директив Sitemap. Поддерживается всеми поисковыми системами.

Sitemap: https://example.com/sitemap.xml
Sitemap: https://example.com/sitemap-news.xml

Crawl-delay

Минимальная пауза (в секундах) между запросами бота. Яндекс учитывает, Google — игнорирует.

Crawl-delay: 2

Host

Основное зеркало сайта (www или без www). Специфика Яндекса, другие поисковики игнорируют.

Host: example.com

Clean-param

GET-параметры, не влияющие на содержание. Яндекс не будет считать URL с этими параметрами дублями.

Clean-param: utm_source /

Примеры для разных платформ

Для каждой CMS и фреймворка есть свои особенности настройки robots.txt. Ниже приведены рекомендации по типовым конфигурациям.

WPWordPress

Закройте wp-admin (но разрешите admin-ajax.php для AJAX-форм), wp-includes, служебные файлы (xmlrpc.php, wp-login.php). Запретите индексацию страниц поиска (?s=), тегов и авторских архивов, если они не несут SEO-ценности. Обязательно укажите Sitemap.

Используйте шаблон «WordPress (стандарт)» в конструкторе выше.

NNext.js

В Next.js основные технические файлы находятся в /_next/. Статические ассеты (JS, CSS) обычно не нуждаются в индексации. Закройте API-маршруты (/api/) и административные разделы. Next.js позволяет генерировать robots.txt программно через app/robots.js.

Используйте шаблон «Next.js (стандарт)» в конструкторе выше.

1C1С-Битрикс

Закройте /bitrix/, /upload/resize_cache/, /personal/, /auth/, страницы с параметрами фильтрации и сортировки. Для интернет-магазинов важно запретить индексацию корзины, оформления заказа и личного кабинета. Укажите Host для выбора основного зеркала.

DDjango / Flask

Закройте /admin/ (панель Django Admin), /static/ (если не нужно индексировать CSS/JS), /media/private/, API-эндпоинты. В Django можно обслуживать robots.txt через django-robots или простой TemplateView. Для Flask — через send_from_directory.

Особенности robots.txt для Яндекса

Яндекс поддерживает ряд директив, которые не учитываются Google и другими поисковиками. Правильная настройка этих директив может существенно улучшить индексацию вашего сайта в Яндексе.

🇷🇺

Директива Host

Выбор основного зеркала

Host указывает Яндексу, какой домен считать основным: example.com или www.example.com. Это помогает избежать дублирования контента между зеркалами. В Яндекс.Вебмастере можно проверить, какое зеркало выбрано. Google для этих целей использует rel=canonical и 301-редиректы.

🔧

Директива Clean-param

Борьба с дублями

Clean-param сообщает Яндексу, что определённые GET-параметры (utm_source, utm_medium, ref, session_id и т.д.) не меняют содержимое страницы. Яндекс не будет считать URL с разными значениями этих параметров отдельными страницами, что уменьшает количество дублей в индексе.

Crawl-delay для Яндекса

Контроль нагрузки

В отличие от Google (который игнорирует Crawl-delay), Яндекс строго соблюдает эту директиву. Значение 2 означает, что Yandexbot будет делать паузу минимум 2 секунды между запросами. Для небольших сайтов на shared-хостинге рекомендуется ставить 1-2 секунды, чтобы снизить нагрузку.

📋

Проверка в Яндекс.Вебмастере

Отладка и мониторинг

Яндекс.Вебмастер предоставляет инструмент «Анализ robots.txt», где можно проверить, как Яндекс интерпретирует ваш файл. Там же видно, какие страницы заблокированы и какие директивы применяются. Это самый надёжный способ убедиться, что robots.txt работает правильно.

Советы по настройке robots.txt

Практические рекомендации, которые помогут избежать типичных ошибок при создании файла robots.txt.

1Не блокируйте CSS и JS

Google явно рекомендует не закрывать CSS и JavaScript файлы от индексации. Googlebot рендерит страницы как браузер и без стилей/скриптов не может правильно оценить контент. Блокировка CSS/JS может привести к понижению в выдаче.

2Файл должен быть в корне

Robots.txt должен располагаться строго по адресу /robots.txt (в корне домена). Файл в поддиректории (example.com/blog/robots.txt) не будет найден роботами. Для поддоменов нужен отдельный файл: blog.example.com/robots.txt.

3Используйте полные URL для Sitemap

Директива Sitemap должна содержать абсолютный URL с протоколом: https://example.com/sitemap.xml. Относительные пути (/sitemap.xml) не распознаются стандартом и могут быть проигнорированы поисковиками.

4Проверяйте после каждого изменения

После изменения robots.txt проверьте его в инструментах вебмастера Google Search Console и Яндекс.Вебмастере. Ошибка в одном символе (например, пропущенный слэш) может заблокировать важные страницы от индексации.

5Не используйте для скрытия контента

Disallow в robots.txt не удаляет страницу из индекса — она может попасть туда через внешние ссылки. Для полного удаления используйте мета-тег noindex или HTTP-заголовок X-Robots-Tag: noindex в сочетании с разрешением на сканирование.

6Учитывайте порядок правил

Google и Яндекс по-разному обрабатывают конфликтующие правила Allow и Disallow. Google выбирает наиболее конкретное правило (по длине пути). Яндекс применяет последнее подходящее правило. Старайтесь делать правила однозначными, без конфликтов.

Как пользоваться генератором

Создайте файл robots.txt для вашего сайта за несколько простых шагов.

1

Выберите шаблон или начните с нуля

Нажмите на один из готовых пресетов (WordPress, Next.js, блокировка ИИ-ботов) или начните добавлять правила вручную.

2

Настройте правила

Выберите User-agent, добавьте пути Allow и Disallow. Установите Crawl-delay при необходимости. Добавьте правила для нескольких ботов.

3

Укажите глобальные директивы

Добавьте URL карты сайта (Sitemap), основное зеркало (Host) и параметры для очистки (Clean-param) для Яндекса.

4

Скопируйте или скачайте

Скопируйте сгенерированный текст в буфер обмена или скачайте как файл robots.txt. Загрузите его в корень вашего сайта.

Часто задаваемые вопросы

Если файл robots.txt отсутствует, поисковые роботы считают, что все страницы сайта доступны для сканирования. Это не является ошибкой — сайт будет индексироваться полностью. Однако без robots.txt вы не сможете управлять краулинговым бюджетом и исключать технические страницы из индекса.
Disallow в robots.txt запрещает роботу сканировать страницу, но не удаляет её из индекса — страница может попасть в выдачу через внешние ссылки (без сниппета). Мета-тег noindex удаляет страницу из индекса, но для его обнаружения робот должен просканировать страницу. Для полного удаления рекомендуется использовать noindex и не блокировать страницу в robots.txt.
Host — специфическая директива Яндекса, которая указывает основное зеркало сайта. Если ваш сайт доступен по адресам с www и без www, Host поможет Яндексу правильно определить главное зеркало. Однако Яндекс также учитывает 301-редиректы и настройки в Яндекс.Вебмастере. Google и Bing директиву Host не поддерживают.
Создайте отдельные правила User-agent для каждого ИИ-бота и укажите Disallow: /. Основные ИИ-боты: GPTBot и ChatGPT-User (OpenAI), ClaudeBot (Anthropic), Applebot-Extended (Apple). Обратите внимание, что не все ИИ-компании раскрывают названия своих ботов, поэтому полная блокировка невозможна.
Google обрабатывает первые 500 КБ файла robots.txt, всё остальное игнорируется. Яндекс ограничивает размер 32 КБ. На практике файл robots.txt редко превышает несколько килобайт. Если ваш файл получается слишком большим, скорее всего, стоит пересмотреть архитектуру URL и использовать подстановочные символы.
Стандарт robots.txt не поддерживает полноценные регулярные выражения. Однако Google и Яндекс поддерживают подстановочный символ * (любая последовательность символов) и символ $ (конец URL). Например, Disallow: /*.pdf$ заблокирует все URL, заканчивающиеся на .pdf.
Google кэширует robots.txt примерно на 24 часа, но может обновлять чаще или реже в зависимости от сайта. Яндекс обычно перечитывает файл несколько раз в день для активных сайтов. Чтобы ускорить применение изменений, можно запросить повторную проверку в Google Search Console или Яндекс.Вебмастере.
Clean-param — директива Яндекса, которая указывает GET-параметры, не влияющие на содержимое страницы. Например, UTM-метки (utm_source, utm_medium) не меняют контент, но создают десятки «дублей» в глазах поисковика. Clean-param помогает Яндексу понять, что /page?utm_source=vk и /page?utm_source=google — это одна и та же страница.
Да, в robots.txt поддерживаются комментарии. Всё, что идёт после символа # до конца строки, считается комментарием и игнорируется роботами. Комментарии полезны для документирования правил, особенно если файл редактируется несколькими людьми. Наш генератор пока не добавляет комментарии автоматически.
Используйте встроенный валидатор на этой странице для проверки синтаксиса. Затем загрузите файл на сайт и проверьте в Google Search Console (раздел «Проверка URL» → robots.txt) и Яндекс.Вебмастере (раздел «Инструменты» → «Анализ robots.txt»). Оба сервиса покажут, как поисковик интерпретирует ваши правила.
Лиана Арифметова
Создатель

Лиана Арифметова

Миссия: Демократизировать сложные расчеты. Превратить страх перед числами в ясность и контроль. Девиз: «Любая повторяющаяся задача заслуживает своего калькулятора».

⚖️

Отказ от ответственности

Только для информационных целей. Все расчёты, результаты и данные, предоставляемые данным инструментом, носят исключительно ознакомительный и справочный характер. Они не являются профессиональной консультацией — медицинской, юридической, финансовой, инженерной или иной.

Точность результатов. Калькулятор основан на общепринятых формулах и методиках, однако фактические результаты могут отличаться в зависимости от индивидуальных условий, исходных данных и применяемых стандартов. Мы не гарантируем полноту, точность или актуальность приведённых расчётов.

Медицинские, финансовые и профессиональные решения должны приниматься исключительно на основании консультации с квалифицированными специалистами — врачом, финансовым советником, инженером или другим профессионалом в соответствующей области. Не используйте результаты данного инструмента как единственное основание для принятия важных решений.

Ограничение ответственности. Авторы и разработчики сервиса не несут никакой ответственности за прямой или косвенный ущерб, возникший в результате использования данных расчётов. Пользователь принимает на себя всю ответственность за интерпретацию и применение полученных результатов.

Похожие инструменты

🏗️

Калькулятор расхода краски для пола

Расчёт расхода краски для пола по площади и количеству слоёв. Акриловая, эпоксидная, полиуретановая, алкидная. Стоимость.

🏭

Калькулятор грузоперевозок и доставки

Расчёт стоимости доставки по России: Почта, СДЭК, Деловые Линии. Объёмный вес, сроки, таможня.

🏗️

Калькулятор откосов

Расчёт материалов на оконные и дверные откосы. Пластик, гипсокартон, штукатурка, сэндвич-панели. Профили, пена, утеплитель.

⚗️

Калькулятор стехиометрии: балансировка и выход реакции

Балансировка химических уравнений (онлайн), расчет лимитирующего реагента и выхода реакции (теоретический/процентный).

🏠

Калькулятор ухода за питомцем: бюджет, корм, ветеринар

Калькулятор расходов на питомца. Бюджет на кошку или собаку, порции корма, ветеринарные расходы, стоимость первого года.

💰

Калькулятор амортизации кредита (график платежей)

Рассчитайте аннуитетные и дифференцированные платежи по кредиту. График погашения, переплата, досрочное погашение.

🏗️

Калькулятор автоматических выключателей

Подбор автоматического выключателя по мощности и сечению кабеля. Номинал автомата, характеристики B/C/D, проверка по ПУЭ, рекомендация УЗО.

🧮

Калькулятор развития ребёнка по месяцам

Навыки и нормы развития ребёнка по месяцам. Моторика, речь, социальные навыки.

🌿

Калькулятор петрологии

Классификация горных пород по TAS и AFM, нормативный состав CIPW, магнезиальность Mg#, геотермический градиент, литостатическое давление.

💰

Калькулятор ЕСХН

Расчёт единого сельскохозяйственного налога: 6% от «доходы минус расходы», проверка права.

🏠

Калькулятор подписок: трекер, сравнение, экономия

Калькулятор подписок. Учёт всех подписок, сравнение тарифов, расчёт экономии на годовых планах, аудит ненужных подписок.

🏠

Калькулятор расхода бытовой химии

Расчёт расхода стирального порошка, средств для мытья и уборки на месяц и год.

🏥

Калькулятор паразитологии

Подсчёт яиц гельминтов EPG, паразитемия малярии, FECRT, дозирование антигельминтных препаратов, определитель паразитов.

💰

Калькулятор льгот многодетным семьям

Расчёт всех льгот и выплат для многодетных семей: 450 000 на ипотеку, налоговые вычеты, бесплатный участок, региональные выплаты.

💻

Калькулятор шифрования и криптографии

Расчёты криптографии: стойкость пароля, AES, RSA/ECC, хеширование, ключи, квантовая угроза