Вопрос или проблема
Это мой файл robots.txt:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-content/cache/
Disallow: /readme.html
Disallow: /refer/
Disallow: /cgi-bin/
Disallow: /participant/
Disallow: /blog/tag/
Disallow: /embed/
Allow: /wp-content/uploads/
Есть ли среди этих правил проблемные? Мне сказали быть осторожным, потому что некоторые файлы содержат CSS и JS, и, по-видимому, Google хочет получить к ним доступ?
Мне следует удалить эти 3?:
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-content/cache/
Ответ или решение
Ваш файл robots.txt выглядит довольно стандартно для сайта на WordPress, и вы правильно отмечаете, что некоторые элементы должны быть оптимизированы с точки зрения SEO и бюджета индексации. Давайте рассмотрим ваш файл более подробно.
Общая структура вашего файла robots.txt:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-content/cache/
Disallow: /readme.html
Disallow: /refer/
Disallow: /cgi-bin/
Disallow: /participant/
Disallow: /blog/tag/
Disallow: /embed/
Allow: /wp-content/uploads/
Анализ и рекомендации:
-
User-agent: *:
- Это означает, что указанные правила применяются ко всем поисковым ботам. Это правильный подход, так как вы хотите управлять доступом ко всему сайту централизованно.
-
Disallow: /wp-admin/ и Allow: /wp-admin/admin-ajax.php:
- Правильно, что вы ограничиваете доступ к админской части сайта, но позволяете доступ к admin-ajax.php. Это важно, так как некоторые функции сайта могут зависеть от AJAX-запросов.
-
Disallow: /wp-includes/:
- Это также нормально, так как wp-includes содержит внутренние файлы WordPress, которые не нуждаются в индексации.
-
Disallow: /wp-content/plugins/ и /wp-content/themes/:
- Здесь стоит быть осторожным. CSS и JavaScript файлы, которые находятся в папках плагинов и тем, могут влиять на рендеринг вашей страницы Googlebot. Если алгоритм Google не может просмотреть ресурсы, необходимые для понимания содержания страницы (например, стили и скрипты), это может привести к ухудшению SEO. Рекомендуется удалить эти директивы или хотя бы убедиться, что критически важные для SEO файлы доступны для индексации.
-
Disallow: /wp-content/cache/:
- Это хорошая практика, так как кешированные файлы не нуждаются в индексации.
-
Disallow: /readme.html, /refer/, /cgi-bin/, /participant/, /blog/tag/, /embed/:
- Ограничение доступа к этим ресурсам также разумно. Эти страницы, скорее всего, не важны для SEO.
-
Allow: /wp-content/uploads/:
- Это правильно, поскольку изображения и медиафайлы, находящиеся в этой папке, могут быть полезны для индексации и могут улучшать видимость сайта в поисковых системах.
Заключение:
Ваш файл robots.txt в целом неплох, но есть возможности для улучшения. Основное внимание следует уделить доступу к CSS и JavaScript, особенно если вы используете темы и плагины, которые могут содержать такие файлы.
Рекомендуемые действия:
- Рассмотрите возможность удаления директив
Disallow: /wp-content/plugins/
иDisallow: /wp-content/themes/
, чтобы обеспечить доступ к важным стилям и скриптам для поисковых систем. - Проверяйте ошибки в Google Search Console, чтобы определить, какие файлы не индексируются, и при необходимости корректируйте файл robots.txt.
Итог:
Каждый раз, когда вы вносите изменения в файл robots.txt, важно тестировать его с помощью инструментов, таких как Google Search Console, для того чтобы убедиться, что индексация осуществляется должным образом и существует доступ к критически важным ресурсам для SEO.