Robots для wordpress

Как сделать правильный robots.txt для wordpress?

robots для wordpressЗдравствуйте, друзья!

В последнее время, читая разные блоги, я часто вижу, что очень многие пользователи интернет, а также блогеры и те кто ведут свои сайты на wordpress, задают вопрос: «Как сделать правильный robots.txt для wordpress?»

Правильный robots, вообще понятие относительное, потому что каждый пользователь считает что именно он сделал правильно. Я не претендую на истину в последней инстанции и поэтому прошу не судить строго.

Этот файл ограничивает доступ к страницам, которые вы не хотите, чтобы попали в индекс поисковых систем. Robots для wordpress делают в основном чтоб закрыть от индексации дубли страниц и системные файлы движка. Если у вас нет такого файла, обязательно создайте его и залейте в корень сайта.

Закрывать такие страницы можно конечно соответствующими плагинами, но мое мнение, если есть возможность сделать это без плагинов, значит ее нужно использовать. Мы закроем страницы с помощью мета тега <meta name=»robots» content=»noindex»>.

Выполнить эту задачу нам поможет одна функция, которую мы добавим в файл functions.php вашей текущей темы (шаблона) оформления. В этой функции есть возможность вам самим определить что закрывать от индексации, а что оставить. Не забудьте сделать резервную копию файла, чтобы если что-то пойдет не так у вас была возможность вернуть все в исходное положение.

Итак, открываем файл functions.php в редакторе и вставляем в него, желательно в самый верх вот эту функцию:

Возле каждой строчки есть описание, за что отвечает конкретная функция. Сейчас они закомментированы. Для того чтоб включить правило, которое вам необходимо, просто удалите двойной слеш перед этим правилом. Правила можно комбинировать. Например чтоб закрыть страницы пагинации в архивах, категориях или авторах, а основные оставить, правлило будет такое: ( is_archive() && is_paged() ) OR

Ну а сам robots.txt для wordpress выглядит вот так:

После внесения изменений не забудьте исправить свой файл на хостинге сайта! А также посмотреть на предмет дублирования этих правил в плагинах и отключить их, или не включать их в данной функции! Пробуйте, но не забывайте проверять результат ваших действий, чтоб не закрыть весь сайт от индексации! Помните, что все, что вы делаете – вы делаете на свой страх и риск!

Удачи Вам и процветания!

Автор - Александр

Меня зовут Александр.
Я Вебмастер и SEO — специалист по созданию и продвижению сайтов на WordPress.
В профессиональном интернет-маркетинге c 2007 года. Основные направления: создание и продвижение web-проектов в российском сегменте интернет. Специализация: создание сайтов и их комплексное продвижение, внутренняя оптимизация, внешняя оптимизация, трафиковое продвижение, контентное продвижение...

Связаться со мной >>
Посмотреть все публикации

Ваше имя (обязательно)

Ваш e-mail (обязательно)

Сообщение (обязательно)

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *