SEO-оптимизация: удаление дублей с сайта и поисковой выдачи

удаление дублей с сайта
SEO-оптимизация: удаление дублей с сайта и поисковой выдачи

Каждый сайт – это, прежде всего, источник полезной информации для людей и инструмент продвижения вашей компании. Он должен быть аккуратным, презентабельным и грамотным. Лишние страницы и страницы с ошибками мешают развитию и раскрутке сайта. От информационного мусора необходимо вовремя избавляться.

Удаление ненужных страниц из выдачи поисковиков

В индекс поисковых систем может попасть много страниц, которые не представляют ценности для пользователей. Кроме этого, наличие дублей, страниц с ошибками и пустых страниц негативно влияет на ранжирование сайта. Позиции ресурса могут быть понижены, если поисковые системы обнаружат некачественный контент.

В процессе оптимизации сайта необходимо удалять страницы, мешающие продвижению. Чтобы предотвратить появление ненужных страниц, надо понять причины, по которым они возникают на сайте.

Причины появления и попадания в индекс страниц с ошибками

1. Недостатки CMS.

Современные сайты работают на CMS. У каждой из них есть свои недостатки и особенности. Многие CMS автоматически генерируют дубли страниц. Естественно, все эти страницы попадают в дальнейшем в индекс поисковиков. Если нельзя предотвратить создание дублей, надо позаботиться о закрытии такого контента от поисковых систем. Для этого необходимо прописать соответствующие настройки в robots.txt.

2. Старые версии страниц.

Когда сайт развивается в течение нескольких лет, неизбежно образуются устаревшие страницы, нахождение которых в индексе крайне нежелательно. Неактуальная информация мешает продвижению ничуть не меньше, чем дублированный или неуникальный контент. Более того, старые версии страниц могут содержать битые ссылки, ошибки, неправильные запросы. Такой контент необходимо оптимизировать или закрывать от индексации.

3. Индексация документов.

Документы в pdf, doc, xls или каком-то другом формате индексируются роботами наравне с обычными страницами. Большое количество таких документов на сайте может мешать правильной индексации и продвижению. Например, нарушается порядок внутренней перелинковки, Такие документы лучше закрывать от индексирования.

Поиск ненужных страниц в индексе

Анализ результатов выдачи позволит обнаружить страницы, которые желательно удалить из индекса. Для проведения такого анализа воспользуйтесь простым приемом. В строку поиска впишите site:имя_сайта.ru, где имя_сайта – это доменное имя вашего ресурса. В результатах выдачи вы найдете все страницы, находящиеся в индексе.

Если сайт небольшой, то подобный анализ не займет много времени. Для оценки крупных проектов потребуется использовать более сложные сервисы аналитики или услуги специалистов.

Как удалить дубли и ненужные страницы?

Наиболее простой способ – настройка robots.txt. Вы можете сами указать роботам на то, какие страницы вашего сайта можно индексировать, а какие нельзя. Для этого достаточно прописать разрешение и запрет на индексирование в robots.txt.

Можно удалить ненужные страницы. Данный прием применим не ко всем сайтам. После удаления необходимо скорректировать структуру ресурса, чтобы не вызвать новых ошибок в индексации и продвижении.

Еще один способ удаления – это настройка 301 редиректа. Со страницы-дубля настраивается перенаправление пользователей на хорошую страницу. Постепенно все ненужные страницы «уйдут» из индекса.

Удаление дублей из индекса и очистка сайта от плохих страниц – важный этап оптимизации. Контроль над качеством поисковой выдачи поможет вам обнаружить и устранить грубые ошибки, в результате которых сайт теряет позиции и посетителей.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *