Добавить в цитаты Настройки чтения

Страница 15 из 17



Html-карта сайта

Html-карта сайта – это отдельная страница, на которой списком представлены ссылки на основные разделы сайта. Такая карта помогает поисковым системам тщательнее и легче индексировать основные разделы, в результате чего повышается их видимость. Также карта может быть полезна для пользователей, если они привыкли работать с этим инструментом.

Несколько простых рекомендаций, которые стоит учесть при создании этого раздела:

1. Формирование карты и поддержание ее актуальности должно выполняться в автоматическом режиме: добавлять ссылки в ручном режиме затратно и неудобно.

2. В карте сайта должны быть ссылки только на важнейшие страницы (разделы, категории, посадочные).

3. Ссылку на карту сайта лучше сделать сквозной. Размещается она, как правило, в подвале сайта.

Битые ссылки

Битые ссылки – это ссылки на несуществующую страницу или ресурс сайта (документ, изображение, видео, форму). При клике на битую ссылку пользователь понимает, что произошла ошибка (страница не найдена, изображение не отображается, видео не проигрывается).

Битые ссылки ухудшают впечатление пользователей о сайте, что напрямую может сказаться на поведенческих факторах ранжирования (например, вырастет показатель отказов). Слишком большое количество битых ссылок может означать брошенный сайт, что серьезно снижает показатели траста.

Для выявления битых ссылок существует множество сервисов, информацию о которых легко найти в Интернете. Однозначно стоит отслеживать битые ссылки в панелях вебмастеров поисковых систем. Также время от времени стоит сканировать сайт с помощью специального ПО, например, программы Xenu’s Link Sleuth[72].

Полнота индексации

Полнота индексации – это очень важный параметр, который характеризуется простой формулой: в индексе поисковых систем должны присутствовать все нужные страницы и не должно быть постороннего «мусора». Именно к этому состоянию нужно стремиться при продвижении сайта.

Контролировать полноту индексации достаточно просто:

1. Все целевые страницы должны присутствовать в индексе Яндекса. Проверить это можно с помощью панели вебмастера[73].

2. Все целевые страницы должны присутствовать в индексе Гугла. Проверить это можно также в консоли для вебмастера[74].

✍ На заметку

Если в индексе Яндекса и Гугла должны присутствовать все целевые страницы, но отсутствовать «мусор», логично предположить, что число страниц в индексе обеих поисковых систем должно быть примерно одинаковым.

Если это не так, у продвигаемого сайта могут быть проблемы.

Как правило, причин такой ситуации две:

– один или оба поисковика «не видят» целевые страницы или индексируют «мусор» (а иногда и то и другое);

– продвигаемый сайт попал под санкции, и страницы начали выпадать из базы.

Последний случай очень серьезный и требует неотложных мер для исправления ситуации.

3. В индексе поисковых систем не должно быть служебных поддоменов и страниц, дублей и прочего «мусора».

Полноту индексации иногда непросто проверить при работе с большими проектами. Для этого случая можно посоветовать проверять полноту по отдельным подразделам.

Коды ответа сервера

Все существующие страницы должны возвращать код ответа сервера 200 (ОК), а все удаленные или несуществующие документы – 404 (Not found).

Проверить выполнение этого правила можно с помощью специального программного обеспечения или веб-сервисов, информацию о которых легко найти в Сети.

Полезные советы и типичные ошибки



Перечислим некоторые типичные ошибки, которых стоит избегать, чтобы улучшить индексацию и перелинковку сайта:

1. На все ключевые разделы желательно поставить ссылку с главной страницы. Конечно, для масштабных информационных проектов и больших интернет-магазинов это может быть проблематично, но стремиться к этому необходимо.

2. Не следует ставить слишком много внутренних ссылок на одной странице.

Не так давно из-за технических ограничений поисковые системы не рекомендовали ставить больше 100–150 ссылок на странице. Сейчас таких жестких ограничений нет, поисковики лишь рекомендуют использовать «оправданное количество ссылок».

При этом нужно иметь в виду, что внутренний вес распределяется по каждой ссылке. Это значит, что если на странице 100 ссылок, то каждая получит 1/100 части веса, а если тысяча – лишь 1/1000. Кроме того, чрезмерное количество ссылок может восприниматься поисковыми системами как спам или попытка манипуляции выдачей, что автоматически приведет к наложению санкций.

Выводы:

a. Не стоит концентрироваться на точном ограничении количества ссылок.

b. Все ссылки нужно ставить для пользователей, а не поисковых роботов.

c. В пределах одной страницы ссылок не должно быть слишком много.

3. На все страницы сайта должен быть переход хотя бы по одной ссылке. Встречается ситуация, когда страница исчезает из навигационных цепочек, но остается доступной по прямой ссылке (например, при изменении каталога в интернет-магазине). Нужно быть готовым к тому, что такие страницы со временем выпадут из индекса.

4. В главе про улучшение скорости работы сайта мы говорили о важности использования http-кэширования[75]. Но использовать кэш важно не только для того, чтобы улучшить скорость загрузки.

Благодаря использованию нужных заголовков (один из пары Expires и Cache-Control max-age, а также один заголовок из пары Last-Modified и ETag) можно уменьшить объем передаваемого трафика за счет использования ресурсов из кэша, а не повторной их загрузки. Таким образом можно сэкономить краулинговый бюджет и улучшить полноту индексации сайта.

5. Не нужно использовать nofollow-ссылки во внутренней перелинковке. Это затруднит индексацию страниц сайта. Исключение составляют случаи приоритизации сканирования, когда для робота закрываются разделы, которые не имеет смысла индексировать (примером могут служить ссылки на вход, регистрацию или корзину на сайте интернет-магазина). Процитируем представителей Гугла: «Использование nofollow в таких случаях позволяет роботу заняться сканированием других страниц, которые вы хотели бы видеть в индексе Google. И все же гораздо важнее правильно организовывать информацию: применять интуитивно понятную навигацию, удобные для пользователей и поисковых систем URL и т. д.»[76].

6. Есть смысл подумать над использованием абсолютных (<a href=«http://site.ru/katalog»>Каталог продукции < /a>), а не относительных (<a href=«/katalog»>Каталог продукции</a>) внутренних ссылок.

Это поможет защитить контент от скраперов (парсеров) – мошеннических программ, которые воруют контент сайта и размещают его на других ресурсах.

При этом нужно помнить, что использование абсолютных адресов имеет ряд сложностей, которые встанут в полный рост при смене домена или протокола. Также сложно использовать абсолютные адреса при наличии нескольких доменов/поддоменов для разных языковых версий и при доработке сайта на тестовом сервере.

7. Следует использовать ключевые слова во внутренних ссылках. Мы уже касались этой темы в разделе про работу со статическими весами, но не лишним будет повторить: текст ссылки служит дополнительным сигналом релевантности. Нужно стремиться к тому, чтобы использовать в ссылке те ключевые слова, под которые оптимизирована страница.

72

http://home.snafu.de/tilman/xenulink.html

73

https://webmaster.yandex.ru/site/indexing/indexing/?indicatorId= INDEXING_SEARCHABLE

74

https://search.google.com/search-console

75

https://developers.google.com/speed/docs/insights/Leverage BrowserCaching

76

https://support.google.com/webmasters/answei7965697hHru