Страница 4 из 11
□ типы страниц, источники трафика для них;
□ структуру URL;
□ схему перелинковки;
□ структуру метатегов.
Пример схемы перелинковки (рис. 2.6).
Вовсе не обязательно слепо копировать все приемы, используемые конкурентом, но взять на вооружение наиболее эффективные из них необходимо. Кроме того, совокупное изучение структуры сайта и статистики позволит получить информацию о том, что именно нужно пользователю и как именно он решает свои проблемы при помощи сайта. Вполне возможно, что у лидера есть серьезные ошибки в навигации: они вряд ли отпугнут старых пользователей, но вот новые вполне могут предпочесть ваш портал просто потому, что он удобнее.
Рис. 2.5, а
Рис. 2.5, б
Рис. 2.6
Кластеры. Если портал имеет нормальную структуру, в нем легко выявить кластеры, которые будут иметь URL типа site.ru/klasterl, site.ru/klaster2, site.ru/klasterl/podklasterl и т. п. Крайне желательно составить максимально полный список всех кластеров и подкластеров с масками URL – это позволит упростить изучение индексов.
Сравнение индексов
Изучая поисковые индексы «Яндекс» и Google с помощью операторов inurl: и site, мы можем найти разницу в количестве проиндексированных страниц по сайту в целом и по каждому кластеру в частности. Это самая простая и эффективная проверка сайта на ошибки, дубликаты, мусор, проблемы индексации, и она позволит нам составить перечень проблем. Например, такой.
□ Одна и та же страница расположена по разным URL (дублирование). Причины разнообразны – это и смена системы URL без установки кода ответа 301 (страница перемещена навсегда), и использование кода ответа 302 (страница перемещена временно) вместо 301, просто создание нескольких страниц с одинаковым контентом, неправильное использование тегирования, отсутствие закрывающих инструкций в robots.txt и многое другое.
□ В индексе отражены версии страниц для печати.
□ Страница выглядит как сообщение об ошибке, но на уровне сервера отдает код ответа 200 (все в порядке).
□ Страницы с практически идентичным контентом.
□ Страницы с ошибкой базы данных (страница отдает код ответа 200, но весь контент на ней – ошибка базы данных (БД)).
□ Дубли, связанные с индексацией страниц с www и без.
□ Дубли, связанные с возможностью зайти на сайт по IP.
□ Дубли, связанные с Session ID.
□ Дубли, связанные с сортировкой элементов в каталогах.
□ Дубли, связанные с пагинацией и календарем событий.
□ Индексация страниц внутренней поисковой выдачи (тут следует отметить, что «Яндекс» не желает индексировать такие страницы, но грань между страницей внутренней поисковой выдачи и страницей каталога довольно зыбка).
□ Страницы с поддоменов – зеркальных, тестовых и т. п.
Веселая история про тестовый поддомен. Забавная история из практики связана с тестовыми поддоменами. Клиент звонит в ужасе и говорит: «Мы попали под фильтр». – «Почему?» – «У нас одна страница в выдаче». Смотрим – правда, одна страница в выдаче. Непонятно, как так получилось. Вчера было несколько тысяч страниц, сегодня одна. Оказалось, программист, перенося сайт с тестового домена на основной, поскольку на тестовом все продумано, перенес и robots.txt со строчкой «disallow/». Все.
Все отмеченные ранее проблемы приводят к тому, что вес размывается, нужные страницы не индексируются и ранжирование осуществляется не по тем страницам, которые нам необходимы, а по тем, которые нашел робот. При создании нами портала все эти проблемы должны быть исключены.
Как выявлять подобные проблемы?
Большая разница между количеством проиндексированных страниц в кластере говорит о том, что какая-то система проиндексировала большое количество дублей (это почти всегда Google) или какая-то система вследствие большого количества ошибок не хочет полноценно индексировать кластер (мы не будем называть ее по имени, но это, конечно, «Яндекс»). Таким образом, разница в индексах является важным поводом для более пристального изучения.
HTML-код страниц разных типов
Детальное изучение кода страниц – очень кропотливая и неинтересная работа, но ее необходимо выполнить. Это позволит вам выявить ошибки, допущенные конкурентом, и решения, им разработанные. И то и другое необходимо учитывать при создании собственного сайта.
Типичные ошибки в коде:
□ избыточное и ничем не обоснованное использование тегов заголовков (например, выделение заголовком H1 (главный заголовок страницы) названия рубрики «Наши партнеры»);
□ незакрытые теги;
□ дублирование ссылок с размыванием анкорного веса (типичный пример – из каталога на страницу товара ведут три ссылки – с анкором в виде заглавия товара, с анкором в виде картинки и с анкором «Подробнее»).
Типы и источники контента
Изучать контент следует в плотной взаимосвязи с изучением видимости в поисковых системах и трафика. Цель – разработать стратегию наполнения нашего портала, которая по эффективности будет как минимум не уступать стратегии лидера. Если же вам удастся найти скрытый потенциал, например практически не проиндексированные разделы контента, то ваши инвестиции в контент могут стать еще более эффективными.
Видимость сайта в поисковых системах. О сервисах, которые позволяют частично оценить видимость сайта, я писал ранее. Вам необходимо изучить:
□ запросы, по которым сайт находится на высоких позициях, и трафик с них;
□ запросы, которым сайт пока не достиг высоких позиций (и попытаться определить причины);
□ основные входные страницы для поискового трафика (в идеале необходимо приложить немного усилий и определить страницы для разных поисковых систем);
□ запросы, по которым продвигаются конкуренты.
Если у вас установлены «Яндекс.Метрика», Awstats или LiveInternet, необходимо собрать все возможные низкочастотные запросы, по которым находится сайт. Они дополнят нашу семантику.
Ссылочная масса
С тех пор как «Яндекс», а затем и Yahoo! (который, впрочем, все равно показывал далеко не все) закрыли доступ к просмотру ссылок, для оценки ссылочного веса приходится пользоваться платными сервисами. Для этой цели подходят системы Solomono.ru, Ahrefs.com, Majestic-SEO.com (рис. 2.7), которые представляют массу полезных данных.
Рис. 2.7
Что важно оценить?
□ Общую ссылочную массу, а по мере работы над порталом (конкурентов надо анализировать не раз и не два) – и динамику ее прироста.
□ Источники ссылок, в том числе и естественных. Это позволит вам определить социальные сервисы и форумы с вашей целевой аудиторией. Кроме того, изучая естественное ссылочное ранжирование, вы узнаете, какие материалы вызывают наибольший интерес у пользователей.
□ Примерный бюджет на закупку ссылок, структуру закупки.
□ Анкор-лист.
Каким разделам следует уделить особое внимание?
Форум. Хорошо работающий форум является основным источником пользовательского контента и очень важным источником низкочастотного поискового и закладочного трафика. Нередко форум является главным сервисом портала и основным фактором его успеха. В качестве примера можно привести форумы порталов club.foto.ru и searchengines.ru – без комьюнити, сформировавшихся на базе форумов, оба портала были бы практически ничем.
Коллекция видео. Далеко не для всех тематик коллекция видео является мощным генератором трафика, но в ряде случаев без нее просто никуда. Так, очень большое внимание видео уделяют автопорталы, кинопорталы, музыкальные, игровые проекты и т. п. Основную ценность в данном случае опять же представляют комментарии: удачное видео может спровоцировать оживленную дискуссию и привлечь массу ссылок из социальных сетей и с форумов.