Страница 4 из 6
Представители поисковых систем также хорошо понимают потребность пользователей в более качественном контенте. Как мы уже говорили ранее, качественный контент должен соответствовать интенту. Такие материалы должны удовлетворять пользователя тем, что отвечают на его вопрос. Сегодня мы живем в крайне любопытное время, когда сотни тысяч людей пишут страницы полезных для жизни данных, и при этом миллиарды людей имеют свободный доступ к ним. Однако есть и другая сторона – спамный и малоэффективный контент – материалы, которые не имеют никакой практической ценности и не способны приносить пользу людям. Более того, подобные материалы наносят определенный урон, так как отнимают свободное время пользователя, который каким-либо образом наткнулся на материал и пытается вычленить из него полезную информацию. Урон есть и для поисковых систем. Индексируя подобные материалы, поисковые машины попусту растрачивают ресурсы на своих серверах.
Всё это исторически привело к борьбе со спамом и попыткам научиться лучше понимать тексты, чтобы выбирать лучшие из лучших и затем предлагать их пользователям в топе-10 поисковой выдачи. И здесь было бы неплохо углубиться в несколько исторических моментов возникновения важных поисковых алгоритмов.
«Колибри» и «Королёв»
26 сентября 2013 года Google сообщил о запуске алгоритма Hummingbird (в пер. с англ. – колибри). По свидетельству Google, последние столь серьезные перемены в Google происходили в 2001 году. Суть алгоритма заключается в том, что с 2013 года поисковая система Google умеет определять контекст страницы. Скажем, если вы использовали ключевую фразу «кубик Рубика» на странице по продаже апельсинов, Google поймет это и понизит вас в выдаче или выкинет из нее вовсе.
22 августа 2017 года схожий алгоритм анонсировали представители Яндекса. Они назвали данный алгоритм «Королёв». Поиск Яндекса научился определять содержание текста не по набору слов, а по смыслу. Столь значительный прорыв в обеих поисковых системах произошел благодаря развитию нейронных сетей и искусственного интеллекта.
Для того чтобы было проще воспринять эту информацию, я предлагаю вам зайти прямо сейчас в поиск Яндекса и вбить запрос «фильм, в котором у странного парня была шоколадная фабрика». Вы получите ответ «Чарли и шоколадная фабрика». Меня восхищает подобное развитие технологий. Поиск научился работать с longtail запросами. Longtail запросы – это запросы с длинным «хвостом» из дополнительных уточняющих слов. В нашем случае это было: «у странного парня была шоколадная фабрика».
Вернемся ненадолго к примеру с кубиком Рубика на странице по продаже апельсинов. Как в данном случае алгоритмы будут понимать, что речь идет о совершенно разных вещах? Быть может, мы продаем кубик Рубика апельсинового цвета? Поисковые алгоритмы способны понять, что кубик имеет кубическую форму, и это совершенно не связано с шарообразной формой апельсина. Кубик Рубика не может быть одного цвета, так как в данном случае теряется вся логическая необходимость данного предмета. Такой вариант может продаваться только в магазине приколов, и поисковая система способна понять этот момент. А вот апельсины редко бывают фиолетовыми или белыми. Кубик Рубика не имеет вкусовых параметров. Апельсины кислые или сладкие, а еще они – цитрусовые. Таким образом, мы ненадолго погрузились в мозг поисковой системы, которая обзавелась нейронными связями.
В действительности обе поисковые системы шли к этому очень долго и сегодня они по-прежнему развивают технологии, которые позволяют распознавать неочевидный смысл содержания страницы и интента запроса. Благодаря этому авторам и веб-мастерам была дана возможность оптимизировать свои сайты, используя естественные тексты, а не набор ключевых фраз. С помощью развивающихся талантов авторов или в связи с выходом данных алгоритмов, но тексты в Интернете действительно стали значительно лучше, и мы наконец обрели высокую ценность текстовых материалов в Сети.
Я хотел бы остановиться чуть более подробно на истории внедрения поисковых алгоритмов, так как знание этого в разы повышает профессионализм в сфере контент-маркетинга. Знать историю развития поисковых систем в действительности важно, чтобы понимать, что хотят увидеть представители поисковиков, когда говорят о качественном контенте.
В 2016 году Яндекс анонсировал новый алгоритм и большую статью с развернутым объяснением того, как они стремятся научить поисковую систему определять сложные контекстуальные запросы с длинными хвостами ключевых слов. Алгоритм был назван «Палех» в честь сказочного существа – жар-птицы, которая имела длинный хвост и часто изображалась на предметах в стиле «палех». Алгоритм «Королёв», который появился через год после «Палеха», можно считать его усовершенствованным вариантом.
Предлагаю уделить внимание технологиям нейронных сетей в рамках поисковых алгоритмов. Например, сегодня поисковые системы уже умеют понимать содержание графического изображения. Спасибо нейронным сетям!
И несмотря на то что они пока научились делать это в узкоспециализированных направлениях, тем не менее это значительный прорыв в технологиях поиска, и на основе этого можно предположить, что данная технология будет внедряться все больше и больше. Например, поисковые системы с легкостью определяют изображения порнографического характера. Они делают это благодаря определению количества телесного цвета на изображении. Таким образом работает цензура поисковой системы, отсеивая неэтичные изображения из прямых источников.
Как стоит интерпретировать информацию о работе данных алгоритмов в практическом смысле? В первую очередь мы получаем ценное понимание того, что поисковые системы стали значительно умнее – они научились понимать контекст страницы. Но я бы сильно поспорил с высказыванием представителей Яндекса о том, что веб-мастерам необходимо просто писать тексты для людей. Некорректность данного высказывания заключается в том, что для того, чтобы написать хорошие тексты для людей, необходимо как минимум изучить их психологию, понять портрет целевого пользователя, узнать всё о его «боли» и проблемах.
Что такому пользователю важно? Как он ищет информацию? Для чего он это делает? Каким образом он пытается сделать свою жизнь лучше, разыскивая ту или иную информацию? В действительности возникает множество важных вопросов, и «просто писать тексты для людей» не получится «просто» – это весьма неординарная задача.
В свете данных алгоритмов мы должны определить полный список ключевых фраз, которые встречаются в данной тематике. Сюда будут относиться вся перекрестная семантика, синонимы, околотематические фразы. В дальнейшем мы поговорим о том, как именно собрать подобную информацию. Я также расскажу о способах составления портрета целевого пользователя.
«Панда» и «Баден-Баден»
Для того чтобы объективно понимать ценность тех или иных техник работы с контентом, мы должны рассмотреть еще два важных алгоритма поисковых систем – это «Панда» у Google и «Баден-Баден» у Яндекс.
Алгоритм Google «Панда» был анонсирован в феврале 2011 года. Данный алгоритм был нацелен на чистку Интернета от низкокачественных сайтов, то есть сайтов, содержащих некачественный контент. Запуск алгоритма прошел не очень гладко, так как в первые же несколько итераций были пессимизированы множественные новостные сайты, популярные форумы, которые активно применяли стороннюю рекламу. Мэтт Каттс – бывший инженер Google, который руководил отделом веб-спама, а в 2017 году покинул Google, раскрыл большие объемы инсайдерской информации. Так, он прокомментировал, что Google в действительности пытался добиться увеличения прибыли от некоторых своих партнеров. В связи с не самым успешным запуском алгоритма в апреле 2011 года Google выпустил новую версию алгоритма, чтобы минимизировать ущерб, который получили множественные проекты в ходе первой итерации.