Как ранжируют современные поисковики?

Поисковые системы (ПС) выполняют две главные функции: сбор информации (crawling) с последующей индексацией страниц (index) и предоставление пользователям списка релевантных запросу сайтов, расположенных в определенной последовательности.
 
Ежедневно поисковые роботы, или «веб-пауки» сканируют миллиарды интернет-страниц, сохраняя элементы их кода в специальных базах данных. Чтобы в нужный момент как-то отсортировать всю массу ссылок и поставить на первое место те, которые лучше всего отвечают задачам пользователя, были придуманы алгоритмы ранжирования.
Что это такое?
Разберемся, что такое алгоритмы ранжирования. Для поисковой машины релевантность — больше, чем просто страница с соответствующими запросу ключевыми словами. Возможно, на заре существования ПС их задача сводилась именно к этому, но и результаты поиска были достаточно ограниченными. Постепенно «умные» поисковики научились при сортировке обращать внимание на дополнительную информацию, так называемые «факторы ранжирования», которые решают, где будет располагаться сайт в поисковой выдаче.
 
С развитием интернета один запрос стал выдавать сотни тысяч, а иногда миллионы страниц. Попасть в первую десятку, не прибегая к инструментам контекстной рекламы, большинству даже полезных ресурсов было бы практически невозможно, если бы со стороны поисковых систем не был введен свой алгоритм ранжирования (range algorithm): программное решение, позволяющее располагать сайты с учетом их ценности для пользователей.
 
Первоочередная задача поисковой системы — максимально точно ответить на вопрос человека. Подобрать потенциально релевантную информацию, исходя только из наличия нужных слов, недостаточно; анализ текстов страниц — лишь первый этап работы поисковиков.
 
Намного более важное значение имеет качество ресурса, его популярность, авторитет, общее содержание, тематика, соответствие языку, географическому положению пользователя, а также остальные факторы, образующие итоговый «вес» страницы.
 
Как уже упоминалось, оказаться наверху списка можно, прибегнув к помощи контекстной рекламы: сегодня это один из самых популярных механизмов продвижения, а также источник огромных доходов ПС. Собственно, поэтому конкретные алгоритмы ранжирования и их формулы официально не раскрываются, дабы естественный поиск не создавал прямой конкуренции платному или рекламному.
 
Тем не менее, ПС регулярно сообщают о факторах, которые учитываются при ранжировании, об изменениях технологии поиска, отмене старых и появлении новых критериев — всю эту информацию можно почерпнуть из тематических блогов или форумов.
 
Из чего складывается популярность
Чтобы лучше понимать, как сегодня работает стандартный механизм ранжирования ПС, рассмотрим 3 основных критерия, влияющих на популярность сайта:
1. Общий вес, или показатель ценности ресурса (scoring), который складывается из сотни различных факторов, чем-то напоминая капусту с ее многочисленными листьями. Кстати, поэтому говорить про какой-то один алгоритм ранжирования не совсем корректно.
2. Продвижение сайта (boosting), или улучшение его позиций за счет изменения некоторых показателей. Примером может служить недавно введенное Google преимущество для ресурсов, оптимизированных под мобильные устройства. Различные формы персонализации страниц также являются поводом к пересмотру рейтинга.
3. Пессимизация, или механизм сдерживания сайта (dampening), является своего рода наказанием ресурсу за неуникальный контент, плохую репутацию и недобросовестные методы продвижения, так называемую «черную оптимизацию». Знаменитые Пингвин и Панда от Google или алгоритм ранжирования Яндекса 2015 года «Минусинск» — наглядная иллюстрация того, как запрещенные ПС приемы могут снизить позицию сайта в поисковой выдаче.
 
Основные факторы ранжирования
Маркетологи и SEO-специалисты по всему миру систематически проводят корреляционные исследования, чтобы лучше представлять, из чего складываются алгоритмы ранжирования ПС и что больше всего влияет на «видимость» сайта в поисковиках. Даже если общие критерии всем понятны, упустить из виду важную деталь из-за постоянно происходящих изменений не хочет никто.
 
Согласно отчету SearchMetrics за 2015 год, релевантный, качественный контент приобрел лидирующее значение в вопросе оптимизации страниц. Актуальная, заслуживающая доверие информация сегодня ценится как никогда. Главными доказательствами хорошего контента являются:
- Высокая скорость загрузки;
- Позиция ключевого слова в заголовке (title);
- Длина URL-адреса страницы;
- Наличие подзаголовков (h1, h2);
- Краткое описание страницы (description) и присутствие в нем ключевых слов.
Социальные сети продолжают набирать вес при ранжировании страниц, и со временем влияние этого фактора, вероятно, усилится: Google+, а также Facebook, Pinterest и Twitter играют решающую роль для алгоритмов Google.
 
А вот относительно внешних ссылок на ресурс, больших изменений в 2015 не произошло. Качественные, естественные бэклинки и их суммарное количество все еще остается одним из важнейших SEO-факторов.
 
Внутрисайтовая оптимизация (on-page optimization), например, использование релевантных терминов, наличие ключевых фраз в теле страницы, длина HTML, количество предложений и символов также имеет большое значение наряду с поведенческими факторами (user signal) — качеством трафика, показателем отказов (bounce rate), CTR и временем, проведенным на странице.
 
Только внимательная работа со всеми этими факторами, а также создание по-настоящему уникального, полезного контента является сигналом для ПС о том, что ваш сайт заслуживает доверия.