Главные фильтры Google. Мифы и реальность

В веб-оптимизаторской среде упорно циркулируют самые различные мифы о каких-то фильтрах Google (или просто Гугл), которые эта поисковая система будто бы накладывает на сайты, нарушившие то или иное правило, являющееся основополагающим в ранжировании веб-ресурсов. Никто не спорит, разнообразные фильтры, регулирующие опимизаторскую деятельность слишком уж ретивых веб-хитрецов, существуют в реальности, но самые главные, якобы, фильтры являются самым страшным пугалом для каждого начинающего вебмастера. Таких «главных» фильтра, сеющих панику среди вебмастеров нового поколения, всего три. И вот настала пора развенчать эти три нелепых заблуждения.
 
1). Фильтр, известный как «Duplicate Content». Согласно многочисленным заявлениям всяких «СЕО-гуру», фильтр этот накладывается Гуглом на сайты, использующие контент, взятый с других сайтов, и избегают его только сайты новостей (как известно, часто все новости в интернете одинаковы). Но достаточно только заглянуть в выдачу Гугла по какому-либо запросу, и вы увидите множество одинаковых сниппетов (фрагменты, взятые из текста или описания страницы), заполонивших всю эту выдачу. На эти сайты пресловутый фильтр «Duplicate Content» почему-то не накладывает. Почему же так? Да потому что нет такого фильтра, а если и есть, то только лишь в воображении всяких умников. Гугла не интересует уникальный контент, вернее интересует, но этот параметр у него стоит на третьем месте. На первом – ссылочное ранжирование, то есть количество ссылок на сайт с других хороших (в его понимании) веб-ресурсов. На втором месте стоит полезность сайта для посетителей, которая, конечно же, находится в зависимости от уникальности контента, но не так сильно, как кажется. Часто наряду с заимствованным с чужих сайтов контентом (и порядком надоевшим посетителю своим повторением), имеется контент совершенно другого рода – графика, видео, полезные ссылки и прочее. Гугл хорошо отслеживает время нахождения посетителей на любом сайте, и если он видит, что посетитель на какой-то странице находится довольно продолжительное время, то пресловутая «неуникальность контента» отходит на задний план. В этом смысле поисковая система предоставляет возможность посетителю самому решать, полезный сайт перед ним, или нет. И никакие «Duplicate Content» не заставят хороший с точки зрения серфера ресурс отправить куда-то на задворки выдачи.
 
2). Фильтр под названием «Google Bombing». Самая нелепая фантазия из всех, что придумала международная СЕО-молва. Считается, что фильтр покрывает все сайты, на которые ведёт множество ссылок с множества других сайтов с одним и тем же анкором (анкор – это текстовое описание ссылки, может состоять и из одного слова, и из целой фразы любой длины, в пределах допустимого, конечно). Может когда-то в давние времена такой фильтр и существовал, но с расширением веб-конкуренции он полностью утратил свой смысл, и даже несёт вред многим хорошим сайтам, чего Гугл допустить никак не может. Дело в том, что с помощью такого фильтра очень легко убирать всех конкурентов, просто проставив на их сайты нужное количество ссылок с одинаковыми анкорами. Проблем тут нет никаких, особенно с ростом веб-технологий, «порадовавших» мир появлением массы дешёвых и простых программ, с помощью которых подобные ссылки могут проставляться всякими «доброжелателями» миллионами в сутки. То же самое касается и таких фильтров как «Google Bowling», «CO-citation Linking» и «Слишком много ссылок за раз». Всё это уже давно неактуально, Гуглу достаточно не учитывать такие ссылки или большую их часть, и тогда ни одному вебмастеру в голову не придёт тратить свои драгоценные усилия на подобную неэффективную деятельность.
 
3). Фильтр «Слишком быстрое появление множества страниц за один раз». Считается, что если поисковые роботы Гугла вдруг обнаружат на своём пути новый сайт с множеством страниц (500, 1000 или более), то это заставит их отнестись к такому сайту с огромным подозрением и «от греха подальше» засунуть его на задворки до «выяснения всех обстоятельств дела». Теоретически в этом есть смысл – какой нормальный вебмастер будет выкладывать в интернет такой огромный сайт? Любой сайт обычно «лепится» постепенно, начинается он с малого, а уже в процессе «эволюции» к нему добавляются всё новые и новые страницы и разделы. Но у всех поисковых систем без исключения имеется одна рекомендация к вебмастерам, гласящая, чтобы они не выкладывали в Сеть недоделанных сайтов, но не в том смысле, что там могут не работать какие-то ссылки, неправильная навигация или отсутствие на страницах контента. Речь неоднозначно идёт о полностью готовых сайтах, не требующих дальнейшего наращивания страниц. Ну, пожалуй, вряд ли сейчас найдёшь в интернете сайт, который бы не добавлял к себе со временем всё новые и новые страницы, так что вроде бы рекомендации эти устаревшие. Но сегодняшние поисковые системы не настолько маломощны, чтобы не определить, хороший сайт это, или плохой, полезный или нет. Если сайт хороший, посещаемый и посетителям интересный (что средствами поисковой системы фиксируется достаточно чётко), то никакой разницы не имеет – большой он, или нет. Практика показывает, что даже очень большие сайты (свыше 1000 страниц), выложенные одномоментно в интернет, начинают индексироваться без всяких проблем, а дальше уж начинаются только лишь проблемы самого этого сайта. Одни страницы могут попасть в выдачу по нужным запросам, другие – нет, но в целом на сайт не накладывается никакого фильтра. Фильтры могут накладываться только на отдельные страницы, но это уже, как говорится в среде рассказчиков, совсем другая история.