Фильтры поисковой системы Гугл

Снижение трафика на сайт и ухудшение позиций страниц — это еще не самые тяжелые последствия, к которым может привести наложение фильтров поисковой системой Google. Еще более печальные симптомы — пропадание страниц из индекса и снижение трафика до нуля. К большому сожалению мнение, что фильтры накладываются только на откровенно плохие сайты, наполненные исключительно плагиатом и использующими «черное SEO», ошибочно. Алгоритмы и так подробно не описаны, а еще и постоянно дополняются, поэтому нельзя исключать применение фильтров за неправильное SEO, с точки зрения Google, практически для любого сайта.

В отличие от ситуации с применением фильтров Яндекса, обращения в техподдержку Гугл, обычно заканчиваются пустой отпиской, поэтому знание существующих фильтров будет совсем не лишним. Сначала список фильтров Google, а потом более подробно об их назначении:

  • «Sandbox» — песочница
  • «Supplementary Results» — дополнительные результаты
  • «Domain name Age» — фильтр по возрасту домена
  • «Bombing» — бомбежка
  • «Broken Links» — битые ссылки
  • «Too Many Links at once» — слишком много ссылок сразу
  • «Reciprocal Links Filter» — фильтр за продажу ссылок
  • «PageLoadTime Filter» — фильтр по времени загрузки страницы
  • «Google -30» — понижение на 30 позиций
  • «Dublicate Content» — дублирующий контент
  • «Over optimization» — переоптимизация страницы
  • «Co-Citation Filter» — фильтр за ссылки с «плохих» доноров
  • «EDM» — exact domain match
  • «Панда» — февраль 2011 года
  • «Пингвин» — апрель 2012 года

Sandbox — песочница

Первый фильтр, с которым сталкивается вебмастер – так называемая «песочница». Применяется почти ко всем новым сайтам. В принципе, правильно, что на первых местах отображаются проверенные сайты. Но логика разработчиков этого алгоритма не бесспорна: без получения трафика и прибыли на начальном этапе, большое количество стартапов просто исчезают. В общем, относитесь к этому фильтру философски, он есть и ничего с ним не поделать. Используйте время для наполнения сайта качественным контентом, проводите SEO оптимизацию, аккуратно приобретайте внешние ссылки и получайте трафик с других поисковиков. Тем более, срок в песочнице от месяца до года, что вполне достаточно. Для выхода из под фильтра требуется выполнение условий: постоянное обновление контента, рост посещаемости и постепенное увеличение количества внешних ссылок.

Supplementary Results — дополнительные результаты

Гугл индексирует страницы быстрее, чем Яндекс, но при этом очень придирчив к дублирующемуся контенту. При обнаружении дублей страниц, накладывается этот фильтр и страницы показываются в поисковой выдаче только тогда, когда недостаточно других уникальных релевантных веб-страниц. По сути, дубли показываются только по НЧ запросам с низкой конкуренцией.

Domain name Age — фильтр по возрасту домена

Применяется к недавно зарегистрированным доменам. В отличие от песочницы, не обращает внимание на посещаемость и частоту обновления. Для выхода из-под фильтра требуется только одно — время.

Bombing — бомбежка

Использование большого количества внешних ссылок с прямым вхождением ключевой фразы в анкоре может привести к наложению этого фильтра. В этом случае, несмотря на рост ссылочной массы, позиции страниц будут ухудшаться или оставаться неизменными. При приобретении ссылок, необходимо разбавлять анкор-лист, а также использовать безанкорные ссылки.

Broken Links — битые ссылки

Технические параметры сайта имеют большое значение для Google. Большое количество ссылок на несуществующие страницы говорит и низком качестве сайта и может привести к наложению фильтра Broken Links, после чего позиции страниц в выдаче упадут. Для снятия фильтра требуется проверить и устранить битые ссылки.

Too Many Links at once — слишком много ссылок сразу

При продвижении сайта ссылками необходимо всегда уделять большое внимание естественности и равномерности роста ссылочной массы. При резком увеличении количества внешних ссылок, можно получить этот фильтр Google, действие которого заключается в том, что ссылки просто перестают учитываться.

Reciprocal Links Filter — фильтр за продажу ссылок

Большое количество исходящих ссылок, особенно не тематических, на одной странице может также привести к наложению фильтра Гугл «Reciprocal Links Filter». Необходимо учитывать, что ссылки, в первую очередь, должны помогать посетителю получать как можно больше полезной информации по его запросу. При хаотичном наполнении страниц ссылками, ведущими на не касающиеся основной темы страницы, удобство пользования сайтом резко уменьшается. Google это понимает и пессимизирует такие страницы.

PageLoadTime Filter — фильтр по времени загрузки страницы

Если при проверке роботами Google, страницы сайта очень долго загружаются, то позиции в выдаче падают. Как уже говорилось, Google старается часто проверять наличие новой информации на сайте, но очень плохо относится, если времени для проверки требуется очень много. Какого-то единого решения проблемы не существует, стоит проверить все: от качества хостинга, до работы плагинов.

Google -30 — понижение на 30 позиций

Дорвеи, клоакинг, редиректы — все это очень «черные» методы продвижения сайта. Обманываются не только поисковые системы, но и часто посетители, поэтому абсолютно логично применение фильтра к таким сайтам, который приводит к понижению рейтинга страниц примерно на 30 позиций. И поделом.

Dublicate Content — дублирующий контент

Название фильтра полностью описывает причину наложение фильтра, который пессимизирует страницы с неуникальным контентом. Если к тому же на страницы нет внешних ссылок, они будут только в supplemetary results, то есть не будут показываться по большинству поисковых запросов. Что делать понятно — размещать только уникальные естественные тексты. При размещении собственных текстов необходимо озадачиться их защитой на случай, если ваша статья будет размещена на другом, более раскрученном ресурсе и проиндексирована Google раньше, чем на вашем сайте.

Over optimization — переоптимизация страницы

Если ключевая фраза, по которой проводится SEO продвижение, используется чрезмерно часто в тексте, то статья пишется явно не для людей, а для поисковых систем. ЗА такое продвижение можно получить фильтр Гугл «over optimization» и сильно потерять в позициях в поисковой выдаче. Пр написании текстов достаточно наличие ключевой фразы 5-7% от общего объема статьи.

Co-Citation Filter — фильтр за ссылки с «плохих» доноров

Один из фильтров Google, который учитывает не только количество, но и качество внешних ссылок. Существуют разные мнения по поводу причин наложения этого фильтра, но про две известно точно. Если «донор», кроме ссылки на ваш сайт, также ссылается на ресурсы с сомнительной репутацией в Google, например порноресурс, то такая ссылка на ваш сайт будет считаться некачественной. Другой вариант, когда на доноре в принципе обнаружено большое количество ссылок на ресурсы совершенно разной тематики. В обоих случаях, донору безразлично, на какой сайт поставить ссылку, поэтому Google не видит ценности в таких ссылках. Результат работы фильтра проявляется в снижении позиций страниц.

Exact domain match (EDM)

Это фильтр накладывается на сайты, где большое количество слов входит в название домена. Естественно, что чаще всего эти слова формируют ключевые фразы, поэтому иногда название домена состоит из нескольких слов.

Панда

Новый алгоритм ранжирования стал первым серьезным ужесточением отбора для попадания сайтов в ТОП выдачи Google. По нему анализируется контент с точки зрения доверия к конкретным статьям и к сайту целиком. Учитываются уникальность текстов, грамотность, качество подачи информации, ее достоверность. Впервые введена оценка поведенческих факторов. Если время задержки посетителя на сайте ничтожно мало, значит содержимое не представляет интереса. Ваша задача разместить такой контент, чтобы пользователь задержался. Обязательно сделайте сайт интерактивным (комментарии, обсуждения), выведите кнопки социальных сетей. Такой комплексный анализ позволяет отсеять качественные и полезные людям материалы и, соответственно, сайты, на которых таких материалов большое количество, получают высокие позиции в выдаче.

Большинство критериев, по которым работает «Панда», остается тайной, но если у вас упал трафик, а большинство страниц вообще не индексируется – это работа «Панды». Причем даже уникальные страницы с низкочастотными запросами могут оказаться под санкциями. Проверка показывает, что под фильтром «Панда» новые страницы также не индексируются.

Реклама является также частью контента сайта, который виден посетителю. Следовательно, алгоритм «Панда» оценивает и её. Для молодых сайтов присутствие рекламных баннеров, особенно не тематических, не рекомендуется. А в дальнейшем необходимо придерживаться принципа, что реклама должна быть рекламой, а не основным контентом страниц.

Основное средство избавления от действий фильтра – оптимизация контента сайта. И еще необходимо регулярно добавлять на сайт новое содержимое. Обязательно закрывайте от индексации все служебные страницы (например, каталоги в wordpress или joomla). Чтобы исключить дублирование страниц правильно сформируйте файл robots.

Пингвин

Следующая преграда на пути продвижения сайта в ТОП – фильтр Google «Пингвин». Если «Панда» по большей части анализирует внутреннюю составляющую, то «Пингвин» проверяет внешние факторы сайта. В течение долгого времени платные ссылки с других ресурсов были чуть ли не единственным способом продвижении. Соответственно, у кого больше бюджет – тот и в ТОП, вне зависимости от содержания сайта. «Пингвин» призван исправить сложившуюся ситуацию и разбавить выдачу, так как анализируется не только количество внешних ссылок, но и их качество.

Фильтр применяется к сайтам, внешние ссылки на который, во-первых, идут с сайтов низкого качества и совершенно другой тематики, во-вторых, подавляющее число анкоров содержит прямое вхождение ключевых фраз. Естественный прирост ссылок не может быть в таком виде, значит используются нечестные методы приобретения ссылок. За резкое увеличение количества внешних ссылок также следует наказание «Пингвином».

Действие фильтра выражается или в существенном снижении позиций страниц, или в пропадании из выдачи. Для снятия фильтра требуется использовать ссылки с непрямыми вхождениями ключевых фраз и вообще безанкорными. Удалить все ссылки с некачественных сайтов. Работа не требует больших средств, но без определенного опыта по анализу сайтов здесь не обойтись.

Ручные фильтры

И еще немаловажный этап – ручные фильтры. Несмотря на то, что сайтов миллиарды, внимание привлекут именно успешные сайты (особенно при подозрительно резком взлете). Причины введения все те же: если сайт не удовлетворяет требованию человекоориентированности, а создан только для зарабатывания, то фильтр его в ТОП не пропустит. Необходимо отдельно сказать, что ручные фильтры снимаются легче, так как всегда возможен диалог с лицом, наложившим его.

Заключение

Большинство известных фильтров Google были описаны в этой статье. Уникальный контент хорошего качества, постоянно обновляемый на сайте, и постепенное приобретение ссылок с сайтов с высоким рейтингом в Google, позволят не только избежать всех фильтров существующих, но и не бояться введения новых или обновления старых фильтров и алгоритмов в Google.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *