Главная Новости

Фильтры поисковых систем, как их избежать

Опубликовано: 24.08.2018

видео Фильтры поисковых систем, как их избежать

ТОП-5 поведенческих факторов, напрямую влияющих на продвижение сайта. Академия SEO
› Главная › Ликбез › SEO › Фильтры поисковых систем: что это такое, как применяются, как их избежать?

Автор: Евгений Стрельников



21 января 2016 в 16:23 921 4

Наконец-то, работа над сайтом закончена, он полностью готов к запуску. Начинается рутинная, но творческая деятельность по наполнению сайта контентом и доведения его до совершенства. Приходит время задуматься о том, как продвинуть свой сайт среди множества подобных и сделать его заметным для обитателей всемирной паутины. И тут на пути к успеху сайта могут встать фильтры, которые накладывают на сайты поисковые системы и тем самым затрудняют его раскрутку.


Современный «фильтр» АГС от Яндекса: за что сайты попадают под АГС?

Речь, как вы понимаете, идет о поисковой оптимизации сайта (SEO), с помощью которой добиваются того, что с поисковых систем Google и Яндекс на сайт начинают заходить пользователи, которые ищут ту информацию, которая есть на вашем сайте. Таких пользователей может быть много, и они могут составить внушительную ежедневную аудиторию.


💎 ТУРБО СТРАНИЦЫ ЯНДЕКСА И ADSENCE AUTO ОТ GOOGLE - ВЕЧЕРНИЙ ПУЗАТ

А сайт, на котором постоянно крутится много посетителей - это уже прибыльное предприятие, к чему и стремится подавляющее число владельцев сайтов.

О принципах SEO сейчас говорить не будем, а предлагаю обсудить другой вопрос, о котором должен задуматься любой владелец информационного сайта. Речь пойдет о фильтрах Гугла и Яндекса.

Зачем Яндексу и Google нужны фильтры?

На заре существования поисковых систем никаких фильтров не было и вебмастера очень быстро сообразили, как можно обманывать поисковые системы с тем, чтобы продвинуть свой сайт в ТОП поисковой выдачи.

Владельцы сайтов перестали думать о качестве своих ресурсов, о своих посетителях и тупо делали то, что требуется для поискового продвижения. Несложно догадаться, во что превратилась поисковая выдача. Это был список уродливых сайтов, которые не давали пользователю ничего. Зачастую там даже текст был не читаем.

Разумеется, с таким положением дел поисковые системы мириться не хотели и начали серьезную работу над совершенствованием алгоритмов поиска и выбора наиболее качественных сайтов. Плохие, по мнению поисковиков, сайты стали помещаться в специализированные списки и принудительно не допускаются в выдачу или понижаются в ней на несколько десятков или сотен позиций. Когда такое происходит с сайтом, тогда и говорят, что на сайт наложен фильтр поисковой системы.

Некоторые фильтры, кстати, совсем выкидывают сайт из поисковой выдачи. И делается это все для борьбы с некачественными сайтами, которые создаются не для пользователей, а специально под поисковые системы, ради заработка.

На сегодняшний день и у Яндекса, и у Google есть масса различных фильтров. Возможно, что мы как-нибудь потом рассмотрим хотя бы некоторые из них. Если уж очень вам это интересно прямо сейчас, то в интернете об этом много написано.

Лично мое мнение, что изучать эти фильтры, смысла нет никакого. Они постоянно меняются, старые модифицируются, новые работают совсем по иным принципам. А уж кто, что о них напишет, может отличаться кардинальным образом, поскольку досконально об этих фильтрах и их работе знают только разработчики, а та информация, которой владеют оптимизаторы, получена опытным путем или на основе скудных сообщений от официальных лиц, представляющих поисковые системы.

В общем, все знания о фильтрах, по большому счету, являются лишь предположениями, поэтому никто и никогда не сможет со 100% достоверностью объяснить, почему на тот или иной сайт наложен какой-то конкретный фильтр. Даже о том, что это за фильтр не всегда удается узнать.

Но эти фильтры могут помешать добиться цели и оставить сайт без внимания пользователей. Для эффективной борьбы с проблемой в ней нужно хорошенько разобраться. Итак, давайте по порядку.

Принципы работы поисковых фильтров

Разделять фильтры разных поисковых систем не будем. Они примерно одинаковые, хотя и используют разные алгоритмы. Для нас это на самом деле совершенно неважно.

Главное, что нужно понимать так это то, что, во-первых, некоторых фильтров избежать не удастся, а во-вторых, почти все фильтры являются автоматическими, то есть накладываются на сайт программой, на основании расчета определенных параметров и точно так же через некоторое время автоматически снимаются, если устранена причина, по которой фильтр был наложен.

Таких фильтров особо бояться не стоит. Бояться стоит санкций, накладываемых на сайт вручную, и обычно это происходит за систематическое и грубое нарушение правил, установленных для сайтов поисковыми системами. В результате наложения таких санкций сайт полностью пропадает из поисковой выдачи, и восстановить его почти невозможно.

Каких фильтров избежать не удастся?

Фильтр с детским названием «песочница». Увы, но его не избежать. Под удар попадают все сайты, которые младше полугода со дня создания. Молодые сайты как бы придерживаются и не пускаются в поисковую выдачу по наиболее популярным поисковым запросам. Редкие запросы проходят, но это не дает существенного трафика. Чтобы как можно быстрее избавиться от фильтра, нужно регулярно публиковать материалы, добиваться ссылок из социальных сетей и с других сайтов.

Некоторые фильтры могут накладывать из-за действий конкурентов, о которых владелец сайта может ничего и не знать до поры до времени. Правда такая опасность опять же существует только для молодых и не развивающихся сайтов, не имеющих существенного "веса" в поисковых системах. В иных случаях для конкурента это становится очень дорогостоящей задачей с непредсказуемым результатом и чтобы пойти на это, нужна, ну очень веская причина.

Чтобы кто-то вкладывал деньги для того чтобы навредить какому-то блогу - это, наверное, ситуация вряд ли возможная, разве что у владельца сайта есть личные недоброжелатели, которые любым способом хотят ему навредить.

За что на сайт могут быть наложены фильтры поисковых систем?

Вот мы и подошли к самому интересному. Очевидно, что если в работе над сайтом не допускать нарушений правил поисковых систем, то никакие фильтры не страшны.

А что хотят поисковые системы? Они хотят, конечно, невозможного, но все же... хотелось бы им, чтобы в поисковой выдаче присутствовали только качественные ресурсы. Качественные с точки зрения поисковых систем, разумеется.

Качественный сайт должен удовлетворять всего нескольким требованиям. Сайт должен:

работать без ошибок (быть технически грамотно сделанным) быть удобным в использовании (иметь простой и понятный интерфейс) контент должен представлять реальный интерес для пользователей владелец сайта НЕ должен использовать запрещенных приемов для продвижения

Вот, собственно, и все.

А дальше становится все очень просто и понятно. Каждый фильтр направлен на то, чтобы определить, удовлетворяет ли сайт этим требованиям. Для этого отыскиваются определенные параметры, которые можно отследить программно, эти параметры (коих могут быть сотни) собираются для каждого сайта в базу и на основе анализа этих данных принимается решение о наложении или снятии фильтра.

Например, по первому пункту... запросто можно проверить, насколько часто сайт бывает недоступен, как часто возникают различные ошибки на нем, сколько на сайте неработающих ссылок и так далее. Если таких ошибок много, то сайт может попасть под какой-нибудь фильтр.

По второму пункту можно привести такой пример... гугл недавно объявил, что если сайт не оптимизирован под мобильные устройства, то он будет понижаться в выдаче для таких устройств. Комментарии, полагаю, излишни.

Что касается контента, то тут тоже все понятно. Если сайт содержит очень много контента, позаимствованного с других сайтов, то зачем такой сайт нужен? Контент должен быть уникальным. Поговаривают, что Яндекс даже на грамотность тексты проверяет и если в текстах очень много ошибок, то тоже может налагаться какой-то фильтр. Поручиться за это не могу, но вполне возможно.

Но самое частое, за что налагаются фильтры и при этом более серьезные - это касается различных нарушений в продвижении сайта. Нарушения могут касаться как самого сайта, так и внешних ссылок. На сайте наиболее распространенная ошибка - переспам ключевыми словами, когда желая продвинуть страницу по определенному ключевику, этот ключевик слишком часто используется на этой странице.

Еще серьезный фильтр можно подхватить, если заниматься продажей ссылок со своего сайта. Коммерческий характер ссылок с сайта отслеживается и если оказывается, что их слишком много, то фильтр будет обеспечен.

Наиболее распространенные ошибки в продвижении связаны с набором ссылочной массы. Без ссылок на сайт, продвинуть его почти невозможно, поэтому закупкой ссылок занимаются практически все. И от того, как это делается, во многом и зависит результат.

Самое главное, на что здесь обращают внимание поисковые системы - естественность формирования ссылочной массы. Например, очевидно, что если сайт посещает 5 человек в день, то за неделю никак не может появиться 1000 ссылок с других сайтов.

Так же очевидно, что люди обычно не подбирают ключевики, чтобы сослаться на другой сайт, а дают либо адрес напрямую, либо пишут что-то похожее на: "читайте здесь", "кликай сюда" и т.д. А если среди ссылок на сайт превалируют ссылки, содержащие сплошь и рядом коммерческие ключевики, то чего удивляться фильтру?

Как избежать попадания сайта под фильтр?

Пожалуй, ответ тоже очевиден, как и многое в этой теме. Для этого нужно сделать хороший с технической точки зрения сайт, наполнить его интересным и уникальным контентом. Статьи писать для людей, а не для поисковых систем и не покупать ссылки.

И все бы хорошо, вот только добиться трафика с поисковых систем в этом случае будет крайне затруднительно, потому что если никак не оптимизировать сайт, то вряд ли поисковики сочтут его заслуживающим внимания.

Это, кстати, вовсе не означает, что сайт будет предан забвению. Кроме поисковых систем есть и другие источники трафика. Но поскольку у нас речь о SEO, то мы и говорим о потоке посетителей именно с поисковиков.

Секрет успешной поисковой оптимизации кроется в профессионализме и опыте оптимизатора. Сложность поисковой оптимизации в том, что теория в ней мало что значит, поскольку постоянно меняется. Без личного наработанного опыта мало что получается у сайтовладельцев. Но опыт, как известно, дело наживное. Если есть желание разобраться в SEO, то нужно все же познакомиться с имеющейся теорией и браться за практику.

Хотя, опять же, если говорить о теории, то у всех оптимизаторов она своя. Основы, конечно, общие, а вот подходы зачастую отличаются, и если хочется овладеть предметом, то придется попробовать разные методики и выработать какую-то свою.

А если говорить о последних тенденциях, то чистое SEO уходит как бы на второй план, а на первом - комплексное продвижение. Но обо всем этом уже в следующих публикациях.

Ни фильтра вам, ни бана :)

Статьи по теме:

Комментарии (4)

Валерий

2016-01-22 17:13:43

Здравствуйте Евгений, очень рад что Вы начали новый проект и рассылку, а не спрятались от нас, всегда радовали Ваши статьи направленные на размышления, а не тупую продажу какого-то инфопродукта. Очень интересно Вас читать, написано понятным разговорным языком, что особенно радует. Честно говоря под фильтр яндекса попадал 1 раз причем выдача была, но было написано, что сайт представляет угрозу для посетителей. Конечно быстро исправил. У меня 95% трафика с поисковых систем, поэтому боюсь что-то вообще оптимизировать и наращивать:) так как если что, то поток вообще закончится. Внутренняя оптимизация сделана, а внешнею даже не начинал. Хотелось-бы задать Вам много вопросов, получить какие-то советы, жалко что закрыли БВ. Раньше времени не было в него записаться, сейчас хочу, но поздно видно. Буду общаться с Вами здесь.

Евгений Стрельников

2016-01-22 18:54:25

Ответ для: Валерий

Здравствуйте, Валерий. Рад, что вы меня тут разыскали, спасибо за лестную оценку моего творчества :). Буду и дальше стараться выдавать хороший контент. БВ... да, пришлось закрыть, может когда-нибудь возобновлю, но пока таких планов нет.

Денис

2016-02-05 22:09:52

Спасибо за подробную статью, хотя поисковые фильтры - дело такое, что одной статьей всего не расскажешь. Сам сталкивался с этими вещами и лично для себя вынес только одно - ПС правы. Надо вдохновенно работать и делать качественные, интересные людям сайты, тогда никаких фильтров никто на твой проект не наложит. И никакого черного seo)

Ксения

2016-04-07 01:28:41

Слышала такое высказывание, что продвижение сайта - это как танцы с бубном. Для двух подобных сайтов можно делать совершенно одно и то же, а результат будет разным. Вот и с фильтрами так же - никто не знает по какой причине тот или иной сайт может быть исключен из выдачи.
rss