instargramm.ru

Текстовый фильтр яндекса. «Переспам» и «Переоптимизация» — текстовые фильтры «Яндекса

Привет, друзья! До недавнего времени seo-специалисты и вебмастера при продвижении сайтов старались максимально оптимизировать внутренние факторы ранжирования. В итоге в поисковой выдаче мы получили множество ресурсов с максимальной и критичной оптимизацией.

Во-первых, в таких проектах стало сложнее ориентироваться пользователям - заточенность под поисковые системы не позволяла быстро находить нужную информацию. Во-вторых, накрутка внутренних факторов начала искажать результаты поиска, вытесняя более достойные сайты.

Современные поисковые алгоритмы (в частности Яндекса) с относительно недавнего времени ввели санкции за агрессивную оптимизацию, так называемый, фильтр за переоптимизацию сайта. Я не понаслышке знаком с ним: на клиентских проектах зачастую имеются те или иные переоптимизированные элементы. Данная санкция на несколько месяцев затронула и один из моих ресурсов.

Теперь все те элементы, которые способствовали росту позиций 5-7 лет назад, сейчас могут, наоборот, глубоко понизить сайт. SEO не стоит на месте, поэтому необходимо подстраиваться под современные реалии продвижения.

Некоторые моменты в переоптимизации лежат на поверхности, о некоторых вы могли даже не задумываться. Ниже я опишу все попадавшиеся мне элементы, которые могут привести к фильтру. По отдельности они могут быть безобидны, но объединившись между собой, существенно повышают переоптимизированность сайта и риск попадания под seo-санкции.

А в фильтре мало чего приятного . Вот, что случилось с трафиком с Яндекса у одного из моих ресурсов (график по месяцам).

Благо получилось восстановить бОльшую часть посещаемости за достаточно короткий период. Получать эту санкцию больше желания нет. Если у вас тоже, то придерживайтесь советов и рекомендаций, которые я опубликую в посте. Практически все они хорошо знакомы, но зачастую мало, кто ими пользуется: некоторые - из-за незнания, некоторые в силу нежелания что-то менять. А менять, как правило, нужно много . Итак, поехали.

Один из самых важных факторов при подсчете поисковой релевантности. В силу этого в тег стараются:

  1. Вписать как можно больше ключевых слов.
  2. Не изменять ключи, а оставлять их так, как запрашивают пользователи.
  3. Вставить какие-нибудь специальные символы (например, вертикальную черту "|").

Идеальный тег title - это 1-2 лаконичные и законченные фразы/предложения (желательно до 60-70 символов), которые включают в себя несколько ключевых слов, написанных человеческим языком.

Такой title крайне неудачный. Здесь и лишний пробел (+ его отсутствие), и город без падежа, и "отзывы" в спамной конструкции.

Его лучше переделать - "Центры диетологии в Москве, отзывы пациентов". Так-то лучше .

2. Создание дублирующих по логике страниц

Здесь я выделяю 2 пункта:

1) Логическое дублирование страниц по запросам-синонимам - раскрутка/продвижение. Один документ оптимизируют под продвижение, а другой - под раскрутку. Если одиночные дубли ничего плохого, скорее всего, не натворят, то многочисленные логические повторения могут отразиться негативно.

2) Размножение по географической принадлежности. Например, компания, занимающаяся сервисом бытовой электроники, хочет расширить семантическое ядро и, соответственно, масштабы сайта. Ресурс из нескольких десятков страниц превращается чуть ли не в портал со следующими документами: "Ремонт компьютеров метро Теплый стан", "Ремонт холодильников станция Маяковская" (вместо станции метро можно поставить любой город, край, область и так далее). Обычно такие страницы содержат ничем не примечательный контент.

Если клиенты практикуют подобные конструкции (2-пункт), то им я предлагаю оформлять все это в виде портфолио и кейсов (Мы получили вызов на объект около станции метро такой-то. Там был поломан кондиционер такой-то, марки такой-то. Вот как мы его починили. Хотите, починим и ваш). В итоге получаем не спамное размножение страниц, а вполне полезный контент с употреблением нужных ключевых слов.

Да, подобные документы могут привлечь на проект дополнительный трафик, но чтобы его привлечение не сыграло злую шутку для остального ресурса, необходимо на подобных страницах публиковать интересный и полезный контент. Пойти по пути смекалки и выдумки, нежели спама и размножения.

3. Переспам в сквозных элементах

В основном сюда относятся:

1) Слоганы и текстовые логотипы в шапке, которые содержат в себе ключевое слово, повторяющееся на каждой странице. Вроде бы безобидная надпись, а свою лепту в общую переоптимизацию внести сможет.

2) Употребление поисковых запросов или содержащих их внутренних ссылок в подвале ресурса. По моим наблюдениям именно этот пункт мог стать главной причиной наложения фильтра в моем случае. Я понял, что содержание страниц сайта по логике подходит и другой тематике. Решил попробовать, отразится ли на посещаемости употребления главного ключа соседней ниши в футере. Как видите, отразилось . Яндекс мог подумать, что я захотел покрыть другую тематику одной строчкой в подвале. Не тут-то было.

3) Меню и каталоги товаров. Вернусь к сервису бытовой техники. Каталог можно оформить в виде:

Выполняем ремонт:

Холодильников
- Кондиционеров
- Компьютеров
- и так далее.

Некоторые меню возле каждого вида техники содержат слово "ремонт". Несложно догадаться, что это плохо скажется на сайте. Похожий случай.

Итак, если слоган или текстовый логотип содержит ключевое слово, то лучше лого оформить изображением, а слоган перефразировать. Футер не должен содержать перечисление ключей и внутренних ссылок. Меню и каталоги товаров организовывать без повторения одной и той же фразы.

4. Имя файла изображения. Теги alt и title

Давным-давно к этому посту я бы скачал какое-нибудь красивое изображение (не обязательно по теме). Затем поменял бы имя файла на "pereoptimizaciya-sajta.jpg" и добавил к нему теги alt и title с содержанием "переоптимизация сайта". Теперь так делать нельзя. Изображение должно:

  • В быть уникальным.
  • Тематичным.
  • Не иметь названия файла, а также тегов alt и title, которые содержат продвигаемые ключевые слова (хотя части можно). Если, например, альт полностью дублирует основной title страницы или главный запрос ("оптимизация сайта под поисковые системы"), то это плохо. Если же содержит только часть ("поисковые системы", "оптимизация сайта"), то ничего страшного.

На первый взгляд, изображения не такой и важный фактор, но пренебрегать им не стоит. Мне встречалось несколько случаев, когда переспам в тегах картинок был дополнительным фактором переоптимизации или наложения фильтра.

5. Переспам выделением жирным (strong, b)

Несмотря на то, что теги strong и b различаются по своим свойствам (первый логический, а второй графический), злоупотреблять, а тем более выделять ими ключевые слова крайне не рекомендуется.

Можно сказать, что это классика в переоптимизации страниц. Тем, кто создавал контент, основываясь на трендах оптимизации 2007-2011 годов, сейчас приходится убирать выделение жирным. Выделять можно только то, на что вы хотите обратить внимание посетителя. Выделений не должно быть много.

6. Оформление контента без структуры

Современный контент не состоит только из текста, не разделенного на абзацы. Он может содержать:

  • изображения;
  • видео;
  • отзывы;
  • экспертные мнения;
  • таблицы;
  • маркированные и нумерованные списки;
  • презентации;
  • комментарии;
  • цены;
  • калькуляторы;
  • и так далее.

Неструктурированный контент имеет больше шансов попасть под фильтр, нежели тот, который имеет множество элементов и этого списка.

7. Внутренние ссылки

Некоторые оптимизаторы хотят, чтобы их "подопытный" сайт походил на Википедию с ее огромным количеством внутренних ссылок. Признаюсь, что ранее я тоже этим "грешил" . Сравнивать ваш ресурс и главную веб-энциклопедию интернета неправильно ("якобы, вон, википедИи можно, значит можно и мне") - не те весовые категории. Иначе говоря, wikipedia.org - 7-й сайт в интернете, а к вашему не будет столько доверия.

Количество внутренних ссылок должно быть таким, чтобы лаконично вписываться в объем материала. В большом количестве "внутряков" тяжело ориентироваться посетителю, а поисковые алгоритмы могут посчитать такое злоупотребление желанием искусственно повлиять на ранжирование. Главный критерий - уместность и полезность. Вставляйте такие линки, чтобы у пользователя появилось желание кликнуть на них, чтобы они глубже раскрывали основную тему или знакомили с ее ответвлениями.

1 ссылка на 1000-2000 символов - этого будет достаточно. Здесь я имею в виду информационные документы и не касаюсь индивидуальных особенностей ресурсов. Также не стоит забывать, что должны быть разнообразными, неспамными, а сами линки отправлять посетителей на различные материалы.

8. Переспам текста ключевыми словами

Зачастую даже контент, который создавался без каких-либо ориентиров на поисковые запросы, стоит проверять на переспам. Как правило, текст может быть перенасыщен словами из title, h1 (если, конечно, вы оптимизировали данные теги), а также индивидуальными фразами и выражениями, которые присущи либо авторам, либо тематикам.

Здесь получается 9 предложений и 9 раз употребляется слово "отруби". Это главный запрос материала, поэтому переоптимизация налицо.

Чтобы определить переспам ключами я обычно открываю страницу в браузере, вывожу поиск по ней (ctrl+F) и ввожу первые буквы слов из title. Они наглядно выделяются. Сразу становится понятно, что к чему.

Все любят какие-то точные цифры, поэтому предложу вам свою идеальную формулу: 1 ключ = 1 абзац. Сколько абзацев в материале, столько раз можно употребить какое-нибудь слово. Но это, конечно, не панацея, а примерный ориентир. Все очень индивидуально.

Чтобы не плодить пункты, в этот также включу употребление в тексте продвигаемых ключей в неестественной морфологии (пункт 2 первого подзаголовка) чисто для поисковых систем. Чтобы уменьшить переспам, слова можно заменять на синонимы, местоимения и перефразировать предложения. Употреблять их необходимо в человеческой форме и в корректном склонении.

9. Контент без смысловой нагрузки

Если вы заинтересовались темой переоптимизации сайта, то, скорее всего, вам это было нужно. Возможно, какой-то из ваших веб-ресурсов получил фильтр за излишнюю оптимизацию, и теперь вы ищите подобную информацию. Может быть, вы просто первый раз увидели незнакомое слово "переоптимизированность" и решили посмотреть, что оно означает.

Вот примерно такой текст можно считать контентом без смысловой нагрузки или seo-водой. Если бы он не содержал ключевые слова, то это была бы половина беды (просто бесполезные строки). Бессмысленный контент же имеет вхождения поисковых запросов, поэтому может стать звоночком или дополнительным фактором для наложения фильтра.

10. Многочисленные теги для одного элемента

Как вам подзаголовок? А хотите посмотреть его код?





10. Многочисленные теги для одного элемента



Вы можете подумать, что это вымысел, но будете ошибаться. Некоторые продвиженцы доходят до фанатизма: подзаголовки (и/или другие элементы), которые к тому же состоят или включают в себя ключевые слова, обрамляют всевозможными тегами (еще ссылки не хватает ). Некоторые могут делать это не специально, желая просто красиво выделить подзаголовок.

Подзаголовки и поисковые запросы в тексте таким образом выделять не стоит. Всю красоту (выделение жирным, зеленый цвет, наклон) выводить в style.css, а логические теги типа strong - удалять.

11. Description и keywords

Еще со школьной скамьи с основ поисковой оптимизации всем известны эти мета-теги. Принято считать, что . На страницах хелпа Яндекса есть следующая запись:

- может учитываться при определении соответствия страницы поисковым запросам;

Польза description заключается в возможности показа содержания тега в сниппете поисковой выдачи как Яндекса (реже), так и Google (чаще). Keywords возможно, вероятно, может быть учитывается только отечественным поисковиком. Другими словами, их влияния сейчас практически нет.

Несмотря на все выше перечисленное, есть мнение, что спамные конструкции в этих тегах также могут стать одним из элементов переоптимизации на сайте. Признаюсь, я заполняю и description, и keywords .

Не то, чтобы я уделяю данным тегам большое внимание. Это либо просто привычка, либо желание максимально представить опубликованную страницу.

На мой взгляд, есть вероятность того, что если переоптимизировать description и/или keywords, то это может незначительно, но сказаться на общей переоптимизации страницы/сайта. Если и заполняете данные теги, то делайте это качественно:

  • description - описание документа (оптимально 160-170 символов), с вхождением основного ключа (можно несколько, но гармонично). Не содержит простое перечисление запросов. Желательно не кусок из готового контента, а уникальный текст.
  • keywords - перечисление 2-4 разных ключевых слов, характеризующих продвигаемую страницу ("переоптимизация сайта, фильтр за переоптимизированность, ошибки оптимизации"). Не стоит вписывать сюда несколько фраз, которые отличаются только одним словом.

12. Подзаголовки

Подзаголовки тоже являются популярным элементом, которым злоупотребляют при оптимизации. Сюда стараются добавить ключевые слова зачастую небрежным образом. Недавно попадались такие подзаголовки, в которых повторялся один и тот же ключ:

  1. Куда поехать на Крит
  2. ||-||-|| с ребенком
  3. ||-||-|| на машине
  4. ||-||-|| в первый раз
  5. ||-||-|| молодежи

Явный переспам (причем первый дублирует h1). При составлении подзаголовков необходимо соблюдать следующие правила:

13. Совпадение title, h1, URL и хлебных крошек

Я не случайно объединил все эти пункты в один. Например, в моем любимом wordpress, если на сайте установлены хлебные крошки и плагин автоматического транслита URL, то вы и глазом не моргнете, как везде пропишется название поста. А если оно состоит из одного только запроса, то "пиши пропало" . Получается, что ключевое слово появляется сразу во многих важных элементах, которые влияют на ранжирование документа. Это мощный звонок для поискового алгоритма. Но несложно это предотвратить. Достаточно, чтобы с тегом Title не совпадал:

  1. URL . Сейчас он также является одним из факторов релевантности, но, на мой взгляд, утратил былую силу. Сюда не обязательно добавлять все ключевые слова страницы. Хватит и короткой характеризующей документ фразы, например, "pereoptimizaciya-sajta".
  2. Заголовок h1 . Помимо того, что разное содержание этих тегов может иметь вхождения разных запросов (что несомненно плюс), данный факт уменьшает переоптимизированность страницы. h1 может быть как лаконичным и коротким (например, для интернет-магазинов "Телевизоры Samsung"), так и развернутым и привлекательным (например, как заголовок к этому посту).
  3. Хлебные крошки . Сам по себе данный элемент безвреден, но в комплексе с остальными может увеличить риск наложения фильтра. В последнее время вместо употребления дублирующего заголовка (названия поста) я использую фразу "Вы здесь", "Вы тут", "Ваше место" и так далее. Главная задача хлебных крошек - ориентация посетителя. Данная конструкция прекрасно выполняет эту роль.

В общем, не пытайтесь вставить ключевые слова везде, где это возможно. Создавайте интересный и структурированный контент, который легко читать. Процент ключей на странице - пережиток прошлого. Соблюдая правила, описанные в посте, сможете быть уверенными, что ваш сайт надежно защищен от фильтра за переоптимизацию.

Если вы знаете дополнительные элементы, которые влияют на наложение санкции, то поделитесь ими в комментариях. Жду ваши мысли, вопросы и отзывы !

Обязательно еще почитайте мой свежий опрос 12-ти известных SEO-специалистов .

Один очень интересный сервис подсказали мне на днях — он проверяет «Новый» текстовый фильтр Яндекса, который по мнению известного SEO-специалиста, давно уже накладывается на отдельные страницы. Дмитрий предполагает, что этот вид санкции появился летом 2014 года и накладывается на сайты, продвигаемые в Яндексе как в Москве, так и в других регионах.

Часто, анализируя сайты, я по-прежнему вижу жуткий переспам ключевыми словами, много выделений жирным, переспам Title, скученное употребление ключевых слов (по 3-5 штук в одном абзаце) и т.д. Причем, что интересно, некоторые проекты (все реже и реже) стоят довольно высоко в топе. Но тут часто имеют место довольно сильные хостовые или ссылочные факторы, которые пока держат такие страницы. И это не надолго, учитывая новые и новые фильтры от поисковых систем. А многие переспамленные страницы улетели на много позиций, начиная с прошлого лета.

Сейчас реально наступила и входит в расцвет эра фильтров поисковых систем. Еще вроде бы не так давно их было всего-то 3-4, а теперь чуть ли не десятки. За ссылки, рекламу, поведенческие, тексты, качество сайта и многое другое. Ручные, автоматизированные. Постфильтры, предфильтры. Одновременно в Гугле и Яндексе или у каждого свое. Можно снять или лучше не пытаться. Снятие занимает от нескольких апов до полугода-года и больше. Очень разнообразные.

К примеру, вроде бы еще недавно я объясняла, что моя ТОП База создается для качественного полуавтоматического размещения — медленного, постепенного, разнообразного, в разных видах сайтов и поэтому безопасного. Потому что за резкий и мусорный прирост ссылочной массы накладываются санкции. И далеко не все верили, что все обстоит действительно так. Сейчас это, в принципе, уже всем известно. Как и наличие других многочисленных видов фильтров и бана.

Пора уже начинать как можно лучше в них разбираться. В первую очередь для профилактики. Раньше я могла похвастаться, что ни один из моих проектов не был ни под одним видом санкций. Потом у меня появился «аффилиат» и вот теперь, судя по всему, есть кое-где и «новый» текстовый Яндекса. Но зато нет и не было более серьезных типа Пингвина или за ссылочный взрыв.


Лучшее обучение контекстной рекламе. Научиться моментальному привлечению посетителей из контекста в Яндексе и Гугле + Повышению конверсии и продаж + Аналитике (!) Онлайн практикум Ильи Исерсона «Весь контекст за 4 месяца» со СКИДКОЙ 7.000 рублей. Старт - 22 мая

Результат через 16 недель: ваши готовые эффективные рекламные кампании в Яндекс.Директ и Google Adwords, настроенные своими руками, привлекающие много целевых посетителей и клиентов.

Помогут больше узнать о фильтрах поисковых систем блог «Оптимизаторши» Елены Камской (о ней и ее проектах в отдельном посте) и материалы Дмитрия Севальнева.

В частности вот эти две статьи:

Потестируйте его, он работает очень быстро и просто, без регистрации и оплаты. Вбивайте URL домена в формате domen.ru и запрос, по которому у вас проект просел или не может подняться достаточно высоко в Яндексе.

Про сам сервис в коротком описании на этой странице все написано. Я связалась с автором и уточнила еще несколько моментов.

Собственно, все сводится к тому, чтобы:

используя расширенный поиск Яндекса и его операторы, создать запрос в нужном формате и сравнить по нужному ключевому запросу позицию своего проекта и сайтов на 1-15 позиций выше. Если наблюдается различие в ранжировании документов в общей выдаче и искусственно созданной нами (суженной до нескольких сайтов) — то, значит, имеет место влияние «Нового» текстового фильтра Яндекса.

При этом проверять стоит запросы, которые находятся в Яндексе за 20-й позицией и дальше. И те, которые точно не под другими фильтрами.

И, конечно, стоит понимать разницу между совсем неоптимизированными и не продвинутыми под конкретный запрос страницами и страницами, с которыми вроде бы, на ваш взгляд, все хорошо в плане текстов и оптимизации под этот запрос, но была просадка по позициям в Яндексе или не может подняться выше ТОП 15-20.

Смотрим тот фильтр, который adv. Второй вариант — old (старая версия расчета) оставлен автором просто так.

«Суть методики, кратко: если ваш проект по запросу вида «запрос (site:vashsite.ru | site:konkurent.ru)» находится выше сайта конкурента, при том, что по обычному запросу находится ниже (или вообще за топ100), то вероятно на ваш сайт (вернее, на страницу) наложен фильтр. Если снять фильтр, то ваш проект и по обычному запросу будет выше сайта конкурента.

«Вероятная позиция» — это позиция сайта, если бы не было наложено этого фильтра. Точность этого параметра достаточно условна , и на отличия +-1 внимания обращать вообще не стоит. Но, как говорят буддисты — это лучше, чем ничего.

По поводу точности. Статистических данных нет. Мои личные проверки показывают, что наличие фильтра показывает достоверно. «Вероятная позиция» — под вопросом.

Если реальная позиция сайта отличается от «вероятной» на 1-2, то значит фильтра нет. Если проект в топ 10 — фильтра нет.

Имеет смысл проверять фильтр по тем запросам, которые находятся за 20 местом и ниже.

Платным делать его не планирую. Мне лень)»

Я попроверяла на нескольких моих проектах — все выглядит достаточно достоверно. Пара друзей сеошников попроверяли — тоже. Проверяйте, напишите о результатах или своих мысли .

Как вылечиться от «Нового» текстового фильтра Яндекса? Рекомендации Дмитрия Севальнева:

Также вам может помочь моя статья — там есть несколько полезных сервисов для определения естественности, тошнотности, релевантности страницы.

Там в вышеупомянутых статьях были другие полезные ссылки по санкциям поисковых систем от Дмитрия Севальнева, приведу тут их еще раз. Про раздел «Самостоятельно» на PixelPlus я уже писала ранее в рассылке и еще напишу в этом блоге.

Пишите, как вам этот сервис Евгения Кулакова.

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

При написании этой статьи я ориентировался на исследования Дмитрия Севальнева и прочих экспертов компании «Пиксель Плюс», где работал одно время. У Дмитрия много статей по этому поводу, собственно фильтры — это его главная «тема» и в основном можно обходиться лишь его исследованиями. Я же ставил перед собой цель структурировать информацию по фильтрам Яндекса, чтобы было удобно смотреть.

Какие фильтры бывают

Фильтры Яндекса (а также других поисковых систем) делятся, прежде всего, на ручные и автоматические . Вообще классифицировать их можно по многим признакам, но в первую очередь нужно учесть это разделение.

Если уж и попадать, то предпочтительнее под автоматические санкции – они так же автоматом снимутся, как автоматом и были наложены. В случае же с ручными санкциями, скорее всего, предстоит долгая переписка с техподдержкой поисковика.

Ручные и автоматические санкции делятся, в свою очередь, на такие:

  • Бан , то есть исключение сайта из базы. Применяется в тяжёлых случаях – например по отношению к дорвеям или за накрутку ПФ;
  • Неучёт исходящих ссылок – хорошо бы, чтобы ваши доноры не попали под этот фильтр. Поисковик может занижать ценность ссылок с сайтов или вообще не учитывать их;
  • Неучёт входящих ссылок – если вы закупаетесь в каком-нибудь Сеопульте, может так статься, что вы просто будете сливать средства вникуда;
  • Частичное исключение сайта из базы поисковой системы . Ранее можно было с точностью сказать, что сюда относится АГС Яндекса. К нему еще бонусом шло обнуление показателя тИЦ. Сейчас же страницы могут оставаться в индексе, но тИЦ будет «не определён». За адалт и избыточную рекламу также можно поймать ограничение в поиске;
  • Занижение сайта в результатах поиска .

Классифицируя иначе, можно выделить 4 вида фильтров – текстовые, ссылочные, за накрутку поведенческих факторов и остальные (adult, АГС, аффилиаты, дорвеи, другие).

Кроме этого разделения и разделения на ручные и автоматические санкции есть ещё деление на предфильтры и постфильтры. Предфильтры накладываются еще до расчета релевантности сайта, на этапе попадания в базовый поиск, постфильтры же накладываются уже в процессе ранжирования. Ну и, наконец, санкции делятся на запросозависимые, подокументные и хостовые. Первые ведут к проседанию одного запроса, вторые - всех запросов со страницы, третьи - всех запросов со всего сайта.

Подробно о фильтрах:

Если же хотите вкратце (либо просто поглазеть на Лену Камскую), то вот другой видос:

Причинами санкций могут быть текстовое содержание, ссылки, реклама, искусственные накрутки и так далее. Кстати даже опытные продвиженцы могут рассуждать о фильтрах, когда на самом деле причина проседания более прозаична, так что давайте сразу разберемся.

Перед определением фильтров

Перед определением вида санкции и ее лечения следует, прежде всего, убедиться в наличии санкций. Возможно, продвигаемая страница не попала под санкции, а просто выпала из индекса. Если Яндекс не находит даже кусок текста со страницы, введенный в кавычках (или страницу по запросу вида url:site.ru/adres/stranicy.html ) – возможно, следует добавить страницу в инструменты вебмастера или, если не сработает, переписать текст.

Также возможно, что проседание позиций связано с изменением алгоритма ранжирования, в результате которого позиции большого числа сайтов были существенно изменены и наш сайт оказался среди их числа. Для определения этого требуется комплексно сравнить ТОП-10 выдачи по интересующему запросу «до» апдейта и «после» (с помощью инструмента «Анализ поискового запроса» в Megaindex ). Если существенно потерял позицию только наш документ, то это санкция. Если изменения по ТОП-10 более значительные (из ТОП-10 выпало 4 сайта, сменился сайт на 1 и 2 месте и так далее), то это с большой вероятностью алгоритм. Если мы определили, что продвигаемая страница по-прежнему находится в выдаче, а существенно изменил позицию в ТОПе только наш сайт, то мы с большой долей вероятности столкнулись с теми или иными санкциями.

Как один из вариантов причин проседания запроса – запрос мог поменять свой тип с точки зрения логики поисковой системы, и как следствие, выдача может сильно поменяться.

Виды текстовых фильтров

Текстовые фильтры делятся на запросозависимые и документозависимые. Первые ведут к проседанию в выдаче одного запроса или их группы, вторые – к проседанию всех запросов со страницы. В основном текстовые фильтры можно отнести к группе постфильтров, и в подавляющем большинстве случаев они накладываются автоматически. Но бывают и жестокие ручные текстовые санкции - в этом случае проседает, как правило, большая часть запросов с сайта или вообще все.

Большое видео с SEO-коучинга:

Если позиции плохие, и подозрения есть именно на текст (а не на наличие нетекстовых фильтров или хостовые факторы), тот тут такая схема работы:

  1. Определяем наличие фильтров по каждому запросу (далее будет показано, как это делается);
  2. Где нет фильтров – увеличиваем релевантность документа в соответствии с инструкцией из Пиксель Плюса . Если все требования выполнены, смотрим 15 пункт, открываем в Метрике карту скроллинга за месяц, и по ней уже определяем, интересует ли пользователя текст;
  3. Где есть фильтры – действуем соответственно с инструкциями в зависимости от того, с каким фильтром имеем дело.

Кстати, один из способов определить наличие фильтров - подать заявку на добавление сайта в Яндекс Каталог. Если есть санкции, то об этом поддержка Яндекса часто оповещает в качестве обоснования причин отказа принятия сайта в ЯК.

Наиболее часто встречаются фильтры «Переоптимизация» и «Фильтр Севальнева», еще есть фильтр за одинаковые сниппеты и «Ты последний», но с ними приходится сталкиваться не так часто.

Добавлю лишь, что Яндекс накладывает текстовые фильтры не только с учетом разных форм одного и того же слова, но и по корням слов. Многие считают, что фильтр может быть наложен, допустим, только за чрезмерное употребление слова «строительный» в разных формах, учитывая «строительных», «строительными» и так далее. Но санкции можно поймать и если с этим словом все будет в порядке, но будут присутствовать слова «стройка», «строить» и другие однокоренные, употребление которых и приведет к превышению порога спамности.

Текстовый фильтр «Переспам» (устаревший?)

«Переспам» - один из первых текстовых фильтров Яндекса, направленных против чрезмерной оптимизации текстового содержимого страницы. Внедрен с февраля 2010 года, официально не анонсировался. Сегодня встречается не очень часто, поскольку постепенно уступает место «фильтру Севальнева» и «Переоптимизации». Сейчас новые сайты практически не ловят «Переспам». Через несколько лет данный фильтр окончательно уйдёт в прошлое. Хотя, возможно, есть тематики, где он еще применяется.

Как определить

«Переспам» - запросозависимый фильтр; при нем проседает один запрос, обычно резко, на 20-40 позиций; по другим запросам документ нормально ранжируется.

Можно определить, введя в Яндекс модифицированную форму продвигаемого запроса (обычно морфологическую или перестановку слов). Скажем, вместо [грузоперевозки Рязань] – [грузоперевозка Рязань] или [Рязань грузоперевозки]. Если по переформулированному запросу наш сайт окажется в выдаче резко выше (например, был на 37 месте, а стал на 14) – скорее всего, наложен фильтр переспама, документ переспамлен по продвигаемому запросу. Точно говорить о наличии данной санкции можно, лишь если запрос растёт при нескольких модификациях (поскольку фильтр позапросный и накладывается на один запрос).

Причины

Избыточное количество чистых вхождений, акцент на заданной фразе в тексте, Title и анкорах входящих ссылок - всё это может быть причиной переспама.

Что делать

Если сайт под фильтром, то методы его снятия могут быть следующие:

  1. Можно сначала просто поменять окончания у ключевых слов (вместо «грузоперевозка в Рязань» - «грузоперевозку в Рязани»). Если не сработает - тогда прибегать к более радикальным мерам;
  2. Удалить/разбавить лишние вхождения ключевых слов с помощью seo-анализа text.ru. Максимальное количество вхождений не должно превышать 2%. Как высчитать это количество? Берем количество символов без пробелов в тексте, делим его на 6,5 (средняя длина слова в символах) и умножаем на 0,02 (то есть 2 процента). Хотя точнее будет закинуть в text.ru/seo, посмотреть число слов и умножить его на 0,02. Получим максимально допустимое количество вхождений – вот до него и нужно резать максимальное число вхождений слова в тексте. При этом, если мы можем максимально употребить слово 12 раз, это не значит, что мы теперь все продвигаемые слова можем по 12 раз употреблять. Их количество должно плавно снижаться. Для более детального анализа можно воспользоваться таким инструментом, как анализ Ципфа;
  3. Биграмм, триграмм (то есть одинаковых словосочетаний) и так далее также не должно быть слишком много, оптимально не больше одного раза они должны повторяться, максимально – не больше трех;
  4. За переспамленность атрибутов alt и title у изображений тоже могут быть наложены санкции, поэтому их тоже следует почистить от ключевых слов;
  5. Нужно проверить орфографию в Word;
  6. Уменьшить объем текста на странице (или скрыть нижнюю часть текста тегом noindex, но это только для Яндекса, поэтому лучше уменьшать объём) на 15-30%, например почистить от воды через glvrd.ru;
  7. Добавить картинки, списки, таблицы, видео;
  8. Убрать b, strong и прочее логическое выделение;
  9. Проверка входящих ссылок и увеличение числа безанкорных.

Обычно переспам снимается в первый же текстовый апдейт после переиндексации.

Сразу скажу, что ручная диагностика фильтров — дело трудоемкое. Профессиональные оптимизаторы пользуются для определения фильтров сервисом Саши Арсенкина .

Текстовый фильтр «Переоптимизация»

«Переоптимизация» - это наиболее часто встречающийся сегодня текстовый фильтр Яндекса. Внедрен с сентября 2011 года, официальный анонс был в блоге Яндекса на ya.ru. По этому текстовому фильтру возникает больше всего вопросов, и вообще в ходе практики я наблюдал самое разное поведение запросов на страницах, где была диагностирована «Переоптимизация». В ходе статьи буду делать небольшие замечания по этому поводу.

Как определить

Это документозависимый фильтр. Проседают все запросы, ведущие на страницу, например на 10-30 позиций; документ теряет большую часть поискового трафика с Яндекса; документ плохо ранжируется даже по длинным (4-5 слов) запросам. В этом по идее и есть главное отличие от «Переспама» - там проседает один запрос, тут - все запросы с одной страницы.

Вроде стройная теория, однако бывало, что на странице обнаруживался фильтр только по одному запросу, но «Переспам» и «Новый фильтр» не диагностировались. Вроде переоптимизация, но по одному запросу. И на таких страницах было наиболее тяжело снять фильтр. Мое личное мнение - если наблюдается такая фигня, то, скорее всего, контент просто хуже по качеству оформления, а не текстов, чем у конкурентов.

В отличие от того же «Переспама», здесь позиции запросов при переформулировке слов (перестановка или смена окончаний) не меняются или меняются незначительно. Но «Переоптимизацию» можно определить следующим образом:

  1. Введим запрос в ПС Яндекс;
  2. Смотрим место нашего сайта в выдаче - например, 47;
  3. Копируем названия доменов нескольких конкурентов, которые находятся выше нас - например, на 46, 45, 44 и 43 позициях;
  4. Повторно вводим запрос вида [грузоперевозки Рязань (site:nashsite.ru | site:drugoisait.ru)].

Если при запросе такого вида наш сайт в выдаче окажется выше нескольких конкурентов, которые в выдаче по запросу без дополнительных операторов были выше нас, то, скорее всего, наложен фильтр переоптимизации. При этом лучше проверить именно несколько конкурентов – есть вероятность, что на единственного конкурента, с которым вы сравнивали свой сайт, также наложен фильтр, или же это будет крупный портал, с которым сравнивать нет смысла.

Вот еще видео-пример:

Причины

Несогласованный текст, несоответствие страницы ключевым словам (под которые она оптимизирована), переоптимизация контента (текста, Title).

Что делать

Обычно требуется провести тот же комплекс мер, что и в случае с переспамом, но если он не поможет, принимаем более серьёзные меры:

  1. Снизить процент вхождения ключевых фраз в тегах h2-h6 (особенно касается h2);
  2. Переформатировать контент, пересмотреть структуру текста. Вхождения и слова должны быть равномерно распределены по абзацам;
  3. Отправить текст на корректорскую проверку, то есть устранить все несогласованные словосочетания, трудночитаемые предложения, орфографические и пунктуационные ошибки.

Если в целом текст, допустим, некачественный и не тематический по отношению к продвигаемым ключам, состоит из большого числа слов из общего нетематического корпуса слов (слишком много вводных слов, длинные предложения, малое разнообразие частей речи, много прилагательных), то текст, возможно, придется переписать - просто чистка ключей может не помочь.

Переоптимизация обычно снимается через один-два текстовых апдейта после переиндексации.

Фильтр Севальнева

В 2014 году начала наблюдаться ситуация, при которой запросы улетали за топ-200, и стандартные методы борьбы с текстовыми фильтрами не срабатывали. В итоге оптимизаторы пришли к выводу, что это новый текстовый фильтр Яндекса. Его в общем и назвали просто «новым фильтром», также в ходу наименования «текстовый антиспам» и «фильтр Севальнева», поскольку Дмитрий Севальнев из «Пиксель Плюс» был, возможно, первым, кто открыл и описал данную санкцию.

Сейчас уже далекий 2016, так что, я думаю, поздно называть этот фильтр «новым». Поэтому я его называю «севальневским» 🙂

Как определить

Полная потеря трафика по запросу (возможно резкое проседание), чаще проседают именно группы запросов, но в целом можно говорить, что санкция накладывается не на весь документ, а позапросно. При этом, в отличие от «Переспама», при переформулировке позиция не растет, то есть можно предположить, что фильтр накладывается на все формы запроса. Часто проверка путем сравнения двух сайтов показывает, что наш сайт с 250 места выше по релевантности, чем сайт на 70-80 месте.

Определяется этот новый фильтр примерно так же, как и переоптимизация. Отличить от «Переоптимизации» можно по абсолютному числу потерянных позиций - в случае с фильтром «Переоптимизация» это 5-30 пунктов, в случае с «Новым» потеря оказывается значительно выше:

  • Сайт резко теряет позиции по запросам, выпадения составляют от 50-60 и вплоть до 1000 позиций, когда продвигаемый документ пропадает из зоны видимости. Обычно запросы находятся на 200-х местах при новом фильтре;
  • Документ продолжает нормально ранжироваться по запросам, к которым фильтр не был применён;
  • Модификация запроса не приводит к серьёзному росту, как в случае с текстовым постфильтром «Переспам».

Из практики можно сделать вывод, что если сайт далеко за пределами топ-100 по запросу, но при посайтовом сравнении оказывается релевантнее запросу, чем сайты на 70-80-х местах, с большой долей вероятности мы имеем дело с «фильтром Севальнева».

В инструментах Сани Арсенкина фильтр проверяется там же, где и переоптимизация. У него инструмент «два в одном».

Что делать

Для снятия «севальневского» текстового фильтра Яндекса рекомендуется делать тот же комплекс работ, что и для «Переспама» и «Переоптимизации», но дополнительно:

  • Уменьшить длину Title до 70 символов и снизить его спамность. Ни одно слово в Title не должно встречаться дважды.
  • Уменьшить число чистых вхождений продвигаемого запроса в текст документа (изначально - двукратно).
  • Пересмотреть проценты вхождений слов из данных продвигаемых запросов в сторону уменьшения (изначально - двукратного).
  • Сократить текст на странице - можно, к примеру, почистить его от воды.

В случае если действия, описанные выше, после переиндексации документа и нескольких текстовых апдейтов поисковой выдачи Яндекса не принесли ожидаемого результата - рекомендуется полностью переписать текст.

Как я уже говорил, фильтры могут быть наложены за переспам однокоренными словами. То есть если максимально допустимое количество вхождений на страницу – 10, и у вас по 7 раз употреблены слова «печать» и «печатание», то за это может быть наложен текстовый фильтр, хотя слова по идее - разные.

Еще один момент – иногда, когда вроде как страница на первый взгляд не переспамлена, стоит посмотреть вхождения в исходном коде страницы. Их там на самом деле может оказаться дофига.

Текстовый фильтр «Ты последний»

«Ты последний» - это, по большому счету, фильтр за неуникальный или неактуальный контент.

Причем «контент» тут не всегда значит «текст», за использование заведомо неуникальных шаблонов сайт тоже может попасть под этот фильтр.

Под этот фильтр попадают в основном умники, которые думают, что накопипастив кучу текстов, они сделают отличный сайт и на него повалит народ. То есть это новички, школьники и прочие лица в состоянии опьянения. Их опьяняют «интернетовские деньги», они как Стивен Абутмен из Южного парка. Помните?

Канада не получает достаточно денег! У других стран много денег, нам нужна часть этих денег! Как насчет… Как насчет интернета? Интернет делает много денег, так дайте нам часть этих денег! - Да! Дайте нам интернетовские деньги!

Но вместо интернетовских денег юные Гейтсы и Цукерберги получают фильтр «Ты последний».

Как определить

Если вдруг сильно проседает трафик с Яндекса, но сайт продолжает нормально индексироваться - есть повод проверить сайт на предмет наличия данного фильтра. И, соответсвенно, если сайт индексируется, а трафика нет - тоже есть повод сделать то же самое.

Введите уникальный кусок текста из Title или со страницы в Яндекс (брать нужно страницу, которая есть в индексе). Если сайт не находится в числе первых - скорее всего, есть фильтр. Дополнительно проверьте уникальность текста через Advego Plagiatus или Etxt Antiplagiat. Но текст может быть неуникальным при условии, что Яндекс считает наш сайт первоисточником - если вводите кусок текста в кавычках и какой сайт на первом месте, тот и считается первоисточником.

Причины

Кроме неуникального контента причинами могут быть дублирующиеся тексты или куски текста на сайте.

Что делать

Повышать уникальность текстов до 100%, избавляться от дублей внутри сайта. Легче всего просто заказать новые тексты. Кроме того:

  • Даже на карточках товара в интернет-магазине можно получить/написать уникальные отзывы и комментарии, а также уникальный обзор модели;
  • Анонсы статей/новостей и начало текста на странице тоже можно сделать разными;
  • Очень желательно отсутствие в коде больших (более 150 символов) дублирующихся фрагментов текста – например, текста в футере на всех страницах;
  • Отсутствие дублирования текста на документах постраничной навигации, страницах сортировок, фильтров, тегах, страницах поиска – также необходимо.

Дублирование внутри сайта – это тоже дублирование контента. Важно также учитывать процент уникальных текстов на сайте (уникальных шинглов) относительно общего количества текстов. При ранжировании карточек товаров уникальность текста может не играть сильной роли (хотя в Google играет), но общая уникальность информации на сайте будет важна для нормального ранжирования. Также при ранжировании могут играть роль мономы (комбинации факторов), скажем (объём текста)/(время пользователя на странице). С дублями, описанными выше, можно бороться следующими методами:

  • Атрибут rel=”canonical” тега;
  • Мета-тег robots;
  • Ограничения к индексации через файл robots.txt

Что же касается полных дублей страниц, их можно найти либо при помощи сканеров вроде Screaming Frog, либо через панель Вебмастера Google (Инструменты для веб-мастеров – Оптимизация HTML) и иногда Вебмастера Яндекс (Мои сайты – проверить URL). В случае со Screaming Frog полученные после сканирования данные выгружаются в Excel, дальше подсвечиваются одинаковые теги Title в файле – так можно вычислить дубли и их URL.

Чтобы получились «правильные» карточки товаров, необходимы:

  1. Уникальный контент в широком смысле слова;
  2. User-generated Content (UGC): отзывы, мнения (всё это сказывается и на конверсии);
  3. Текст по теме. Больше деталей – технические характеристики, состав и так далее;
  4. Шаблонная оптимизация: Title, description, мини-описания;
  5. Контроль фильтра за одинаковые сниппеты;
  6. Кликабельный сниппет на выдаче;

Как вариант - можно еще просто убрать ключевые слова из всех текстов. При этом оставить их в Title, но сократить содержание последнего до трех слов или меньше. В этом случае спамность текстов будет нулевой. Ждем переиндексации, и после прошествии еще некоторого количества времени Яндекс должен снять фильтр. Желательно еще снять анкорные ссылки, если их много. После выхода сайта из-под фильтра можно потихоньку, понемногу возвращать ключи в тексты.

Фильтр за одинаковые сниппеты

Яндекс исключает документ из выдачи, если его сниппет дублирует уже имеющийся в выдаче сниппет другого документа. Это и называется фильтром за одинаковые сниппеты.

Сюда же, кстати, входят и санкции за одинаковые Title.

Фильтр на одинаковые сниппеты наиболее характерен для товарных запросов и сайтов интернет-магазинов. Его назначение заключается в том, что с целью повышения разнообразия результатов выдачи Яндекса скрывается ряд похожих результатов. Предпочтение отдается тем документам, у которых сниппет (Title и текст описания) существенно отличается от уже представленных результатов.

Признаки

Сайт полностью исчезает из выдачи по некоторым запросам, но если добавить в урл конструкцию &rd=0, появляется в результатах поиска.

Причины

Сниппет страницы полностью или почти полностью дублирует сниппет другой страницы, которая находится в топе.

Снятие фильтра

Для снятия фильтра требуется:

  1. Полное переписывание фрагментов текста, из которых берется текст для сниппета;
  2. Изменение шаблона Title для карточек товара и разделов;
  3. Шаблонный meta-description (иногда используется в качестве сниппета, его следует не спамить и не дублировать в нём текст из Title). Иногда снять фильтр помогает уникализация Description;
  4. Текст для сниппета желательно располагать выше по странице. Его должны составлять короткие и ёмкие предложения. Нежелательные фрагменты можно заключить в тег , но этим злоупотреблять нельзя;
  5. Дождаться переиндексации документа и процесса обновления сниппетов.

Можно подумать, что если, мол, текст из сниппета уникальный, то фильтра быть не может. Но это неверно. Если по тексту из сниппета Яндекс ничего не находит - это ничего не значит. Сниппет обычно берется:

  • Из нескольких разных предложений;
  • Может браться из description, по которому и не будет ничего находится;
  • Может браться из YML - аналогично;
  • И так далее.

Виды ссылочных фильтров

Теперь давайте по ссылочным фильтрам — постоянным спутникам плохих сеошников.

Минусинск

Мощный фильтр, запущенный в 2015 году и направленный против сайтов, которые покупают ссылки. Как Яндекс определяет, покупная ли ссылка? Намек на метод можно найти в Мадридском докладе. В самой сжатой форме - если сайт ссылается коммерческими анкорами («купить», «цена») на сайты разных тематик, то, вероятнее всего, он торгует ссылками. Но помимо всего прочего ничто не мешает Яндексу просто выгрузить базы ссылочных бирж. В целом про этот фильтр на момент июня 2015 года мало что известно.

Признаки: сайт проседает по всем запросам примерно на -14 позиций.
Причины: большое количество некачественных покупных ссылок (Сеопульт, Сапа и так далее).

Вот огромный экспертный видос по Минусинску:

Ссылочный взрыв (устаревший?)

Чтобы предотвратить ситуацию, когда сайт резко вырывается в топ чисто за счёт огромного количества покупных ссылок, введён данный фильтр. Штрафует акцепторов при наличии неестественно высокого темпа наращивания ссылочной массы. Доноры, участвующие во «взрыве», также помечаются как неблагонадежные.

Я не уверен, что с появлением Минусинска этот фильтр должен продолжать работу - ведь за покупные ссылки карает Минусинск, а за рост качественных ссылок не должны вообще накладываться санкции.

Однако Яндекс намекал, что во избежание покупок ссылок конкурентами с целью «завалить» врага под фильтр, покупными ссылками могут считаться лишь старые, так что с другой стороны, «Ссылочный взрыв» может еще оставаться в строю.

Признаки: сайт «залипает» на определенных позициях.
Причины: покупка большого количества ссылок в короткий период.

Ссылочный спам (устаревший?)

Ранее был одним из основных инструментов Яндекса для выявления покупных ссылок. Предусматривает различные типы санкций, применяемые к сайтам при манипулировании ссылочной массой (ссылочные кольца, прогоны и другие).

С выходом Минусинска пока непонятно, применяется ли сейчас.

Признаки: сайт резко понижается в выдаче по всем запросам.
Причины: абсолютное преобладание ГС в ссылочной массе.

Непот-фильтр

Фильтр, созданный для борьбы с ГС, продающими ссылки. Ведёт к неучёту анкора и веса ссылки. То есть когда на сайт накладывается этот фильтр, ссылки с него начинают давать куда меньший эффект. Проверить всех своих доноров на наличие непота представляется практически нереальным, поэтому при покупке ссылок нужно предъявлять жесткие требования к донорам, отслеживать эффект от покупки, составлять блек и вайт листы.

Внутренний непот-фильтр

Неучёт внутренних ссылочных связей при наличии избыточной (спамной) перелинковки внутри сайта. То есть польза от вашей внутренней перелинковки может пойти насмарку, если Яндекс посчитал ее спамной и наложил данную санкцию. Основная причина наложения фильтра - спамное содержание анкоров и их повышенная длина, однако причиной может быть и, допустим, отсутствие корректного оформления ссылок.

Фильтр за накрутку поведенческих факторов

Используется для борьбы с накруткой поведенческих через биржи. Штрафует сайт за искусственное улучшение кликовых поведенческих факторов с применением мотивированного трафика или эмуляций действий пользователей в поисковой системе Яндекс. Ресурс продолжает нормально ранжироваться только по витальным и запросам с явным указанием URL-адресов с сайта. Поведенческие факторы являются ключевыми в ранжировании сайтов по средне- и высокочастотным запросам. И хотя их число исчисляется десятками, под пристальным прицелом оптимизаторов оказались наиболее значимые, а именно, так называемые кликовые факторы на страницах результатов выдачи:

  • Число посетителей документа из выдачи по запросу;
  • CTR сайта в выдаче по запросу;
  • Региональные срезы данных показателей.

Именно на искусственное улучшение данной группы факторов направлено большинство сервисов по накрутке. На текущий момент можно утверждать, что фильтр за накрутку кликовых поведенческих факторов функционирует в Яндексе наравне с прочими санкциям и применение данной технологии оптимизации подвергает сайт существенному риску потери позиций в срок от 6 месяцев и более.

Признаки: в некоторых случаях – понижение позиций сайта по части запросов. Срок – 1 год. Сейчас лучший способ диагностировать факт наложения фильтра - обращение в службу поддержки поисковой системы Яндекс через панель вебмастера.

Платоны прямо сообщают о факте применения данных санкций к сайту, что можно воспринимать как достоверное подтверждение и способ диагностики.

Рекомендуется, особенно в случае непричастности к актам искусственного улучшения поведенческих факторов, вступить в честный и аргументированный диалог, в котором открыто изложить свою позицию. В ряде случаев данные действия могут ускорить процесс снятия фильтра.

Причины: накрутка кликовых поведенческих факторов с целью повысить позиции сайта.

Позиция представителя Яндекса по фильтру за ПФ:

Факты накрутки и неучёта действий пользователей могут фиксироваться с помощью большого числа алгоритмических и статистических методов. Севальнев на проекте «Пиксель Плюс самостоятельно» рассказывал об одном из алгоритмов, который применяется также в антиспаме для функционирования санкции «Ссылочный взрыв»:

  1. Есть пороговое значение роста посещаемости сайта из выдачи, после которого он считается участвующим в «накрутке». Это может быть, например, более чем 30-50% увеличение поискового трафика при неизменном числе показов сайта и сниппетах;
  2. Выделяется список всех пользователей (IP-адресов), которые посетили заданный ресурс из выдачи за отчетный период;
  3. Выбирается совокупность всех сайтов, которые считаются «накрученными» за отчетный период;
  4. Формируется множество пользователей, которые принимали участие в 2 и/или большем числе фактов накруток (порог может быть выбран путём перебора);
  5. Все действия данных пользователей игнорируются при расчётах кликовых поведенческих факторов.

То есть выявляются все сайты, у которых неестественно большой рост, и сравниваются IP кликавших на них юзеров.

Кейс по работе с сайтами под ПФ-фильтром от Артура Латыпова и SEO-коучинга:

Остальные фильтры

Тысячи их! Не возьмусь даже утверждать, что в этой статье я смогу описать их все.

Алгоритм Яндекса АГС-40

Алгоритм АГС (официальной расшифровки нет, но мы-то знаем, что это означает «антиговносайт») был разработан для борьбы с некачественными сайтами (в Google похожую функцию имеет алгоритм Panda). То есть он направлен на ограничение в ранжировании и индексации сайтов, созданных не для пользователей. Впервые его влияние было замечено 1 ноября 2013 года. Официально анонсирован 6 ноября 2013 в блоге Яндекса: http://webmaster.ya.ru/16272 . Было несколько «волн» наложения санкций. База регулярно обновляется, ряд сайтов из-под санкций выходят, а ряд сайтов попадает под них. Ссылочные биржи и эксперты дают различные оценки – кто-то говорит, что от всей базы доноров в биржах под АГС находится 1% сайтов, кто-то – что 20% (в общем, от 1 до 20 процентов).

Признаки

С апреля 2014 – обнуление тИЦ. Сейчас при попадании под АГС обнуляется тИЦ сайта (при проверке этого показателя через Яндекс Каталог сервис пишет, что тИЦ «не определен»), но сам сайт может оставаться в индексе Яндекса. Ранее же была распространена ситуация, когда большинство страниц вылетало из индекса, оставалось только от 1 до 101 страницы.. Через пару дней после попадания под действие алгоритма я написал в поддержку - мол, контент уникальный, веду блог для людей, что следует исправить? Платон думал 4 дня, а затем написал:

Здравствуйте, Марк!
Приносим извинения за задержку с ответом.
Я проверил, с сайтом все в порядке. тИЦ будет актуализирован при ближайшем пересчете.

То есть если есть уверенность, что сайт не должен был попасть под АГС, имеет смысл связаться с поддержкой.

Причины

Низкое качество сайта в целом, низкопробный контент.

Исследования показали, что наличие сайта в Яндекс.каталоге снижает вероятность попадания под АГС в 2,5 раза, в DMOZ – ещё выше, в 5,4 раза. YACA+DMOZ вместе же снижают вероятность попадания под АГС аж в 40 раз. Также хороший знак здесь – наличие Яндекс.директ. Что касается торговли временными/арендными ссылками, то одни говорят, что такая деятельность не влияет на попадание сайта под АГС, другие же считают, что это одна из основных причин попадания под действие алгоритма. Посещаемость же должна влиять куда однозначнее – при исследовании 6986 сайтов наблюдалось резкое падение доли сайтов под АГС среди сайтов с посещаемостью более 150 посетителей и особенно более 300 посетителей в сутки.

Презентация Дмитрия Севальнева по более полному исследованию АГС:

Снятие фильтра

  • Смена хостинга;

Вот кстати как писать в ТП:

На коммерческих сайтах опасность попадания под АГС присутствует, если:

  • Нет контактов и реквизитов компании;
  • Есть большое количество бессмысленных («переоптимизированных») или неуникальных статей;
  • Плохо оформлен контент (сканы, копипаст и так далее);
  • Сайт долгое время не обновляется;
  • Плохое окружение (IP-адрес хостинга).

Снятие фильтра

Для вывода коммерческого сайта из-под АГС нужны:

  • Указание контактов, времени работы, схемы проезда, реквизитов;
  • Удаление статей и написание 2-3 полезных материалов;
  • Полная техническая оптимизация;
  • Смена хостинга;
  • Привлечение непоискового трафика на сайт (около 150 человек в сутки);
  • «Красивое» оформление материалов, правильная орфография;
  • Письмо в техподдержку после индексации.

Вот кстати как писать в ТП:

Что требуется для вывода информационного сайта из-под АГС:

  • Проверка текстов страниц на уникальность и их переписывание в случае, если тексты неуникальны;
  • Больше качественных статей - не по 500 символов, а нормальных обзорных материалов;
  • Убрать рекламу и продажные ссылки;
  • Полная техническая оптимизация;
  • Хороший хостинг;
  • Нарастить качественную ссылочную массу на блог;
  • Привлечение непоискового трафика.

Еще советы по выходу из-под фильтра:

Я знаю одного вебмастера, который спец именно по выходу из-под АГС. Если все перепробовали, и не помогло — пишите мне, дам контакты.

Фильтр аффилиатов

Яндекс склеивает похожие сайты, если есть подозрение на то, что у них один и тот же владелец. В итоге из всей группы аффилированных сайтов в зоне видимости в выдаче по запросу остаётся только один. Я лично не слышал, чтобы фильтр накладывался на информационные сайты, кстати говоря. Также аффилированность сайтов не является отягощающим фактором при продвижении:

  • По непересекающимся спискам поисковых запросов;
  • По различным регионам России.

То есть если у вас сайт продвигается по запросам группы [вызов газовщика на дом], а еще один сайт - по запросам в стиле [вызов деда мороза на дом], и при этом вы аффилированы, то обоим сайтам будет на это наплевать - они просто не почувствуют склейки.

Признаки

Полное исчезновение сайта из выдачи по нескольким запросам, которые до этого были в топе или близко к нему. Также если сайт продвигается плохо даже после проведенных по нему работ – большинство запросов в выдаче за топ-100, но часть запросов при этом растёт, есть вероятность, что существует его аффилиат, который и виден по тем запросам, по которым наш сайт не продвигается. При этом по разным запросам и в разных регионах наиболее релевантными могут быть разные сайты.

Вот еще способ определения от Игоря Бакалова:

Причины

Продвижение сайтов одного владельца по одинаковым/пересекающимся запросам в одном регионе.

Аффилированность Яндекс вычисляет через контактные данные, дублированный каталог услуг и цен (даже сайты просто с одинаковыми ценами Яндекс может определять как аффилированные), данные регистрации доменов, html вёрстку и cms сайта. На 98-99% аффилированных сайтов санкции налагаются автоматически, но аффилированность может быть и ручная.

Как избежать аффилированности (склейки сайтов в группу)?

  1. Избегать пересекающихся контактных данных;
  2. Избегать дублирования каталога, услуг и цен на продукцию (массового);
  3. Структура каталога товаров (если интернет-магазин) должна быть уникальной;
  4. Разносить сайты по хостингам и аккаунтам (Директ, Вебмастер). Не всегда обязательно хоститься у разных провайдеров, чтобы не было афиллированности – достаточно купить выделенный IP;
  5. Сайты также должны располагаться на разных IP-адресах или подсетях класса C;
  6. Сайты из потенциальной группы должны быть в разных аккаунтах Яндекса;
  7. Избегать схожести доменных имён и названий компании;
  8. Один сайт не должен перенаправлять трафик на другой;
  9. Не должно быть перекрёстных ссылок;
  10. Данные регистрации доменов должны быть разными;
  11. HTML-вёрстка и CMS сайта не должны быть схожими;
  12. Внешняя входящая ссылочная масса должна различаться (не должно быть много общих доноров);
  13. Также Яндекс может наложить ручные санкции аффилированности по жалобам в Яндекс и «контрольным» звонкам.

Сайты не попадут под фильтр аффилиатов, если, допустим, у них только IP одинаковый. Но если пользоваться при этом сервисами – например, одним кошельком, то шанс попасть под аффилированность повышается. Как в таком случае быть, если оптимизатор продвигает похожие сайты? Тут может быть такой выход – оформить ИП, и тогда можно пользоваться одним аккаунтом в сервисах для работы с клиентскими сайтами.

Проверка аффилированности

Сначала требуется проверить наличие фильтра на одинаковые сниппеты, если такой фильтр обнаружен – аффилированности по запросу нет.
Быстро выявить афиллированность по запросу можно следующим образом:

  1. выгружаем топ-50 по запросу;
  2. обрезаем до доменов;
  3. добавляем конструкцию [запрос ~~ site:] перед каждым доменом;
  4. снимаем позиции;
  5. Если находится аффилиат, сверяем его позиции по нашему ядру. Если хотя бы по одному запросу оба сайта в ТОП-40 одновременно, то аффилированности нет.

Имеется также старая база аффилиатов по Яндексу: http://tools.promosite.ru/old/clones.php Можно вбить в Яндекс номер телефона, адрес или почту, добавить ~~ site:nashsite.ru.

Снятие фильтра

В случае автоматических санкций устраняем все причины:

  • Перепроверяем контакты;
  • Телефоны в панели Вебмастера;
  • Телефоны на сайте;
  • Перекрестные ссылки;
  • Хостинг;
  • Общие аккаунты в Директе;
  • Упоминания адреса компании с одного сайта на другом сайте;
  • Перенаправление трафика с одного сайта на другой;
  • Большое число общих внешних ссылок.

Затем ждём – фильтр снимается автоматически. В случае наложения ручных санкций нужно проделать всё то же самое, но уже не ждать, а писать в техподдержку, присылать сканы свидетельств о регистрации, договоров аренды и так далее.

Фильтр за избыточную рекламу

Накладывается из-за наличия на сайте агрессивной рекламы. Понижает в ранжировании сайты с избыточным рекламным содержимым (pop-up, кликандер и другие). Причинами также могут быть наличие агрессивной рекламы, вызывающих тизеров, всплывающих окон, кликандеров. Иногда понижаются сайты с обманным содержимым во всплывающих окнах, уведомлениях.

Для снятия фильтра за некорректное рекламное содержимое требуется произвести смену размещаемых рекламных материалов или подключенной партнерской программы и дождаться полноценной переиндексации ресурса. Для ускорения процесса рекомендуется после внесения существенных изменений на сайте сообщить об этом в службу поддержки поисковой системы через панель вебмастера.

«Партнёрки»

Ранжирует ниже сайты, монетизирующиеся партнерками и при этом не дающие дополнительной ценности пользователям. Это могут быть, к примеру, нераскрученные купонники, на которых нет ничего, кроме кодов партнерских программ.

«Бан»

Исключает из индексации спам-сайты, направленные исключительно на привлечение трафика обманными техниками, среди них могут быть:

  • Дорвеи;
  • «Списки поисковых запросов»;
  • Сайты, использующие клоакинг;
  • «Сайты-клоны»;
  • Прочие.

Adult-фильтр («взрослый» контент)

Фильтрация сайтов для взрослых из выдачи не по адалт-запросам. Сайт полностью исчезает из выдачи по всем запросам, кроме «взрослых», что сопровождается резким снижением трафика (если под него попал, допустим, коммерческий сайт). Сайт фигурирует в выдаче только по запросам с явным adult-контентом. Причины - наличие взрослого контента, ссылки на adult-ресурсы, реклама взрослых сайтов.

Я еще слышал информацию, что сайт может быть пессимизирован из-за плохих поведенческих, но подробнее рассказать, каким образом это происходит, пока не могу. Постараюсь обновлять данную статью и быть в курсе всех технологий Яндекса, направленных против неестественного влияния на выдачу. Да, и если связаться с поддержкой Яндекса не получается - пишите на

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Санкции и различные фильтры Яндекс вводит не просто так, а для того, чтобы в результатах поиска были качественные сайты и только качественные. Но! Мир несправедлив и зачастую санкции задевают и нормальные сайты. Также бывает, что из-за субъективной оценки вебмастера не умышленно нарушают правила поисковых систем.

Мы собрали описания всех фильтров и санкций Яндекса для того чтобы рассказать вам, как выйти из-под них и как проверить, что они есть.

Аффилиат фильтр Яндекса и как его снять

Если контактная информация на двух страницах сайт1.ру и сайт2.ру совпадает (частично или полностью), Яндекс считает эти сайты или принадлежащими одной компании. Яндекс по-особому относится к взаимосвязанным страницам, и если сайты определены как аффилированные, то поисковик не покажет их на одной странице в поисковой выдаче по одному и тому же запросу. И если вы будете искать определенную информацию по ключевому слову, то в поисковой выдаче не будет одновременно отображаться сайт1.ру и сайт2.ру, это попросту невозможно.

Это дает понять, что продвижение аффилированных сайтов с помощью пересекающихся списков поисковых запросов не даст никакого результата. Увы и ах, получить дополнительные места в ТОП-10 поисковой выдачи вам не удастся.

Если избежать совпадений в ключевых словах, то еще можно будет занять несколько мест в первой десятке поисковой выдачи по определенному запросу.

Какая именно из двух страниц будет отображаться в результатах поиска?

Первым будет показан более релевантный сайт. Та страница, которую Яндекс посчитает подходящей для пользователя, использовавшего определенный поисковый запрос. Несколько причин, по которым будет показан сайт1.ру вместо сайт2.ру:

  • возраст страницы;
  • качество и количество ссылок входящих на страницу;
  • другие факторы.

Довольно часто фильтр аффилиатов не пропускает страницы крупных компаний, это случается из-за того, что они пытаются создать достаточно большое количество сайтов (для регионов или отдельных городов).

Как не попасть под фильтр?

Чаще всего фильтр применяется автоматически (если у страниц совпадают определенные факторы). Эти санкции снимаются точно так же, как и накладываются - автоматически. Писать в службу поддержки и что-то объяснять просто бесполезно, лучше попытаться устранить причины и ждать снятия санкций.

Зачастую Яндекс считает сайты аффилированными даже из-за совпадения описания определенных товаров или при похожих доменных именах, а иногда даже по URL! Необязательно чтобы совпадала контактная информация. А если совпадают регистрационные данные доменов или хостинга, то это может еще больше усугубить ситуацию.

Фильтр Яндекса “Новый домен”

Почти нереально поднять недавно созданный сайт в ТОП по определенным конкурентным запросам. Данный фильтр многие считают нелогичным и достаточно несправедливым, называя его ужасной недоработкой и технической слабостью Яндекса.

В этом случае стремление поисковых систем к борьбе с дорвеями не привело ни к чему хорошему. Некачественных страниц в поисковой выдаче не стало меньше, фильтр по большей части вредит действительно качественным страницам, которые могут релевантно удовлетворить запросы пользователей.

Новые сайты почти всегда попадают под этот фильтр, что, повторюсь, очень несправедливо. Надеемся, что когда-нибудь разработчики изменят свое видение этого фильтра.

А пока молодые сайты почти не имеют шансов на быстрое продвижение по конкурентным запросам. Лучше всего продвигать молодые проекты постепенно и не гнаться за быстрым продвижением и соответственно быстрой прибылью.

Нужно начать с низкочастотных запросов, затем постепенно перейти к среднечастотным. Тем, кто торопится начать работу с высокочастотными запросами, лучше всего подождать, и вступать в серьезную игру не раньше чем через год (с момента начала продвижения нового проекта). Это позволит автоматически вывести сайт из-под фильтра.

Санкции Яндекса за умышленную накрутку поведенческого фактора

Яндекс уже давно учитывает поведенческие факторы в ранжировании сайтов, это заставляет оптимизаторов проводить различные эксперименты с накруткой данного показателя. Для этого используют специальные системы накликивания, которые имитируют поведение реальных пользователей в органической выдаче Яндекса и на страницах сайта.

Цель Яндекса - убрать с органической выдачи страницы, на которых использованы системы накрутки ПФ.

На самом же деле, единственная цель - наказать сайты, которые этим занимаются.

Что мы видим, когда поисковик применяет такого рода санкции? Позиции по коммерческому запросу резко падают, снижается объем трафика, который поступает из Яндекса.

Нужно просто перестать использовать программы для накручивания ПФ, сделать так, чтобы сайт был интересен людям, а не роботам. И, конечно же, написать об этом в поддержку Яндексу. Вдруг повезет.

Фильтр за взрослый контент

Данный алгоритм работает по очень интересному принципу. Робот определяет запросы, которые могут помочь в поиске страницы. Если страница оптимизирована под "п*рн" запрос (присутствие определенных фраз или контента), то такой сайт не может отображаться в обычной выдаче.

Пользователям будет не очень приятно увидеть такие сайты, если, конечно же, они их не искали. Значит, для решения вопроса достаточно просто пересмотреть контент своей страницы, тогда фильтр автоматически будет снят.

Хочу отметить, что фильтр применяется достаточно странно и неоднозначно: он часто влияет на страницы, которые сами по себе не являются "п*рн" страницами. На них могут быть размещены определенные баннеры, которые ведут на сайты знакомств. Робот принимает это за адалт и понижает позиции страницы.

Фильтр очень плохо отрегулирован, часто он умудряется затронуть сайты, на которых просто написаны определенные стоп-слова.

Единственный выход - полное удаление хоть какого-то намека на "п*рн" контент. Удалять нужно и рекламу, и новости и даже определенные комментарии.

"Непот" фильтр

Как ограничить влияние искусственных ссылок на процесс ранжирования?

В сентябре 2010 года разработчики Яндекса решил внедрить дополнительный комплекс мер (в дополнение к уже существующему фильтру, который понижает позиции страниц, продвигающихся только за счет покупки некачественных ссылок с различных " "), который позволят исключить из ТОПа похожие страницы. Многие продвигались с помощью покупки довольно дешевых ссылок, теперь это будет тяжело осуществить, ведь такие ссылки резко потеряют в эффективности.

Фильтр применяется исключительно для тех страниц, которые продают ссылки, санкции не касаются продвигаемых ресурсов. Достаточно просто отказаться от массовой продажи ссылок с ГС.

Очень важно постепенно менять ссылочную массу. Оптимальным вариантом будет покупка качественных ссылок с проверенных ресурсов, и постепенная замена ими старых, некачественных ссылок.

Фильтр "ты последний"

Такое название он получил от самих оптимизаторов, и досталось оно фильтру из-за его основного симптома. По любым уникальным фразам со страницы и по доменам он всегда занимал последнее место в поисковой выдаче. Сейчас этот фильтр стал более совершенным, его уже нельзя определить по домену в выдаче. Он стал очень похож на довольно известный фильтр в Google - “Supplemental” (которого сейчас в Google нет).

Задача фильтра - избавлять поисковую выдачу от устарелых, нерелевантных и попросту ненужных страниц.

Симптомы, по которым его можно обнаружить, - заметное падение трафика от Яндекса Сайт останется нормально проиндексированным, а страницы также будут отображаться в выдаче.

Достаточно ввести в поисковую строку фразу, которая находится у вас в title, или какой-то кусок текста, являющий уникальным. Если вашего сайта не будет в первой десятке - вы попали под "ты последний".

Вероятные причины попадания вашей страницы под "ты последний"

  • наличие неактуального или неуникального контента;
  • непостоянное обновление контента;
  • использование популярных шаблонов.

Лучшим лекарством считается тотальная переработка страницы, нужно поменять дизайн и содержимое.

Фильтр "Ты Спамный"

Это название было придумано самими оптимизаторами: оно быстро и намертво прицепилось, и теперь этот фильтр известен только как "ты спамный". В чем главная опасность такого фильтра? Если его применить к определенному запросу, при каждой новой выдаче он будет терять все больше позиций и падать все ниже. Не каждый запрос просядет, фильтр коснется только пары «запрос-страница». Довольно часто он затрагивает только СЧ и ВЧ запросы.

Как определить наличие данного фильтра на странице?

    Нужно внимательно следить за каждым апдейтом выдачи, который проводит Яндекс. Проверять позиции нужно на регулярной основе. Падения незначительные - ничего страшного, но если ситуация только ухудшается, будьте уверены, действует "ты спамный".

    Место продвигаемой страницы заняла другая, которую поисковые роботы Яндекса считают более релевантной. Существует способ проверки: в расширенном поиске нужно указать запрос с данными вашего сайта. Если в результатах ваша страница не будет первой, то "ты спамный" действует во всю мощь.

Можно подставить к определенному запросу стоп-слова. Возьмите продвигаемый запрос и проверьте его в поиске, затем добавьте слеш и повторите проверку. Если фраза без стоп-слова ниже, чем без слеша - фильтр применяется к этой странице. Также актуальной будет проверка с использованием определенных словоформ. Можно вбить запрос, которого нет в тексте и который не является продвигаемым, к примеру "продвижения страниц", если он окажется выше, чем "продвижение страниц", значит фильтр точно применяется по отношению к данному сайту.

Способы борьбы с данным фильтром

Один из самых легких фильтров, выйти из под которого довольно не сложно.

  • Изучить и очистить страницу от переизбытка ключевого слова (или слов). Можно просто склонять ключевые запросы, тогда фильтр вам не страшен.
  • Сокращение достаточно огромных текстов, уменьшение объема пойдет только на пользу странице. Главное - чтобы текст был продающим.
  • Провести коректировку нечитаемых словоформ. Такими словоформами считаются запросы:
  1. Мебель купить
  2. Женская одежда интернет магазин
  • Такие словоформы нужно или просто выкинуть из текста, или првести их в читаемый, человеческий вид.
  • Провести кардинальный редизайн страницы.
  • Написать "Платону", если ничего не помогло.

Анти-Говно-Сайт АГС 30 и АГС 17

Этот фильтр является единственным в своем роде. Его уникальность в том, что разработчики не только не открещиваются от его создания и существования, но еще и постоянно комментируют все вопросы, которые касаются .

Разработчики заявляют, что фильтр создан для исключения из поисковой выдачи страниц, который утратили свою ценность для пользователей. Но в действительности - фильтр просто ограничивает влияние таких страниц на ранжирование и его результаты.

Симптомы фильтра: индекс может содержать 7-10 страниц сайта. Как проверить, не коснулся ли вашего сайта именно этот фильтр?
Достаточно ввести URL своей страницы . Если в показанных результатах будет меньше 10 страниц, но на самом деле их больше, то скорее всего фильтр АГС действует.
В настоящее время Яндекс обнуляет ТИЦ, но не выкидывает страницы из выдачи.

Факторы, привлекающие внимание данного фильтра:

  • Исходящие ссылки в слишком большом количестве.
  • Шаблонность страницы (при условии использования бесплатного шаблона).
  • Структура страницы. При условии, что почти все страницы находятся на расстоянии одного клика от главной.
  • Автоматическая генерация контента. Или неуникальный контент, взятый с других похожих страниц.
  • Разделы, которые никак не связаны с тематикой страницы (так называемые "продажные" страницы).
  • Дубли страниц с одинаковым содержимым, но с разными адресами.

Разработчики заявляют, что фильтр учитывает гораздо больше показателей и этот список далеко не полный. Но все эти характеристики свидетельствуют о том, что вы владелец "говносайта", который является нерелевантным.

Если фильтр "накрыл" хороший и полезный ресурс, лучше всего обратиться к Платону, использовав панель Вебмастера. Если сайт плохой, лучше забыть о нем, или попытаться сделать все, чтобы фильтр был снят автоматически.

Фильтры Яндекса "Переоптимизация" или "Переспам"

Каждую из санкций накладывают по определенным причинам. Также они имеют свое определение и причины, по которым они могут быть сняты.
Официально фильтр "Переоптимизация" анонсировали в 2011 году, в сентябре. Функционировать он начал гораздо позднее.

"Переспам" никогда не анонсировали официально, но это не помешало появления дискуссии, которая развернулась почти на 160 страниц. Площадкой для споров стал форум SearchEngines, который обрел огромную популярность после ожесточенных дискуссий. Функционировать фильтр начал в 2010 году.

Проявление фильтров

Как можно определить тип фильтра, который был применен к продвигаемому запросу или документу?

  • Наверное, это "Переспам"

Случилось резкое проседание одного продвигаемого запроса, он упал на 15-35 мест. Вполне возможно, что произошло изменение релевантной страницы, но в индексе все еще находится старая версия страницы.

Позицию сайта можно улучшить, если немного модифицировать продвигаемый запрос. Базовою версию [продвижение страниц самостоятельно] на [продвижение страницы самостоятельно] или на [страниц продвижение самостоятельно].

Это позволит оставить документ на приемлемой позиции по определенным запросам, которые будут вести на него. Выдача Яндекса продолжает давать ему относительно нормальный трафик, но произошло существенно ухудшение позиции основного запроса (она снизилась на текстовый АП).

  • Наверное, это "Переоптимизация"

Позиции продвигаемой страницы почти не меняются, несмотря на модификацию запроса (если поменять окончание), который будет вести к одному и тому же документу.
Случилось резкое проседание всей группы запросов, которые продвигали на один документ. Результатом падения стала потеря примерно 20 пунктов. Могло произойти изменение наиболее релевантной в выдаче страницы, по определенным запросам, но сам сайт по-прежнему в индексе.
Документ потерял определенный объем входящего трафика. Произошло проседание в конец первой страницы Топ-10.

Основные различия

Переоптимизация - санкция, которая накладывается на весь документ, ее нельзя считать запросозависимой. Штраф можно считать довольно несущественным. Определенные запросы могут остаться на первой странице поисковой выдачи.

Переспам - фильтр, который накладывается на определенную продвигаемую фразу. Данный фильтр является документозависимым и запросозависимым. Санкция будет незамедлительно снята, если немного модифицировать запрос. Штраф может оказаться существенным, возможна потеря 35 позиций.

Фильтр "Переспам" в основном накладывается всего на несколько запросов, достаточно просто изменить запрос, это повлечет за собой и соответствующее изменение позиций в выдаче.

Раньше фильтр снимали при помощи таких изменений: [поисковые запросы/] или [поисковые запросы ~~ чтопопало12367ghd], это помогало значительно улучшить позицию документа. Но сейчас это невозможно технически.

"Переоптимизация" будет снята, если использовать расширенный поиск. Нужно провести сравнение по релевантности между вашим сайтом, и страницей, находящейся немного выше в выдаче. В этом вам может помочь документированный язык поискового запроса Яндекс. Если ваша страница ниже страницы конкурента по продвигаемым запросам, то стоит применить расширенный поиск, если ваш проект окажется более релевантным - это может означать, что вы имеете дело с переоптимиацией.

Клиент: фабрика мебели на заказ. Сайт с каталогом продукции.

Пришел клиент, недовольный посещаемостью с поиска. Хотел разовые работы по SEO-оптимизации.

Начали изучать ситуацию с поисковым трафиком в Метрике. Сразу бросилось в глаза, что с Яндекса 99% посетителей приходит по брендовым запросам. Брендовые, или витальные запросы – это запросы, в которые входит название компании, по ним сайт по умолчанию в топ-1. А вот страницы товаров и категорий трафик из Яндекса почти не собирали. По запросам «купить диван», «мебель на заказ» и подобным коммерческим запросам сайта не было даже в топ-50.

Проверка сайта на фильтры Яндекса

Предположили, что сайт получил штрафную санкцию от Яндекса (фильтр). Поисковые системы наказывают некачественные сайты – понижают позиции по запросам или выкидывают из поиска. Причем требования к текстам ужесточаются. Так, в 2017 году Яндекс выкатил новый фильтр за переоптимизацию "Баден-Баден ".

Раньше наличие санкций можно было определить только по косвенным признакам. С 2015 года информацию о фильтрах показывает Яндекс Вебмастер в разделе «Нарушения». Правда не обо всех, поэтому перепроверять все равно надо.

Зашли в Вебмастер – действительно, фильтр.

Как вывести сайт из-под фильтра?

Недостаточно просто избавиться от переспама на сайте, нужно так же провести и внутреннюю оптимизацию – улучшить все, что возможно. После устранения нарушений нажать кнопку в Вебмастере «Я исправил». Если поисковик решит, что переспам действительно исчез, позиции восстановятся. Кнопку можно нажать только раз в 30 дней. То есть малейшая ошибка может затянуть процесс выхода из-под фильтра еще как минимум на месяц.

Поэтому мы делали плановые работы по оптимизации, параллельно анализируя причины фильтра. Санкции Яндекса описаны . Ориентируясь на симптомы, мы выделили 3 возможные причины:

  • Переспам
  • Переоптимизация
  • Неоригинальный, бесполезный контент

Выяснили у заказчика, использовал ли он спамные методы продвижения: сам или с помощью подрядчиков. Ответил, что раньше сайт вообще не продвигался. Тем не менее, мы все проверили: по опыту знаем, что клиенты часто умалчивают о предыдущей истории продвижения сайта. Они боятся, что мы будем перекладывать ответственность на прошлых подрядчиков. Дескать, это они вам сайт испортили, а не мы.

Бывает, что клиент и не подозревает о том, что его сайт продвигался черными методами.

Например, мог доверить наполнение сайта администратору, а тот сделал страницу обмена ссылками для раскрутки. Или добавил вредоносный код, устанавливая плагин. Или программист возомнил себя специалистом по продвижению и разместил скрытый текст с ключевиками на странице. Не разбираясь в SEO, можно наделать самому себе много неприятностей.

Анализ контента на спам

Начали проверять контент. Самые рапространенные методы черного SEO – это переспам в текстах, когда статью перегружают ключевыми запросами, либо размещают скрытый текст для роботов. Скрытого контента мы не обнаружили.

Перешли к проверке текстов на страницах категорий и товарных описаний. Клиент заказывал их написание у копирайтера и был уверен, что статьи уникальные, а значит качественные. Это одна из частых ошибок – считать, что уникальный текст и качественный это одно и то же. Показатель уникальности текста существует только для поисковых роботов, людям он ни к чему. Тексты копирайтеров по 100 рублей за 1000 символов, на 100% уникальны при проверке разными сервисами. Но они неинформативны и не несут никакой пользы читающему.

Раньше переспамленные тексты работали, и с их помощью можно было продвигать сайты. Современные поисковые системы рассматривают не только уникальность и наличие ключевых запросов, они оценивают, как на текст реагируют пользователи. Грубо говоря, если текст не читают, поисковик считает его бесполезным.

С совершенствованием поисковых систем требования к контенту повышаются. Меняется «порог спамности». Это термин, которым оперируют плохие SEO-копирайтеры. Означает этот порог – сколько максимум ключевиков можно впихнуть в статью, чтоб не забанили. Если писать текст естественным языком, не переживая о вхождениях запросов по ТЗ, понимая, зачем он нужен на странице, для пользователей, а не для роботов – поисковые системы это оценят. Если текст будут читать, ни о каких «порогах спамности» можно не думать.

На сайте мы имели дело с классическим дешевым SEO-копирайтингом. Страница с мягкой мебелью на заказ сообщала читателю о том, что «в ее объятиях мы расслабляемся после рабочего дня, беззаботно мечтаем, размышляем о времени или же просто наслаждаемся ее видом в своем любимом интерьере». И далее в том же духе. Это явно не то, что помогает посетителю выбрать мягкую мебель. Он и без текста знает, что на диване можно спать, иначе не хотел бы его купить.

Бинго!

При более подробном анализе мы нашли на сайте еще и скрытый из меню раздел со статьями. Статьи представляли собой огромные SEO-портянки о мебели, перенасыщенные ключевиками. Тоже одна из частых ошибок – вести блог для поисковиков, а не для читателей. Схема проста – берется набор запросов и под них пишутся статьи, неважно какого качества и о чем. Их задача только привлечь человека из поисковой системы по запросу. Однако со спамными статьями это не работает. Проверили по Метрике – за всю историю сайта этот раздел приносил жалкие крупицы трафика.

Итак, болевые точки найдены – мешает продвижению именно низкокачественный контент. Решили удалить скрытый раздел со статьями, а остальные тексты на сайте переписать. Однако клиент запротестовал, тексты в категориях товаров ему нравились. Договорились о компромиссе: не переписывать целиком, а убрать лишние вхождения ключевиков, таким образом снизить заспамленность. Скрытый раздел однозначно удаляем.

Что сделали

Работы по снятию фильтра

  • Анализ входящего трафика
  • Проверка на скрытый контент
  • Проверка на вирусы
  • Рерайт спамных текстов
  • Удаление раздела с SEO-статьями

Работы по внутренней оптимизации

  • SEO аудит, выявление проблем
  • Чистка дублей страниц
  • Заполнение метатегов
  • Оптимизация контента - заголовки, изображения, тексты
  • Настройка robots.txt
  • Настройка sitemap.xml
  • Оптимизация HTML кода

После выполнения всех работ нажали кнопку «Я исправил» в интерфейсе Вебмастера и стали ждать результатов.

В итоге:

Через месяц санкции сняли, и трафик с Яндекса по небрендовым фразам вырос. С 10 посетителей в неделю до 60. Рост трафика связан не только со снятием санкций, но и с работами по внутренней оптимизации.

Показов в поиске тоже стало больше. Это говорит о том, что поисковая система считает сайт качественным.

База для SEO построена. Теперь нужно продвигаться дальше, и дожимать запросы до топ-10.

Выводы:

  • некачественные тексты и манипуляции с контентом могут загнать под фильтр
  • требования поисковых систем к качеству контента постоянно повышаются
  • нужно мониторить состояние сайта через инструменты поисковиков: Яндекс Вебмастер и Google Search Console
Загрузка...