Восемь факторов, влияющих на попадание сайта под фильтр АГС-17 - блог СЕО ПРЕСС
Окт
19

Восемь факторов, влияющих на попадание сайта под фильтр АГС-17

причины наложения фильтра Яндекса АГС-17
При поддержке: Студия «FlashBoom» изготовит flash баннеры, которые привлекут внимание потенциальных клиентов.

Много уже сказано про фильтр Яндекса АГС-17, много гипотез выдвинуто по поводу причин его наложения на ресурс и даже предложено несколько сомнительных, на мой взгляд, рецептов по лечению этого «недуга», но мне хотелось бы обобщить все возможные факторы, за которые могут последовать санкции в виде АГС-17. Знание негативных факторов позволить предупредить опасный фильтр.

Фильтр АГС-17 оставляет в индексе Яндекса ограниченное количество страниц сайта, остальные же документы ресурса классифицируются как не имеющие для пользователей дополнительной ценности. Любопытной особенностью АГС-17 является тот факт, что он работает независимо от апдейтов выдачи, и на его наложение влияет совокупность ряда негативных факторов. Кроме того, есть основания предполагать, что алгоритм фильтра АГС-17 самообучающийся, т.е. он способен подстраиваться под любые массовые шаблоны «клепания» гавносайтов.

Каковы же могут быть основные причины, которые могут способствовать опасному «недугу»? Ниже привожу список негативных факторов в порядке уменьшения значимости (т.е. чем ниже порядковый номер фактора, тем меньшее влияние, по-моему мнению, он оказывает на наложение АГС-17):

  1. Использование на сайте не уникального контента, позаимствованного с других сайтов. Ярким примером ресурса, попавшего под АГС-17, в основном, по этой причине является всем известный социальный проект – news2.ru. Причем поскольку с определением первоисточника у Яндекса часто возникают проблемы, то сайт автора совсем не застрахован от фильтра АГС 17, если множество ресурсов скопировало у него контент. Особенно эта проблема должна вызывать опасение, если ресурс автора обладает другими негативными факторами, которые могут способствовать фильтру.
  2. Массовое дублирование контента в пределах самого сайта. Облако тегов, календарь, архивы сайта по месяцам, версии страниц для печати и так далее лишь бы было побольше страничек второго и третьего уровней (ну вы поняли о чем я!). Все это способствуют созданию на сайте массы дублированного контента, которая неинтересна пользователю, а следовательно, и Яндексу.
  3. Размещение сео-ссылок на ресурсе. Если вы продаете большое количество ссылок со своего сайта на ресурсы, которые Яндекс классифицировал как покупающие ссылки, то ваш сайт скорее всего будет «заподозрен» в размещении сео-ссылок. Поэтому если вы используете Сапу для монетизации своего проекта, то лучше продавать ссылки потихоньку, с ручной модерацией.
  4. Малое количество контента на страницах сайта. Ярким примером подобных сайтов, пострадавших от АГС-17, являются ресурсы-фотогалереи, которые практически не содержат текста. В рамках поста о дублированном контенте я уже приводил пример о проблеме включения подобных страниц в индекс Яндекса.
  5. Низкое качество, малое количество или полное отсутствие внешних ссылок на ваш сайт приводит к тому, что «в глазах Яндекса» ресурс не обладает должным авторитетом для пользователей, поэтому ничего страшного не случится, если при наличии других негативных факторов на него будет наложен АГС 17.
  6. Подобие сайта каталогу ссылок. Если ваш ресурс по структуре смахивает на каталог ссылок, пусть и с уникальными описаниями сайтов и непрямыми ссылками, то ему может непоздоровиться. Яндекс уже давно и очень сильно не любит каталоги ссылок и отправляет их в бан или под фильтр АГС-17.
  7. Использование сайтом шаблонных урлов общеизвестных движков, таких как DLE, WordPress, Joomla и т.д. Большое количество гавносайтов делается именно на подобных движках, поэтому, вероятно, алгоритм фильтра АГС-17 с подозрением относится к подобных ресурсам и тщательно их проверяет на наличие других негативных факторов.
  8. Малая посещаемость сайта или полное ее отсутствие. Находясь на месте Яндекса, логично предположить, что сайты с низкой посещаемостью неинтересны для пользователей или вовсе созданы не для них, поэтому наложение на подобные ресурсы фильтра АГС-17 никак не отразится на удовлетворенности пользователей, использующих Яндекс для поиска информации.


Быть может у вас есть наблюдения о влиянии других факторов на наложение фильтра АГС-17, тогда пишите о них в комментариях – обсудим.

Кстати, по-прежнему, продолжается акция по исследованию стоимости рекламы в блогах! Спасибо всем отписавшимся и приславшим анкету. Также жду подобных действий от тех, кто это еще не успел сделать.

P.S.: Зачитался СЕО Пресс? Подпишись на RSS!

Любопытное по теме:

Понравилось? Подпишись на обновление через: Rss E-mail

Оставить комментарий:

Комментарии:

  • Денис
    говорит:
    27.09.2012 | 20:53

    Дмитрий, фильтра не будет…

  • Дмитрий говорит:
    21.09.2012 | 07:43

    А если много статей твитнуть например в день 500 статей рн может попасть под фильтр?

  • Владимир говорит:
    17.11.2011 | 20:59

    Я заметил, что когда на уникальном сайте (500 страниц) произвел резкую внутреннюю перелинковку, то встал под АГС. Фильтр сделан так, что если Вы автоматом что-то намудрите, то срабатывает один из факторов производства Дорвеев, например. Так что резких движений не совершайте, лучше 10 раз подумать.

  • Антон говорит:
    11.03.2011 | 19:17

    А как на счет срока наложения фильтра, сколько он действует, и реально ли домен из него вывести, кто знает?

  • Вася говорит:
    05.01.2011 | 15:32

    А если у меня на сайте видео и из текста там только заголовок то я обязательно попаду под фильтр АГС-17???

  • lev говорит:
    19.08.2010 | 10:46

    1. Думаю, двиг значения не имеет. Ведь тысячи сайтов сделаны на них, и, тем не менее, это не мешает им хорошо ранжироваться. Разве что, если он позиционируется как двиг для сателлитов.
    2. Насчет посещаемости. На сайте, который я указал в поле «сайт» посещаемость – менее 10 человек в день. Тем не менее это не мешает находиться ему в топ10 некоторых запросов (1000-2000 человек в месяц). Вопрос в том, как ходят по ресурсу эти крохи. Если они остаются там хотя бы сколь нибудь продолжительное время, переходят на разные страницы – то, значит, на нем есть информация, интересная посетителям, а, значит, в индексе он будет.

  • Серега говорит:
    09.04.2010 | 20:08

    Все вышеперечисленные факторы, конечно нужно учитывать, но все равно создалось впечатление что АГС сливает сайты без разбору.

  • Роман говорит:
    19.02.2010 | 18:19

    Три дня назад попали под фильтр 7 сатов. В индексе от 0 до 3-х страниц. Вчера полностью прочитал ветки по этой теме на серче и форуме сапы. Однозначно понятно только одно – ни фига не понятно как с этой хренью бороться. Под фильтр попадают практически любые сайты. Единственный более менее действенный вариант – писать Платону, от всего остального толку нет. Теоритически, все факторы описанные в статье влияют на попадание сайта под фильтр, а практически, даже следуя всем этим правилам, ни каких гарантий неналожения фильтра нет. И еще заметил странную особенность, все обсуждения этого вопроса на форумах, обрываются концом девятого года, свежей инфы ни где не нашел.

  • Денис
    говорит:
    28.01.2010 | 21:24

    Просто блоггер, а вы просто перенесите сайт на свеженький домен, а потом подклейте к нему забаненный (или под АГС) домен с ТИЦем и ТИЦ не пропадет ;)

  • Просто блоггер говорит:
    28.01.2010 | 17:39

    Уже вышло несколько версий фильтра АГС (17, 30, скоро ещё что-то будет), но Интернет до сих пор не пришёл к единому мнению. Одни утверждают, что сайты в принципе нельзя вывести из-под этого фильтра. А если такое чудо и происходит, то это глюк, помноженный на глюк Яндекса. То есть сначала по ошибке кастрировали, а потом вернули на место.

    Другие же считают, что есть действенные методы, которые гарантированно помогают сайтам. Лично я пробовал и смену ЧПУ, и обновление контента на регулярной основе, и переписывал мета-теги, и даже запрещал индексировать боту Яндекса сайт, чтобы он забыл его (так называемый SEO-рестарт), и убирал всевозможные дубли (теги, пагинацию, календарь, анонсы в рубриках и так далее).

    И ничего не помогло. Сейчас прочитал об эксперименте очередного бомжа. Якобы он купил 200-300 ссылок на внутреннюю страницу сайта под АГС и через несколько Апов она попала в индекс. Он считает, что так можно вернуть все страницы, хоть они и запрещены к индексации, если их добавлять в аддурилку.

    Как думаете, это поможет? Стоит ли тратить время, силы и деньги? А то после Апа тИЦ забаненные и зафильтрованные домены за счёт естественных ссылок получили прибавку тИЦ. Как-то жалко сдавать их без боя.

  • игорь говорит:
    14.12.2009 | 22:35

    > Малая посещаемость сайта или полное ее отсутствие.
    На мой взгляд бред!!!! все ресурсы начинали с нулевых хостов в сутки, а если учесть что поднимать сайт (как предпологает ПС) вручную(создавая видимость естественной работы), что очень долго и понятно что на первом этапе посещаемость будет нулевая…

    2) По поводу ссылок с известных движков! Не знаю, не буду утверждать что вранье. Но где доказательсвта. Если сайт сделан от души и для людей, постоянно обновляться, то он будет жить. Вот главнй фактор

  • харьков говорит:
    29.11.2009 | 16:04

    на счет посетителей. на некоторых сайтах её определить невозможно. а на счет того что яндекс пользуется статистикой ли.ру это я уже где то слышал.

  • tokito говорит:
    12.11.2009 | 04:58

    7im0n, попадение в ЯК никак не защитит от АГС. Примером тому всем известный news2.ru, который давно находится в ЯК, но всё равно попал под АГС. Сейчас у него проиндексировано целых 10страниц.

  • 7im0n говорит:
    08.11.2009 | 18:24

    АГС-17 очень косячный фильтр, под него попадают даже крутые уникальные сайты, так что я думаю способов защиты, кроме как попасть в як нет.

  • tokito говорит:
    08.11.2009 | 17:04

    Так же, думаю, использование шаблонного дизайна сайта тоже АГС не приветствует.

  • Prod говорит:
    08.11.2009 | 11:50

    А я прочитал интересную мысль про фильр АГС 17 apollo-8.ru/index.php?option=com_content&task=view&id=1597&Itemid=99 с одной стороны много сайтов вылетело из индекса, но ведь ссылки на сайтах, которые под фильтром продолжают работать. Да, может быть вес таких ссылок и меньше, но если ссылки прогнать через яззл и снять, то позиции падают.

  • Иоан говорит:
    07.11.2009 | 00:24

    «Размещение сео-ссылок на ресурсе» – наверное один из главных

  • Денис
    говорит:
    31.10.2009 | 01:13

    AleX, смотря какой синонимайзер, но не исключено…

  • AleX говорит:
    30.10.2009 | 18:47

    Скажите если у меня на сайте новости пропущены через синомайзер, то я могу попасть под фильтр?

  • вадим говорит:
    27.10.2009 | 12:33

    Из всех факторов стапроцентным фактором является четвертый вариант т.к. мой ресурс не взаимодействует ни с одним фактором кроме четвертого и находится под данным фильтром. (ресурс в имени). Еще как основной фактор могу назвать «отсутствие ссылок на внутренние страницы сайта». хотя если ньюсдва попал то тут уже идет дублирование 100 процентов. Пробую лечить трастовыми ссылками на внутряк, считаю это оптимальным вариантом.

  • Дмитрий говорит:
    23.10.2009 | 18:47

    > Малая посещаемость сайта или полное ее отсутствие.
    С этим полностью не согласен

  • Интернет-оптимист говорит:
    23.10.2009 | 16:34

    Когда в конце августа-начале сентября стали выпадать сайты из индекса, писал Платону Щукину. Отвечали отписками, но всё-таки регулярно. Даже несколько раз зафиксировал, что на сайт заходил настоящий человек.

    Потом грянул АГС-17. Сайты стали не полностью выпадать из индекса, а худеть до 1-10 страниц. Также стал атаковать техподдержку, но на этот раз никто не ответил. К сожалению, так ничего и не вернулось.

    Судя по темам на форумах, массовый бан и кастрация сайтов прекратились. По крайней мере, нет плача Ярославны. Думаю, что можно постепенно покупать домены и переносить на них контент с пострадавших сайтов.

    Но что будет потом? Очередное сезонное обострение Яндекса? Будем надеяться, что осеннее уже прошло. Стало быть, нас ждёт весеннее. По крайней мере, в 2009 году я его застал, хорошо помню. Думаю, что в связи с кризисом в 2010 году нас тоже «порадуют» очередным глючным алгоритмом, который начнёт косить как ГС, так и добротные сателлиты с СДЛ.

    Самое обидное, что никто никогда даже не извинится, ибо зеркало Рунета ни за что не отвечает. Мол, если вам что-то не нравится, то идите ловить посетителей с Google. А основная масса пользователей по-прежнему сидит на Яндексе. И когда только прекратится этот тухлый монополизм?

  • носорожка говорит:
    23.10.2009 | 05:28

    Во чела *** проперло-)
    Хамло [йо]пт…
    А я слышал версию, что агс-17 косит сайты, где реально двигаются и участвуют в ранжировании только несколько страничек, а остальные созданы для накачки. Как было верно подмечено, что *перелинковкой себя за волосы не вытащишь*, тем не менее, она лихо экономит бюджет, а иногда и неплохой нч может может вытолкнуть в топ. Обосновать наличие таких страниц можно внешними ссылками на них. Думаю, сеошники будут теперь более осторожны при накрутке веса. Опыта, конечно, еще мало, но я считаю, что Яндекс не смотрит на количество посетителей напрямую. Чтобы пользоваться статистикой бара, он должен быть внедрен массово. Другое дело, может Яндекс определяет семантическое ядро странички заподозренного сайта и сверяется с данными со своими данными директа. Если запрос, имеющийся на страницах, не ищется, то страничка вылетает. Если же таких страниц очень много, то вылетает и весь сайт. Я решил заполнять сайт только полезным контентом, который ищется. Лучше побольше денег на ссылочное тратить, но не париться за агс-17. Ну а наличие уник контента это вообще уже, как первое правило должно быть у всех.

  • SeoТурист говорит:
    22.10.2009 | 23:08

    По поводу ворованного контента соглашусь.
    А вот что касается малонаполненных ресурсов и ресурсов с малым посещением не согласен. Тысячи ресурсов с такими факторами отлично себя чувствуют и будут продолжать чувствовать себя в полном здравии.
    Эти факторы особо не влияли и не будут влиять.

  • Дмитрий говорит:
    22.10.2009 | 22:25

    Денис, я переводил сайт с html на shtml потом на php. После перевода на php появились ошибки (поисковик не мог найти страницы), но после нескольких апов стало все нормально, + я карту сайта сделал. Яша наложил фильтр, тогда как гугл и рамблер нормально индексируют. В принципе хотелось чтобы статьи находились в индексе. Читал на shipilov.com о том что из «предбанника» сайты возвращаются, на месяц, а потом снова в предбанник, если агс-17 найдет какой-нибудь недочет. Сроки возвращения от 2 месяцев. Ну подожду ещё месяц, потом «платонам» отпишу.

  • Денис
    говорит:
    22.10.2009 | 16:20

    Дмитрий, а старые страницы после смены движка удалили? Если нет, то могли из-за многочисленных дублей страниц под фильтр загнать

  • Дмитрий говорит:
    21.10.2009 | 22:47

    Предполагаю, что мой сайт попал под агс-17. Контент проверял антиплатиатом – уникальный. Спамом не злоупотреблял, повторение ключевых слов не превышает нормы=). Внешних ссылок немного, есть с pr2 и pr3. Движок самописный. Продажей ссылок не занимаюсь. Посещаемость близка к 0, из-за высокой конкуренции. Месяц назад перевел сайт на php, после чего все страницы и повылетали. Или это совпадение – может в этот день агс и посетил мой сайт. Писал Платону – получил шаблонный ответ, «наше понимание качественных сайтов»… Другие поисковики сайт нормально индексируют. Жаль нет автоматической проверки сайта в вебконсоли яндекса, чтобы установить причину наложения фильтра. Кто-нибудь в курсе каков срок действия этого фильтра если только он не навечно. Писать Платону нет желания…

  • Vitaliy говорит:
    21.10.2009 | 12:11

    АГС-17 страшная штука но пока под нее не попал! спасибо за советы буду прятаться)))))

  • Ялыпарк говорит:
    20.10.2009 | 16:00

    Скажите мне пожалуйста, чем АГС-17 отличается от гугловского самплиментал?

  • Денис
    говорит:
    20.10.2009 | 15:10

    ***, скажу, что комментарии не по теме будут удаляться ;)

  • *** говорит:
    20.10.2009 | 15:00

    *** ты даже можешь по айпи город определить да ты гуру. А если я скажу что сижу не из этого города, что на это скажешь?

  • Денис
    говорит:
    20.10.2009 | 13:55

    Kunitsa, по существу неуникальность Title это и есть второй фактор из 8 (Массовое дублирование контента в пределах самого сайта), по поводу пункта 2 не понял, что имеется ввиду :)

  • Kunitsa говорит:
    20.10.2009 | 01:26

    Наблюдений нет, есть размышления на тему, итогами которых стали несколько предположений, касательно мета-тегов, хотелось бы услышать ваше мнение:
    1.Неуникальность мета-тегов, в частности Title. Когда вторые страницы содержат тот же Title, что и Главная, например.
    2.Отсутствие КЗ, размещенного в Title, в тексте страницы.

  • Денис
    говорит:
    19.10.2009 | 23:08

    уважаемый тульский школьник ***, спасибо за позитивный деструктив – очень весело читать, пиши еще :)

    единственно, все нецензурные выражения были удалены ради уважения к читателям блога

  • *** говорит:
    19.10.2009 | 21:02

    все 8 пунктов полный бред и высер, особенно я поржал на первым пунктом (сеошники ***, обосышься), про статсу яша знает очень много и не только из бара, но один *** 8 пункт ***, кончай писать бред ради того чтобы получить свои копейки с реклов, должно же быть чувство самоуважения

  • Денис
    говорит:
    19.10.2009 | 17:21

    SEOinSoul, у Яндекса есть Яндекс.Бар, да, немного тех, у кого он стоит (кстати, а так ли немного!), но по идее данные о посещаемости ресурсов он оттуда выцеплять может.

    Кстати именно по причине, что этот фактор маловероятен, я и поставил его на последнее место по значимости.

    К примеру набор из факторов: много дублированного контента + продажа ссылок + отсутствие посещаемости – чем не сигнал о том, что сайт создан для продажи ссылок.

  • SEOinSoul говорит:
    19.10.2009 | 16:48

    Денис, а у меня вопрос, как же может влиять посещаемость ресурса, точнее как о посещаемости вообще может знать Яндекс ? Да, он знает о переходах на этот сайт с самого себя, ну он же не может знать, что на сайт например приходили с Вконтатке или просто по прямым ссылкам – а с других источников посещаемость также ведь может быть не маленькая!
    Плюс сайты, которые например узко-специализированные и не предполагают даже среднюю посещаемость, что они разве сразу могут быть подвержены этому фильтру ?
    Имхо, но посещаемость не влияет даже как малейший фактор…

  • Денис
    говорит:
    13.01.2011 | 14:21

    Вася, если при этом сайт новый и вы массово начнете продавать ссылки в Сапе, то риски велики.