Прячем сетку сайтов саттелитов от стука конкурентов - блог СЕО ПРЕСС
Сен
01

Прячем сетку сайтов саттелитов от стука конкурентов

Август – воистину месяц отпусков. Но теперь я вернулся отдохнувшим и продолжаю активно вести блог.

Сегодня поговорим о саттелитах. Саттелитная тема затронута практически у каждого блоггера-манимейкера, но что меня удивляет, так это отсутствие точного определения этого термина. эмблема стукачейУ одних саттелит – это клонированный гавносайт с неуникальным контентом, у других, напротив – чуть ли не сайт, сделанный для людей (СДЛ), а не для “рубки бабла” на нем. Так вот для меня само слово “саттелит” ассоциируется со спутником планеты (вспоминаем астрономию), и в моем понимании сетка сайтов-саттелитов – это группа сайтов, сделанная специально для прокачки одного (главного) сайта или друг друга. Основная задача сетки сайтов саттелитов – получить с них прибыль в денежном или ссылочном эквиваленте раньше, чем вся сеть будет забанена в Яндексе.

Почему же Яндекс не жалует саттелиты, и даже качественная сетка при должном усердии может отправиться в бан? Дело в том, что прокачка главного сайта саттелитами – есть не что иное, как вид ссылочной накрутки, т.е. искусственное повышение ранга главного сайта. А неестественные ссылки (SEO-ссылки), по мнению Яндекса – зло и с ними нужно бороться.

Советов по снижению рисков бана сетки в блогосфере можно найти довольно много, начиная от наполнения саттелитов уникальным контентом, отсутствием перелинковки и заканчивая размещением их на разных IP. Несмотря на то, что яндексоиды утверждают, что, в основном, сайты банятся автоматом, в бане части сеток не последнюю роль играет стук конкурентов. Каким же образом они вычисляют сеть?


Все довольно просто, при анализе конкурентами ссылочной массы на ваш главный сайт (под который и сделана сетка саттелитов) ссылки на саттелиты прекрасно всплывают и благополучно отправляются “на суд” Яндексу. А какая поисковая система является наиболее полным источником получения беклинков на сайты конкурентов в данный момент? Естественно Yahoo. Поэтому чтобы конкуренты не добрались до вашей сетки, нужно просто запретить ее индексацию в Yahoo (если конечно вам не нужен мизерный трафик с него). Запретить индексацию сайта в Yahoo довольно легко, прописываем в файле robots.txt каждого саттелита из сетки вот такую комбинацию:

User-agent: Slurp
Disallow: /

и стука конкурентов больше не боимся.

Полюбился СЕО Пресс? Подпишись на RSS.

Полезно к прочтению:

Понравилось? Подпишись на обновление через: Rss E-mail

Оставить комментарий:

Комментарии:

  • DeSoNet говорит:
    02.08.2011 | 23:16

    ну если конкуренты вас люто ненавидят, то найдут способ как спалить сетку и без помощи яху.

  • Vitalik говорит:
    03.01.2011 | 00:45

    Рамблер тоже показывает внешние ссылки, ведущие на сайт. У него это называется “упоминание домена в гиперссылках”.
    Так что кроме yahoo имеет смысл закрываться и от рамблера, трафик с него есть конечно, но очень небольшой.

  • Денис говорит:
    26.12.2010 | 03:04

    Антон, по стуку вряд ли, скорее автоматически могут

    Игорь, Яху показывает ссылки на сайт, а вот с сайта hlep.ru он ссылки не покажет, потому что он не в индексе Яху

    http://search.yahoo.com/search?p=site%3Ahlep.ru&fr=siteexplorer

    в общем, вы немного путаете эти вещи.

  • Игорь говорит:
    25.12.2010 | 23:11

    Добрый вечер.
    Посмотрел сайт Webman’a http://hlep.ru/ у которого в robots.txt стоит:
    User-agent: Slurp
    Disallow: /
    User-Agent: yahoo! slurp
    Disallow: /
    User-agent: vscooter
    Disallow: /
    User-agent: msnbot
    Disallow: /

    Но при этом яху все равно показывает ссылки
    http://siteexplorer.search.yahoo.com/search;_ylt=A0oG7zdYQRZN3YAAmFbal8kF?p=hlep.ru%2F&fr=sfp&bwm=i

    Очень интересно как у вас обстоят дела? Может роботу яху побоку robots.txt?

  • Антон говорит:
    25.11.2010 | 00:59

    так и сделал, но что-то все равно видны ссылки.
    Как думаете могут понизить сайт в выдаче по стуку за покупные ссылки?

  • Дулещк говорит:
    06.06.2010 | 14:16

    У меня сайи на Иврите,как бы его раскрутить
    Вот я создал несколько еще сайто,и с них есть штук 7-9 ссылок в статьях на мой главный сайт,может это плохо расценивается поисковиками,может удалить все это дело?
    Готов принять предложение по раскрутке моего сайта,недорого

  • Денис говорит:
    28.12.2009 | 01:22

    Webman – скупаться на сайтах, у которых robots.txt как в примере у Kostandov …
    Хотя боюсь даже это не поможет, Сеопульт все равно спалит, он базу Сапы распарсивает и вытаскивает оттуда все ссылки. Соответственно те, кто пользуется анализом конкурентов через Пульт ссылки увидят.

  • Webman говорит:
    26.12.2009 | 17:25

    Kostandov теперь у нас роботсы одинаковые =)
    Статья очень помогла…
    Такая ситуация – скупаюсь на сапе но хочу это скрыть – это реально?

  • Kostandov говорит:
    05.11.2009 | 20:00

    Абсолютно! Нужно отрубать и Яху и Бинг. А Бинг еще парит тем, что палит общее количество исходящих с сайта. Так что мой robots.txt однозначно такой:

    User-agent: Slurp
    Disallow: /

    User-Agent: yahoo! slurp
    Disallow: /

    User-agent: vscooter
    Disallow: /

    User-agent: msnbot
    Disallow: /

  • Max1m говорит:
    28.10.2009 | 16:37

    Сейчас Yahoo можно еще и Bing добавить(через него тоже сетки вычисляются)

  • Денис говорит:
    18.10.2009 | 21:42

    носорожка, не, куча примеров когда с большим трафиком сайты влетели под АГС 17, имхо определяющий фактор точно не этот, хотя как один из совокупности факторов можно принять

  • носорожка говорит:
    18.10.2009 | 05:54

    Денис, вышеизложенная тема еще актуальна? Я 3 год работаю в системе образования))
    Много знаний в голове, язык подвешен. Собираюсь сделать блог в 1000 страниц по 800-1000 символов на каждой.
    ***
    Агс-17 немного настораживает своим подходом к сайтам без трафика. Как-то по сео пульту смотрел, что гугл в свое время массово внедрил бар в браузеры пользователей. Таким образом на сайт без трафика накладывался фильтр, лишающий страничку права голоса и привелегии передавать вес. Докладчик там еще выразил опасение, что вроде как Яндекс может в новый Эксплорер закинуть такую же штуку. Вроде такой метод он Флоридой называл. Я вот что подумал сам уже. Чтобы собрать статистику нужны годы+эксплорер теряет популярность у обычных пользователей. Вывод:Флорида от Яндекса накрывается. Делать что-то надо и наши охламоны делают агс-17. Может я чего путаю, но мне кажется, связь какая-то есть. Ведь, страницы даже трастовых сайтов, не участвующих в каких-либо поисковых запросах вылетают из индекса. То есть выходит примерно такая же фигня: нет трафика на странице=>значит пользы от нее для людей-посетителей нет=>из индекса вон. Если на сайте 100 страниц, где в поиске 1, а остальные 99 ее накачивают, то и весь сайт можно в бан отправить. Че-то меня прогрузило)))

  • Денис говорит:
    30.06.2009 | 19:16

    Попробуй так

    User-agent: Scooter
    Disallow: /

  • Сергей говорит:
    30.06.2009 | 17:11

    А как закрыть сайт от AltaVista не подскажешь ?

  • Константин говорит:
    10.03.2009 | 15:27

    Лучше конечно закрывать сайт от индексации в яхо, трафа нет, а вот конкуренты могут начать анализировать сайт, поэтому от греха подальше

  • phpdev говорит:
    10.02.2009 | 22:20

    Спасибо за совет. Свои сайты с продажными ссылками я точно все закрою от индексации yahoo…

  • Денис говорит:
    15.12.2008 | 15:44

    Жека, а каким образом вы предлагаете вручную проверить?

  • Жека говорит:
    15.12.2008 | 05:34

    А что мешает вручную проверить все беки?

  • Волжский говорит:
    29.11.2008 | 19:04

    Действия яндекса вообще не поддаются обьяснению.”Белые” сайты вылетают из индекса, “афро” в топе. На серче по поводу закрытия от индексации яху, улыбнулись, мол “и типа и это всё?? ))” .. Наверняка есть способ..

  • rikki говорит:
    06.11.2008 | 17:06

    Если перелинковка не работает, и с помощью ее можно вычислить, то тогда все сайты в сети потенциально перелинкованы. Вообще со стороны яндекса это бред так банить, чисто по стуку, не разобравшись.

  • Денис говорит:
    27.10.2008 | 20:34

    >То есть получаются так называемые сео ссылки. Так моя вина то в чем? нелогично!

    с точки зрения Яндекса ваша вина в том, что ссылки бесполезны для пользователя вашего сайта, и поставлены исключительно для обмана поисковой машины

  • Katya говорит:
    27.10.2008 | 01:26

    Значит так, у меня допустим 20 сайтов. Не сателлиты, все имеют свой вес и важность и необходимость. Но я размещаю ссылки на них на каждом их них. То есть получаются так называемые сео ссылки. Так моя вина то в чем? нелогично! Что на себя уже ссылатся нельзя боясь яндекса? нафиг такой яндекс!

  • Денис говорит:
    25.10.2008 | 21:39

    seolamo, не соглашусь, смысл запрещать сам сайт индексироваться Яху? нужно запрещать индексацию донорам, чтобы при анализе выяснялось, что сайт в ТОПе, а ссылок на него нет :) А если запретить к индексации сам сайт, незапрещенные то доноры все равно можно будет посмотреть.

  • seolamo :) говорит:
    25.10.2008 | 00:01

    Если придерживаться терминологии, озвученной в начале статьи, а именно: “сетка сайтов-саттелитов – это группа сайтов, сделанная специально для прокачки одного (главного) сайта”, то запретив яху для сателитов, надо ставить запрет и для основного ресурса, что в результате ведет к облому с анализом бэков. Просто мысли в слух…

  • Мескалинка говорит:
    08.10.2008 | 15:37

    Спасибо за интересный совет! Только, как мне кажется, от Яндекса так не спрячешься… а если не ставить ссылки – то какой смысл в сетке сателлитов?

  • DeNsKoY говорит:
    26.09.2008 | 22:10

    Темочный материальчик такой)) Понравилось))) Автор, дай номер аськи, нам явно есть что обсудить))))

  • Денис говорит:
    15.09.2008 | 16:38

    Ромыч, можно рерайт делать, как говориться, что посеешь, то и пожнешь

  • Ромыч говорит:
    15.09.2008 | 09:51

    Писец уникального контента на все сайты набрать это долбануться можно

  • stussy говорит:
    11.09.2008 | 13:37

    сразу после прогона всех сателлитов по каталогам. из 18 осталось штуки 3 в индексе. ну и неуникальный контент был

  • Маляр говорит:
    08.09.2008 | 01:59

    2 stussy: а по каким причинам БАН состоялся. поподробней опиши, а то не хотелось бы повторить твоей ошибки.

  • seoarena говорит:
    05.09.2008 | 14:21

    Рома, например какие?

  • Рома говорит:
    04.09.2008 | 19:15

    ну, некоторые детали можно было бы и поподробнее описать

  • seoarena говорит:
    03.09.2008 | 10:49

    stussy, эт просто шутка была:)

    просто как тут проверишь этот метод? 100 гарантии думаю никто не даст что по другим причинам не забанят\не стукнут.

    если обидел – приношу извинения

  • Денис говорит:
    03.09.2008 | 02:33

    Зотин, здесь http://help.yahoo.com/l/us/yahoo/search/webcrawler/slurp-02.html именно Slurp

  • Денис говорит:
    02.09.2008 | 19:11

    да проверен, знакомым сеточником, пока держатся сайты :) кстати вашу сетку могли забанить не только по стуку конкурентов, на то мог быть десяток других причин

    а про спамера это все вопросы к seoarena :)

  • stussy говорит:
    02.09.2008 | 18:59

    с чего это я спамер?
    У меня есть сетка сайтов, которую забанили. Я не могу поинтересоваться проверен ли метод?

  • Денис говорит:
    02.09.2008 | 16:08

    seoarena, раньше по крайней мере не спамером был, теперь не знаю :)

  • seoarena говорит:
    02.09.2008 | 11:39

    мысль закралась, а может stussy спамер? :)

  • seoarena говорит:
    02.09.2008 | 11:38

    Денис, спасибо большое за доходчивое объяснение! :)

  • Зотин говорит:
    01.09.2008 | 22:19

    А разве не User-agent: Yahoo! Slurp ?

  • Денис говорит:
    01.09.2008 | 16:36

    stussy, что конкретно?

  • stussy говорит:
    01.09.2008 | 16:33

    На личном опыте проверено?

  • Денис говорит:
    01.09.2008 | 16:30

    seoarena, после закрытия операторов #link в Яндексе (примерно год назад), софта, который тащил бы хотя бы половину беков, которые знает Яндекс, из самого Яндекса просто не существует, были некоторые попытки его создать (см. http://mexboy.ru/?p=68), но ничего из этого не вышло. Тоже самое и с Гуглом. А посему запрещать индексацию роботам этих поисковых систем совершенно бессмысленно и бесполезно, тогда просто ссылки работать не будут :)

    Если вы знаете алгоритм, по которому можно реально вытащить почти все яндексовские беки, поделитись идеями и многие признают вас гением :)

  • seoarena говорит:
    01.09.2008 | 16:11

    Неужели нет софта позволяющего анализировать входящие ссылки? Ведь это можно достаточно просто сделать, анализируя выдачу поисковиков? например Гугла или Яши, всех же не запретишь в robots.txt?