мая
23

Итоги эксперимента с SERPclick – результат нулевой

Друзья, подвожу итоги эксперимента с новым сервисом по накрутке поведенческих факторов. Тематика сайта – ремонт стиральных машин. Ниже динамика позиций в месяцы эксперимента, по наиболее интересным запросам (сразу скажу – это общие запросы и запросы по маркам, типа [ремонт стиральных машин bosch]). Как видите, динамика нулевая: что-то вверх, что-то вниз, но до ТОП 20 ничего не добралось:

Может народ ломился по другим целевым запросам? Смотрим на посещаемость по

Читать запись полностью »

Мар
06

SerpClick – месяц с начала накрутки! Полет не «ВАУ», но нормальный

Прошло даже чуть больше месяца с момента запуска эксперимента. Делюсь результатами.

В Яндексе – позиции подросли по низкочастотным запросам, тогда как конкурентные высокочастотные запросы пока никуда не двинулись.
В Google – сайт запингвинен, поэтому вряд ли там что-то, куда-то вообще двинется в ближайшее время.

Скриншот прилагаю ниже:

Следите за результатами эксперимента.

Янв
31

Новый сервис по накрутке поведенческих факторов. Анонс эксперимента!

Друзья! Я принимаю участие в тестировании нового сервиса по влиянию на поведенческие факторы и буду отписываться о результатах тут.

Что-то много сервисов по накрутке поведенческих факторов появилось в последнее время…

После объявления Садовского об отмене учета в ранжировании ссылочных факторов на первый план выходят поведенческие факторы. Других возможностей пробиться в «законсервированные» ТОПы по конкурентным запросам не остается. Разработчики агрегаторов и сервисов это понимают и предлагают новые продукты на рынке. На мой взгляд, инфраструктура по накрутке поведенческих факторов нанесет, куда больший вред Интернету, чем биржи ссылок. Если биржи стимулировали рост «мусорных» сайтов, то сервисы по накрутке будут провоцировать масштабные взломы компьютеров и аккаунтов пользователей с целью эмуляции их поведения на сайтах или поисковой выдаче. Но это не мы – такие, это Яндекс – такой!

А чем отличается этот сервис от всех остальных?

Во-первых, все задания выполняют реальные пользователи. Во-вторых, ребята не «палят» своих исполнителей, т.е. они никак не связаны с сервисом, что является дополнительной защитой от неучета таких пользователей в расчете поведенческих факторов. Ну и вообще, в целом, у них много планов. Самое главное, чтобы сервис давал результат. Вот это мы с вами и проверим.

Как долго будет длиться эксперимент? И когда будут результаты?

Эксперимент будет длиться 3 месяца, с 1-го февраля по 30 апреля. Первые результаты можно оценивать после 1,5 месяца использования сервиса, о чем я буду с вами делиться. Вообще по плану в начале каждого месяца будут публиковаться отчеты в «обезличенном» формате. А в конце эксперимента готовьтесь к итоговому отчету (начало мая), где будет спален и сам адрес сайта.

Да, вот ссылка на сервис (осторожно, реф. ссылка!).

Завтра, старт! Следите за ходом эксперимента.

 

Янв
04

Проверяем качество ссылок с помощью SeoHammer

В среде сео-специалистов существуют множество пониманий качества ссылок. Одни считают, что качественные ссылки – те, которые расположены на площадках с высоким ТИЦ, другие – те, по которым кликают реальные пользователи, третьи – те, которые расположены на сайтах с высокой посещаемостью. Каждый в какой-то степени прав, но то, что действительно определяет качество ссылок – это результат их работы. Если сайт за счет купленных вами ссылок вышел в ТОП, значит они были качественными.

Для глубокого понимания механизма проверки качества ссылок я ознакомлю вас с проблемами определения их работоспособности и методами оценки качества потенциальных площадок для покупки ссылок. Если вам не интересен этот материал, то смело переходите к практике проверки качества ссылок через SeoHammer.

Проблемы определения качества ссылок

  • Оценка качества одной ссылки. Оценить результаты работы группы ссылок вполне реально, сравнив позиции сайта до покупки ссылок и после, например, как я делал это тут. Понятно, что будет погрешность, связанная с другими факторами ранжирования (текстовые факторы, например, можно зафиксировать не изменяя контент на сайте), но влияние будет заметно. Оценить же вклад одной ссылки в изменение позиций крайне проблематично.
  • «Шум» от других факторов ранжирования. Ссылочные факторы ранжирования являются одними из нескольких групп факторов, которые значительно влияют на изменение позиций. Но на рост или падение сайта в выдаче могут также оказывать влияние текстовые и поведенческие факторы, возраст сайта, наложение различных фильтров на сайт и т.д.
  • Зависимость качества ссылки от связки «донор – акцептор». Ссылка с одной и той же страницы донора может хорошо работать, например, для сайта-акцептора тематики «пластиковых окон» и гораздо хуже для «юридических услуг».

Методы определения качества потенциальных доноров

1. «Визуальный» просмотр. Смотрим глазками, как выглядит сайт: много ли на нем рекламы, интересные ли материалы размещаются на ресурсе и т.д. После этого принимаем решение о покупке на нем ссылки. Сам по себе метод малоэффективен и весьма трудозатратен. Имеет смысл использовать только в сочетании с другими методами.

2. Метод тестовых простановок ссылок. Подбирается старый многостраничный сайт и много-много специальных запросов, которые удовлетворяют следующим требованиям:

  • низкая конкуренция,
  • примерно равное количество страниц в поиске по выбранным запросам,
  • позиции сайта по специальным запросам находятся в определенном диапазоне (от 30 до 50-й позиции)

и некоторые другие. После этого ставятся ссылки с этими запросами на исследуемых донорах и по дельте изменения позиций специальных запросов делается вывод о качестве работы ссылок с донора. Метод очень дорогой и трудоемкий, а потому кроме крупных контор и ссылочных агрегаторов практически никем не используется. Главное его преимущество – это метод, с помощью которого можно измерить реальную работоспособность каждого донора.

3. Многопараметрический метод фильтрации «плохих» доноров. Потенциальные площадки для размещения ссылок проверяются по большому числу параметров, например:

  • Количество страниц в индексе поисковых систем
  • Нахождение под АГС
  • Дата регистрации домена
  • Количество исходящих ссылок с домена
  • Посещаемость сайта
  • Проиндексированность страницы донора поисковыми системами
  • Количество внутренних ссылок на странице
  • Количество внешних ссылок на странице
  • Уникальность контента страницы

и т.д. И если какой-то из параметров не удовлетворяет выбранному допустимому значению, то полностью донор или определенная его страница считается «плохой» и помещается в черный список (Black List). Например, допустимые значения параметров могут быть такими:

  • Если количество проиндексированных страниц сайта в Яндексе меньше 50, то донор - «плохой».
  • Если сайт находится под АГС, то донор считаем «плохим».
  • Если возраст домена младше полугода, то донор - «плохой»
  • Если количество внутренних ссылок на странице больше 100, то эту страницу донора считаем «плохой».
  • Если контент на странице донора неуникальный, то это страницу донора считаем «плохой».

и т.д. Доноры (и их страницы), удовлетворяющие допустимым значениям всех выбранных параметров, считаются «качественными», пригодными для размещения на них ссылок и помещаются в белый список (White List).

Примечание. Откуда берутся параметры? И как они связаны с реальной работоспособностью ссылки, размещенной на выбранной странице донора? Фактически – никак. Выбор этих параметров основан на «физическом» смысле сайта для людей (СДЛ) в понимании Яндекса и разумном предположении, что ссылки с СДЛ должны неплохо работать. Т.е. понятно, что у сайтов для людей практически наверняка уникальный контент, они не находятся под АГС Яндекса, имеют хорошую посещаемость, много страниц в индексе поисковых систем и т.д. Фильтруя таким образом сайты по параметрам, мы повышаем вероятность того, что ссылки с «качественных» ресурсов будут лучше работать.

Чем инновационен подход SeoHammer?

В отличие от всех агрегаторов, которые используют при оценке качества доноров метод тестовых простановок, SeoHammer определяет факт работоспособности площадок  уже по готовым ссылкам, размещенным реальными пользователями бирж ссылок. Тем самым экономятся значительные средства, необходимые на реализацию тестовых простановок, и продукт получается дешевле для конечного пользователя: если все ссылочные агрегаторы берут комиссию минимум 10% от стоимости ссылки, то у SeoHammer минимальная комиссия – 5%.

Второе ноу-хау СеоХаммера – развитие многопараметрического метода фильтрации «плохих» доноров (см. его описание выше). Каждому параметру фильтрации (в описанном выше методе) в зависимости от его значения приписывается определенный вес в общей формуле расчета качества донора, в результате чего величина качества ссылки измеряется в конкретных цифрах.

Читать запись полностью »

Мар
21

Продвигай и зарабатывай вместе с Миралинкс!

*Рекламный пост

<Чтоб тебя в сети не теряли…>

Потерять всегда страшно. Но чаще всего неизбежно. Терять, когда этого можно избежать, обидно и просто глупо!

За что нужно заплатить, чтобы ваш ресурс не затерялся на последних страницах поисковых систем? Вопрос, волнующий миллионов людей, не остается без ответа. система МиралинксЕжедневно поиском «таблетки счастья» занимаются тысячи оптимизаторов, вебмастеров и рекламщиков. Для раскрутки сайта они рекомендуют Twitter, покупку постовых, приобретение ссылок «навсегда» или обмен ими, каталоги сайтов, статей и т.д. А вот опытные seo-специалисты уже определились с выбором, какой самый эффективный метод продвижения, и сделали ставку на уникальные тексты, содержащие внутри себя несколько ссылок. Вот где заложена суть продвижения, приводящего в последствии к увеличению посещаемости сайта.

Но остается вопрос – как же наиболее оптимально разместить эти свои уникальные статьи со ссылками?

  • так, чтобы они не оказались на площадках под фильтром;
  • так, чтобы нечестные вебмастера не удалили ваше творение со своего сайта, как только вы произведете оплату за размещение;
  • так, чтобы написанный текст принес вам максимальную пользу при продвижении.

Пора, пора наконец-то поделиться с вами удивительным открытием, имя которому — Miralinks. Это самая первая в Рунете система подобного рода. Ресурс Miralinks.ru создан именно для того, чтобы помочь избежать потерь средств, вложенных в создание сайта, и получить прибыль от его работы. 

Для удобства, работа в системе разделена на два направления: «вебмастер» и «рекламодатель». Первые с помощью Miralinks могут наполнить свой ресурс качественными и уникальными текстами, одновременно заработав деньги, вторые – продвинуть сайт, уложившись во вполне адекватный бюджет.

Здесь есть выбор тематических площадок, причем количество категорий увеличивается с каждым месяцем, возможность купить готовую статью через банк статей или заказать ее написание (Miralinks интегрирован с Copylancer.ru). При добавлении текста материал страницы автоматически проверяется на плагиат, проходит ручную модерацию и возвращается оптимизатору в случае обнаружения каких-либо недостатков.

Какие еще плюсы?

  • Статьи публикуются навсегда => гарантия долгосрочного действия ссылки.
  • Статьи модерируются вручную => гарантия уникальности контента, корректности орфографии и пунктуации.
  • Для размещения статей предлагаются только качественные площадки, прошедшие строгий ручной отбор => минимизация рисков получить «неработающую» ссылку из статьи.
  • Статьи размещаются вручную. Так работают более 80% сайтов в системе.
  • Многие проекты размещают статьи в общей ленте новостей, а не в специально отведенных категориях, что минимизирует риск того, ваша ссылка окажется нерабочей.
  • Для расчетов подойдет как рублевый, так и долларовый кошелек Webmoney.
  • Комиссия системы составляет всего 12%.
  • Нет минимальной выплаты.
  • Действует реферальная программа — ваша прибыль составит 30% от прибыли системы.

Читать запись полностью »

Авг
22

Обзор программ для проверки текста на уникальность (плагиат)

Как и обещал в предыдущем обзоре сервисов проверки контента на уникальность,  представляю вашему вниманию программы, которые позволят обнаружить дублированный контент в Интернете.

1)  Double Content Finder (DC Finder) —  одна из самых известных программ для проверки текста на уникальность. Разработана программистами биржи контента TextBroker в 2007 году, программа периодически обновляется. Последний релиз, который мне удалось найти, за 2008 год.

Скачать программный продукт можно по этой ссылке,  размер дистрибутива  совсем небольшой, около 400кб, большим плюсом является то, что не требуется установка, программа запускается обычным exe файлом.

Ниже приведен скрин  программы, который вы увидите при запуске.

программа для поиска дублированного контента DCFinder

Проверить текст на уникальность можно любым из трех способов  – из текстового файла (работает только с .txt файлами), задав нужный вам url, где расположен материал или ручным вводом – скопировав часть текста через буфер обмена.

В итоге вы можете получить два варианта ответа: либо текст уникален, либо вы увидите список url – адресов, на которых найден проверяемый отрывок.

программа для поиска дублированного контента (плагиата) DCFinder

Мне понравились результаты проверки программы. Проводилось порядка 10 экспериментов, везде результат оказывался очень и очень похожим на правду.

Читать запись полностью »

Авг
14

Обзор сервисов для проверки текста на уникальность (плагиат) – 2

В последнее время бизнес в Интернет сфере развивается семимильными шагами. Если раньше достаточно было просто создать сайт своей организации или фирмы, проверка контента на плагиат разместить в Интернете – и вы «в дамках», то теперь этого мало. Сейчас существует огромная конкуренция среди сайтов, все заказывают раскрутку для своих проектов,  стремясь быть первыми в выдачах поисковых систем… Вот и появилась кроме сайтов для людей или СДЛ большая масса дорвеев, сателлитов и прочих гавносайтов или  сокращенно ГС.

Какую же опасность могут представлять такие сайты? Пожалуй, самая большая из них -  в контенте. Ведь любой проект должен иметь какую-то тему и содержание на своих страницах. Но при нынешнем количестве интернет-сайтов в сети каждый из них не может быть уникальным, очень много встречается тех, которые копируют контент с других ресурсов. А теперь представьте себе ситуацию – вы создаете свой сайт, тщательно продумываете дизайн, тратите несколько недель на написание качественных статей и интересного материала и вот,  наконец,  выкладываете ресурс в Интернет. И буквально через неделю случайно натыкаетесь на… написанные  вами лично статьи на другом ресурсе, хорошо если на одном. Обидно? Досадно?

Чтобы помочь избежать таких ситуаций, хочу предложить вашему вниманию обзор On-line сервисов для поиска плагиата, иными словами скопированного контента. Когда-то я уже делал обзор сервисов для проверки текстов на уникальность, теперь пришла пора его обновить. Конечно, подобные онлайн сервисы не защитят вас от воровства материалов, но хотя бы помогут обнаружить, на каких ресурсах расположена теперь ваша статья. А дальше все зависит от вас – пишите веб мастеру данного ресурса, направляйте письма хостеру сайта-мошенника, пишите в техническую поддержку Яндекса или Гугла об обнаруженной вами несправедливости и вполне возможно, что вы добьетесь цели.

Читать запись полностью »

Июл
07

Программы поиска обратных ссылок Yazzle vs Linkanchor.ru

Собственно сначала, как всегда, немного предыстории.

2 июля Яндекс выложил релиз нового алгоритма поиска под названием Магадан 2.0, что привело к шторму в выдаче в 35,4 балла по ашмановскому анализатору апдейтов и к бурному обсуждению этого события в среде оптимизаторов. Вот как прокомментировали Магадан 2.0 на блоге Яндекса о поиске:

С сегодняшнего дня на www.yandex.ru работает поисковая программа «Магадан 2.0″. В ней сделано много улучшений в алгоритме ранжирования, например, добавлены новые факторы, учитывающие уникальность контента, классификатор порнографии, геоклассификатор запроса, классификатор коммерциализированности, и многие другие. Следующая остановка — «Находка».

Весьма скупо надо сказать. Тема в шутку, а точнее шутка в тему (увидел ее на каком-то форуме как раз в обсуждении Магадана 2.0):

Вопрос: 
Классификатор порнографии… кто-нибудь объяснит что он из себя представляет?

Ответ:
Ну а как же? Порно тоже нуждается в классификации… Орал, анал, дабл пенетрейшн… 
Так что теперь намного проще искать порно в инете (наверное).

Читать запись полностью »