СЕО - блог СЕО ПРЕСС - Part 3
Апр
05

Существует ли алгоритм QDD (Query Deserves Diversity) в Google

Сегодня у меня в гостях на блоге вновь Рэнд Фишкин, и на этот раз он расскажет об алгоритме QDD (Query Deserves Diversity, дословно переводится как «запрос заслуживает разнообразия»), который использует Google при формировании выдачи по неясным или многозначным запросам. Напомню, что в прошлый раз этот алгоритм уже упоминался вскользь Рэндом. Теперь мы поговорим об алгоритме QDD более подробно.

Одним из популярных вопросов, вокруг которого разгорается масса споров и обсуждений среди зарубежных SEO специалистов, является тот факт, что Google умеет распознавать запросы, которые можно трактовать неоднозначно, и алгоритм Гугла пытается изменить результаты поиска, включив в выдачу по этим запросам не только те страницы, которые должны находиться там согласно стандартному алгоритму ранжирования Google.

Конечно, существование алгоритмов распознавания неясных или многозначных запросов невозможно доказать на 100%, их секрет знают только разработчики Google. Но лично мне оно кажется вполне вероятным. Попробую продемонстрировать концепцию подобных алгоритмов на небольшом примере.

Допустим вы задаете в поисковой строке Гугла запрос [J7]. Первое, что приходит на ум за те доли секунды, пока Google дает ответ – это известные соки этой торговой марки. Однако, в результатах поиска, в первой 10-ке мы видим упоминание как о соке, так заодно для себя узнаем, что существует такой китайский самолет (Chengdu J-7 (J-7I)), а также модель телефона Sony CMD-J7/J70.

алгоритм QDD в Гугл

Да, Googlebot, какая захватывающая идея. К каким результатам это могло бы привести?

алгоритм разнообразия в выдаче QDD в Гугл

Читать запись полностью »

Мар
21

Как менялись методы наращивания ссылочной массы в Google

Встречайте, сегодня в гостях у меня на блоге Рэнд Фишкин. Он расскажет о том, какие методы наращивания ссылочной массы для продвижения сайта в англоязычном Google существуют, и как они менялись с того времени, как Рэнд стал заниматься SEO. Я думаю, что опыт Рэнда пригодится всем нам и при продвижении под Яндекс. Слово Рэнду Фишкину.
Rand Fishkin

Когда я только начал заниматься SEO, получение ссылок фактически представляло из себя ручной процесс. Приходилось вручную искать тематические сайты и каталоги ссылок, собирать базы e-mail вебмастеров подобных ресурсов, чтобы разместить там ссылку. Сначала я использовал обмен ссылками, но со временем Google стал занижать вес «взаимных» ссылок и метод стал неэффективным.

Став более опытным СЕО специалистом, я начал пользоваться услугами вебмастеров, которые создавали большие сети сайтов под размещение ссылок, спамили по блогам, форумам, гостевым, а также начал покупать текстовые ссылки. Использование подобных методов продвижения сайтов в те времена почти всегда давало результат. Затем я познакомился с Мэттом Катсом, узнал о команде качества поиска Google, борющейся со спамом, и реальных санкциях, разработанных ими для снижения сеопрессинга на выдачу (алгоритм Флорида, например), и даже обнаружил несколько сайтов, над продвижением которых работала моя команда, в «песочнице».

Нужно было что-то менять в способах продвижения, и мне пришлось «умнеть». Я изучил множество материалов по поисковым технологиям, в частности, статьи об алгоритмах Хиллтопа (Hilltop), Трастранка (Trustrank), Анти-Трастранка (Anti-Trustrank). Отслеживая некоторые сайты в «песочнице», я обнаружил,  что большая часть из них постепенно вернулась в основную выдачу, набрав необходимую качественную ссылочную массу и став, по мнению Google, трастовыми ресурсами. Ко мне начало приходить понимание того, что Google будет совершенствовать свои алгоритмы по распознаванию и учету только «естественных» ссылок, тогда как некачественные и покупные ссылки будут влиять на выдачу все слабее. Стала очевидной необходимость применения исключительно «белых методов продвижения». Так мы и открыли для себя «линкбайтинг» (англ. linkbaiting), его эффективность в привлечении естественных ссылок на сайт. Наши викторины, конкурсы и «вирусный» контент имели громадный успех, мы получили тысячи ссылок за одну ночь. После это мы стали предлагать «линкбайтинг» клиентам в качестве услуги.

Примечание:
Если переводить термин «Linkbaiting» с английского дословно, то link означает «ссылка», bait – «приманка». Получается «приманка для ссылок». Сущность линкбайтинга заключается в том, чтобы при помощи каких-либо действий  побудить пользователей добровольно ставить ссылки на ваш сайт. Для этого вокруг ресурса, которому нужно набрать ссылочную массу, устраивается искусственный «ажиотаж» – проводятся розыгрыши призов, всевозможные конкурсы, различные акции и провокации, публикуются «самые горячие новости»… Методик огромное количество, и их эффективность зависит, прежде всего, от вашей фантазии.

Но требования наших клиентов менялись, и нам приходилось меняться вместе с ними. Линкбайтинг уступил место более широкому методу наращивания ссылочной массы – вирусному маркетингу. Маркетинг в социальных сетях (SMM – Social Media Marketing) зарекомендовал себя как практичный и высокоэффективной способ получения ссылок на сайт. Нашими клиентами стали крупные брэнды и организации, на которые было невозможно перенести опыт и процедуры мелких проектов. Поэтому нам пришлось разрабатывать для них индивидуальные стратегии наращивания ссылочной массы. Например, регистрировать авторские права на контент или технологию, обучать персональную команду в компании клиента по наращиванию ссылок на сайт и участию в дискуссиях в социальных сетях и медиа, мотивировать пользователей добавлять на ресурс клиента качественный контент, привлекающий множество внешних ссылок. Мы научились направлять естественную ссылочную массу на страницы большого уровня вложенности для огромных сайтов. И мы полностью отказались от покупки ссылок.

Ниже я визуально изобразил историю методов наращивания ссылочной массы:

как менялись стратегии наращивания ссылочной массы

Читать запись полностью »

Мар
07

Как посмотреть фронт сервер Яндекса?

Наверное, многие сталкивались с ситуацией, когда по одному и тому же запросу у начальника, сидящего за соседним компьютером, и у вас совершенно разные выдачи в Яндексе при одинаковых настройках региона. Или другой пример. Звонит взволнованный клиент по поводу выпадения сайта из ТОПа, вы смотрите выдачу у себя на компьютере – сайт в ТОПе. Или, наконец, обновив несколько раз результаты поиска по запросу, вы замечаете, что выдача меняется на глазах. Всему виной – фронт сервер, который обрабатывает ваш запрос к Яндексу.

Особенно, описанные ситуации характерны в момент апдейта Яндекса или выкладки (либо тестирования) новой версии алгоритма, поскольку мгновенно обновить выдачу на всех серверах невозможно даже Яндексу.

Многие советуют для определения фронт сервера Яндекса, который обрабатывает ваш запрос, использовать следующую ссылку

http://yandex.ru/cgi-bin/hostname,

что совершенно неправильно. Да «какой-то» фронт сервер вы определите, но как он связан с тем сервером, который обрабатывал ваш поисковый запрос еще секунду назад? Правильно, никак.

Правильно определить фронт сервер, который обрабатывал ваш поисковый запрос к Яндексу, можно только в момент самого этого запроса. И в этом нам поможет код результатов поиска Яндекса, полученных по нему.

Ищем в самом низу исходного кода страницы выдачи после закрывающегося тега Html

как посмотреть фронт сервер Яндекса

фрагмент, содержащий sfront
как правильно смотреть фронт сервер Яндекса

Это и есть правильный номер фронт сервера, который обрабатывал ваш запрос к Яндексу.

Читать запись полностью »

Фев
23

А не пора ли предлагать новую услугу на рынке – антиоптимизацию сайтов?

Обычно в договорах сео студий, продвигающих сайты в промышленных масштабах, в качестве первого предварительно этапа продвижения проекта прописана оптимизация сайта, включающая в себя работы с внутренним содержанием ресурса. Стоимость оптимизации сайта обычно прописывают либо отдельным пунктом в договоре, либо декларируют ее «бесплатной» услугой, хотя, на самом деле, включают ее в дальнейшие ежемесячные платежи.
услуга антиоптимизации сайтов

Теперь, после введения Яндексом фильтра на «переоптимизацию» страницы сайта по запросу, одной работы по оптимизации сайта может быть недостаточно для успешного продвижения ресурса в ТОП. Особенно это касается тех проектов, которые побывали «в лапах» других оптимизаторов, несправившихся с поставленной задачей продвижения. Очень вероятно, что подобные проекты находятся под свежевведенным фильтром Яндекса. Таким образом, теперь при подготовке проекта к продвижения без предварительной проверки на фильтр не обойтись. А в случае его обнаружения по прописанным в коммерческом предложении запросам впору декларировать новую услугу на рынке – антиоптимизацию сайтов.

Что в себя включает антиоптимизация сайта?

1. Выявление пар [запрос] ~ страница, на которые наложен фильтр «на переоптимизацию».

Поскольку очень часто невозможно узнать историю позиций нового проекта, поступившего на продвижение, по запросам (хотя частично эту проблему может решить Мегаиндекс), то приходится пользоваться косвенными методами определения наложенности фильтра. Для этого необходимо, во-первых, проверить позиции запроса в другом падеже/числе или с измененным порядком слов. Если они существенно выше позиции первоначального запроса, а по нему самой релевантной на сайте является другая страница, совсем не оптимизированная под этот запрос, то вероятно, фильтр имеет место быть и необходима антиоптимизация.

За примером далеко ходить не нужно. Рассмотрим запрос [оптимизация сайтов] и главную страницу довольно известного агентства интернет-рекламы AdLabs.Ru. По словосочетанию [сайт оптимизация] агентство AdLabs можно легко обнаружить на 3-м месте в Яндексе:

фильтр на переоптимизацию на примере агентства AdLabs

А вот по фразе [оптимизация сайтов] еще нужно сильно постараться, чтобы найти сайт в поисковой выдаче
как зафильтровали AdLabs по оптимизации сайтов
Обратите внимание какая страница при этом выдается, как наиболее релевантная на сайте этому запросу. Присутствие фильтра налицо. Я уже подумываю, не предложить ли мне свои услуги по антиоптимизации агентству AdLabs.

Читать запись полностью »

Фев
12

5 причин платной регистрации в каталоге сайтов Яндекса (ЯКе)

как зарегистрироваться в каталоге сайтов ЯндексаНа форумах часто слышу мнение о бессмысленности платной регистрации в Яндекс.Каталоге. Дескать, эти деньги целесообразней вложить в продвижение ресурса, а в каталоге Яндекса можно зарегистрироваться и бесплатно.

Вы, конечно, можете долго и упорно подавать свой ресурс в каталог сайтов Яндекса на бесплатной основе, в надежде, что его там зарегистрируют, но я предпочитаю, регистрироваться в Яке платно. Если раньше белые проекты брали в каталог на бесплатной основе довольно охотно, даже без подачи заявки на регистрацию, то сейчас ситуация поменялась. То ли желающих зарегистрироваться в Яке бесплатно стало гораздо больше, то ли Яндекс стал “жаднее”. 

Скептикам, которые считают «а зачем оно мне надо за 14 750 деревянных?» (да, именно, 14 750 рублей стоит платная регистрация в Яндекс.Каталоге, не обольщайтесь на цифру в 12 500 рублей, указанную в расценках, Яндекс мудро решил не включать НДС в эту цифру, чтобы сумма регистрации казалась меньше), попробую привести 4 довода «за», которые, возможно, помогут изменить их мнение.

1. Возможность присвоения сайту большего числа регионов

Если ваш проект предназначен для аудитории из нескольких регионов (России или мира), то регистрация в Яндекс.Каталоге позволит присвоить ему до 7 регионов одного типа (общее число регионов может быть большим, см. предыдущий пост). Это позволит сайту лучше ранжироваться в региональных результатах поиска Яндекса, а также в поиске по региону с галочкой.

Коненчо, придется немного постараться с присвоением сайту большого числа регионов. Очень хорошо на модераторов каталога действует страничка с контактами региональных филиалов компании (телефон и адрес).

2. Яндекс.Каталог может давать ощутимый трафик вашему сайту

Многие в этом сомневаются, но посмотрите на скрин статистики одного подопечного сайта:

Трафик с Яндекс.Каталога

Пользователи переходят на ресурс как с поиска по каталогу, так и с соответствующей рубрики. Но для ощутимого трафика с рубрик каталога, необходимо, чтобы у вашего сайта был высокий тИЦ, поскольку сортировка в рубриках осуществляется именно по индексу цитирования.

Читать запись полностью »

Янв
28

А можно ли верить Садовскому или пример с присвоением сайту 8-ми регионов. А также апдейт 20-го.

Те, кто был на конференции Продвижение сайтов в Интернете 2009, наверное, помнят заявления Садовского о том, что сайту Яндекс может присвоить не более 7-ми регионов. Сайтами счастливчиками с семью регионами могут оказаться только сайты, зарегистрированные в каталоге Яндекса.  Среди сео специалистов принято всегда воспринимать слова Александра, как истину. Действительно, уж кому другому лучше знать устройство поиска Яндекса, как не Александру. Но вот незадача, одному моему сайту из каталога Яндекса присвоили 8-мь регионов:

Яндекс отнес сайт к 8 регионам

Как тогда понимать слова Александра Садовского?

Я клоню к тому, что не стоит никогда целиком и полностью полагаться на голословные высказывания, даже если они исходят от авторитетных людей. Прислушиваться да, можно. Но воспринимать, как истину, лучше только проверенные на собственном опыте факты. Потому как даже опытные гуру могут ошибаться или намеренно вводить других в заблуждение.

UPD (!!!): Читаем развернутый ответ Александра Садовского в комментариях. Причина подобной картинки – расширение типологии регионов уже после ашмановской конференции. Александру верить можно! ) И спасибо ему, что разъяснил ситуацию.

Читать запись полностью »

Ноя
24

Исследование зависимости тИЦ сайта от количества «внешних» ссылок

Множество всевозможных тем о поднятии тематического индекса цитирования (тИЦ) бродит по Интернету, некоторые даже оказывают подобные услуги, которые пользуются популярностью. Суть услуг по поднятию тИЦ обычно сводится к следующему: находится очередная «дырка» в алгоритме Яндекса расчета тИЦ, под нее пишется софт, а затем с помощью него осуществляется массовая накрутка тИЦ у большого количества сайтов. В результате, «дырку» Яндекс прикрывает, и услуга сворачивается до нахождения следующей «дырки». Так было с XSS, спамом в комментариях, спамом в профилях DLE. Сапоторговцев очень сильно заботит величина тИЦ их сайтов, поскольку от этого напрямую зависит доход в Сапе, поэтому они стараются нарастить тИЦ любым способом.

Несмотря на сильную обеспокоенность торговцев ссылками величиной тИЦ своих ресурсов, каких-либо масштабных исследований факторов, которые влияют на тематический индекс цитирования, я не встречал в открытом доступе. Хотя на форумах и блогах встречается достаточно много гипотез и предположений, основанных на наблюдениях за тИЦ своих ресурсов. Часть из них я и попытался проверить ниже.

Что такое ТИЦ, и как он рассчитывается?

Если обратиться к помощи Яндекса, то можно выяснить, что тИЦ (тематический индекс цитирования) является мерой «авторитетности» интернет-ресурса с учетом качественной характеристики – «веса» ссылки. При подсчете тИЦ используются внешние «ссылки только с тех ресурсов, которые Яндекс проиндексировал и по которым он ищет». Большую роль играет тематическая близость ресурса и ссылающихся на него сайтов. Само по себе количество ссылок на ресурс также влияет на значение его тИЦ, но тИЦ определяется не количеством ссылок, а суммой их весов. Также по заявлениям из помощи Яндекс не учитывает при расчете тИЦ ссылки с досок объявлений, форумов, немодерируемых каталогов и сайтов на бесплатных хостингах, не описанных в каталоге Яндекса. Расположение нескольких ссылок на страницах одного и того же «внешнего» ресурса по передаче тИЦ будет эквивалентно расположению одной ссылки на этом ресурсе. Одним словом, размещение «сквозных» ссылок на «внешних» ресурсах делу поднятия тИЦ не поможет.

Также не стоит забывать, еще одно небезызвестное заявления Яндекса по поводу ТИЦ, согласно которому по SEO-ссылкам ТИЦ передается хуже, чем по естественным, или вовсе не передается.

Цели исследования ТИЦ

  • Понять как зависит ТИЦ от количества ссылающихся сайтов.
  • Проверить общепринятую гипотезу, согласно которой у ресурсов, находящихся в каталоге Яндекса (Яке), поднять ТИЦ проще, поскольку тематически близкие ссылающиеся сайты передают большее количество ТИЦ.
  • Проверить, действительно ли ссылки с бирж (т.е. в понимании Яндекса SEO-ссылки), например с Sape, хуже учитываются при расчете ТИЦ.

Условия проведения исследования

В исследовании зависимости ТИЦ от количества внешних ссылок принимало участие 50 ресурсов, из которых 20 – зарегистрировано в каталоге Яндекса. В качестве количества внешних ссылок на сайт бралось число ссылающихся сайтов по данным панели Яндекс.Вебмастер, поскольку несколько ссылок с одного «внешнего» ресурса не дают дополнительную прибавку к тИЦ согласно документации Яндекса. Данные по числу ссылающихся сайтов снимались непосредственно сразу после апдейта тИЦ 30 октября, чтобы минимизировать погрешность, связанную с тем, что количество ссылающихся сайтов после очередного апдейта выдачи может измениться, в то время как тИЦ останется прежним, поскольку апдейта тИЦ еще не было.

Результаты исследования

Представлены на рисунке. По горизонтальной оси откладывалось число ссылающихся сайтов, по вертикальной – величина тИЦ ресурса с указанным числом ссылок.
Исследование зависимости ТИЦ от количества внешних ссылок

Читать запись полностью »

Окт
19

Восемь факторов, влияющих на попадание сайта под фильтр АГС-17

причины наложения фильтра Яндекса АГС-17
При поддержке: Студия «FlashBoom» изготовит flash баннеры, которые привлекут внимание потенциальных клиентов.

Много уже сказано про фильтр Яндекса АГС-17, много гипотез выдвинуто по поводу причин его наложения на ресурс и даже предложено несколько сомнительных, на мой взгляд, рецептов по лечению этого «недуга», но мне хотелось бы обобщить все возможные факторы, за которые могут последовать санкции в виде АГС-17. Знание негативных факторов позволить предупредить опасный фильтр.

Фильтр АГС-17 оставляет в индексе Яндекса ограниченное количество страниц сайта, остальные же документы ресурса классифицируются как не имеющие для пользователей дополнительной ценности. Любопытной особенностью АГС-17 является тот факт, что он работает независимо от апдейтов выдачи, и на его наложение влияет совокупность ряда негативных факторов. Кроме того, есть основания предполагать, что алгоритм фильтра АГС-17 самообучающийся, т.е. он способен подстраиваться под любые массовые шаблоны «клепания» гавносайтов.

Каковы же могут быть основные причины, которые могут способствовать опасному «недугу»? Ниже привожу список негативных факторов в порядке уменьшения значимости (т.е. чем ниже порядковый номер фактора, тем меньшее влияние, по-моему мнению, он оказывает на наложение АГС-17):

  1. Использование на сайте не уникального контента, позаимствованного с других сайтов. Ярким примером ресурса, попавшего под АГС-17, в основном, по этой причине является всем известный социальный проект – news2.ru. Причем поскольку с определением первоисточника у Яндекса часто возникают проблемы, то сайт автора совсем не застрахован от фильтра АГС 17, если множество ресурсов скопировало у него контент. Особенно эта проблема должна вызывать опасение, если ресурс автора обладает другими негативными факторами, которые могут способствовать фильтру.
  2. Массовое дублирование контента в пределах самого сайта. Облако тегов, календарь, архивы сайта по месяцам, версии страниц для печати и так далее лишь бы было побольше страничек второго и третьего уровней (ну вы поняли о чем я!). Все это способствуют созданию на сайте массы дублированного контента, которая неинтересна пользователю, а следовательно, и Яндексу.
  3. Размещение сео-ссылок на ресурсе. Если вы продаете большое количество ссылок со своего сайта на ресурсы, которые Яндекс классифицировал как покупающие ссылки, то ваш сайт скорее всего будет «заподозрен» в размещении сео-ссылок. Поэтому если вы используете Сапу для монетизации своего проекта, то лучше продавать ссылки потихоньку, с ручной модерацией.
  4. Малое количество контента на страницах сайта. Ярким примером подобных сайтов, пострадавших от АГС-17, являются ресурсы-фотогалереи, которые практически не содержат текста. В рамках поста о дублированном контенте я уже приводил пример о проблеме включения подобных страниц в индекс Яндекса.
  5. Низкое качество, малое количество или полное отсутствие внешних ссылок на ваш сайт приводит к тому, что «в глазах Яндекса» ресурс не обладает должным авторитетом для пользователей, поэтому ничего страшного не случится, если при наличии других негативных факторов на него будет наложен АГС 17.
  6. Подобие сайта каталогу ссылок. Если ваш ресурс по структуре смахивает на каталог ссылок, пусть и с уникальными описаниями сайтов и непрямыми ссылками, то ему может непоздоровиться. Яндекс уже давно и очень сильно не любит каталоги ссылок и отправляет их в бан или под фильтр АГС-17.
  7. Использование сайтом шаблонных урлов общеизвестных движков, таких как DLE, WordPress, Joomla и т.д. Большое количество гавносайтов делается именно на подобных движках, поэтому, вероятно, алгоритм фильтра АГС-17 с подозрением относится к подобных ресурсам и тщательно их проверяет на наличие других негативных факторов.
  8. Малая посещаемость сайта или полное ее отсутствие. Находясь на месте Яндекса, логично предположить, что сайты с низкой посещаемостью неинтересны для пользователей или вовсе созданы не для них, поэтому наложение на подобные ресурсы фильтра АГС-17 никак не отразится на удовлетворенности пользователей, использующих Яндекс для поиска информации.

Читать запись полностью »