Полное руководство по обновлённому алгоритму Penguin от Google. Как я вышел из под фильтра google пингвин за неестественные ссылки? но панда все еще со мной! Пингвин гугл что

В прошлом посте я уже затронул тему, волнующую многих вебмастеров последние несколько недель. Это введение в действие 24 апреля 2012 года нового алгоритма Google Penguin , направленного на борьбу с веб-спамом. Если по простому, то виновных ждет казнь за переоптимизацию.

Давайте попробуем разобраться, за что сайт может попасть под новый фильтр и как уберечься от Google Penguin.

Для начала надо определить, а Пингвин ли собственно виноват. Как я уже упоминал в предыдущей статье , в апреле Гугл произвел очень много изменений, повлиявших на работу поиска. 16 апреля в поисковике произошел сбой, связанный с припаркованными доменами. 19 числа вышло очередное обновление алгоритма Panda. И, наконец, 24 апреля приплыл Пингвин.

Поэтому, если резкое падение позиций в выдаче и посещаемости произошло сразу после 24 числа, то, с большой долей вероятности, это действие нового алгоритма. Если до, то это точно не Google Penguin.

Также проверьте, нет ли у Вас уведомлений от Гугла в разделе “Сообщения ” в Google Webmaster Tools о чрезмерной спамерской активности Вашего веб-сайта. Если есть, то надо будет принять меры, для исправления указанных там ошибок.

Далее приведу свое мнение, которое сложилось после изучения информации на блогах (в том числе зарубежных) и форумах (на одном только forum.searchengines.ru более 400 страниц обсуждений). Если я не прав, поправьте.

За что наказывает новый алгоритм Google Penguin и как уберечь свой сайт?

По большому счету ничего нового. Просто Google очередной раз пытается дать понять, что для того, чтобы быть в выдаче, надо создавать “сайты для людей” и использовать для только белое SEO. Но все же нас ставят в очень жесткие рамки. Шаг вправо, шаг влево и сайт вылетит из поисковой выдачи.

А если конкретнее, то алгоритм Google Penguin может наложить санкции по следующим причинам :

1. Прежде всего, под клюв Пингвина попадают сайты, активно покупающие и продающие неестественные ссылки для повышения PageRank и искусственного воздействия на результаты поисковой выдачи. Сайты, на которые ведут ссылки с некачественных веб-ресурсов.

По словам Мэтта Каттса, не все платные ссылки являются поисковым спамом, а только те, которые направлены на манипуляции с результатами поиска и искусственное повышение PR. Коммерческие рекламные ссылки, нацеленные на продажи товаров, не запрещены, но их надо закрывать от индексации с помощью rel=”nofollow” . В то же время, достаточно всего пары не релевантных исходящих ссылок, чтобы это было расценено, как поисковый спам новым алгоритмом Гугл.

2. Замечено, что санкции применены к сайтам, в анкор листе которых подавляющее большинство точных вхождений.

Советуют разбавлять анкоры в соотношении, как минимум 50/50, а то и больше. В качестве безанкорных ссылок лучше использовать: тут, здесь, http://сайт.ru, сайт.ru, название сайта. Обязательно окружать их релевантным околоссылочным текстом, который может попасть в анкор-лист. Само собой любая ссылка должна быть релевантна документу, в котором она стоит и на который ведет.

Поэтому непонятно, какую службу теперь сослужат ссылки с профилей нетематических трастовых сайтов, форумов и каталогов. Хорошо, если их просто не будут учитывать. А если будут? Уверен, подобных ссылок у всех хватает.

3. Наличие сквозных ссылок в футере и сайдбаре с точным вхождением ключа в анкоре.

4. Неравномерное распределение входящих ссылок по страницам. Особенно, когда почти все ведут на главную, да еще и с одинаковыми анкорами. За чрезмерную внутреннюю перелинковку с использованием точных вхождений тоже могут наказать.

5. Наличие переоптимизированного контента с большой плотностью ключевых фраз и чрезмерное их выделение тегами акцентирования.

6. Наличие дублированного контента, одинаковых мета тегов и Title. Страницы, оптимизированные под одинаковые ключевые слова.

7. Использование замаскированных ссылок, скрытого текста, дорвеев, скрытой переадресации и других методов черного SEO.

Нельзя показывать поисковикам и посетителям разную информацию по одному и тому же адресу.

10. Страницы, содержащие вирусы и различные вредоносные программы.

Вот такой у меня получился список. Возможно, кто-то дополнит или, наоборот, оспорит. Высказывайтесь в комментариях.

Что делать, если упали позиции и трафик после введения в действие Google Penguin?

Прежде всего, советуют не паниковать и не делать резких движений. Например, прочитал на сайте www.seomoz.org , что худшее, что можно сделать, это резко начать удалять обратные ссылки. Даже обратные ссылки низкого качества могут быть полезны. И если активно начать сокращать все подряд бэк-ссылки, не найдя причину проблемы, рейтинг сайта может упасть еще ниже.

Надо проанализировать ситуацию и выяснить, какой именно трафик был потерян и какие действия могли привести к пессимизации сайта. Старайтесь исправить ошибки и ждите следующего обновления алгоритма.

Для тех, кто считает, что он пострадал от Пингвина незаслуженно, Гугл создал специальную форму обратной связи. Но так как новый фильтр накладывается на сайт автоматически, а не в ручном режиме, особого смысла от этих жалоб, скорее всего, не будет.

Но существует еще одна форма, где можно сообщить о сайтах, которые незаслуженно избежали наказания Пингвина. В общем, предлагается настучать на конкурентов.

Кстати, как сообщил все тот же seomoz, 11 мая было обновление Google Penguin. Так что все еще только начинается.

Заключение.

Подводя некоторые итоги, можно сделать вывод, что Гугл особенно серьезно настроен на борьбу с продажными ссылками. Причем продавать и покупать ссылки не запрещается, но они должны закрываться от индексации.

Наказывать же будут за попытки манипуляции результатами поисковой выдачи с помощью покупных ссылок. В этой связи, видимо, все большую ценность при ранжировании сайтов будут иметь социальные сигналы с Твиттер, Фейсбук и Гугл+.

Если читать между строк, то нам ясно дают понять, что получить целевой трафик на свои сайты будет гораздо проще, если отказаться от SEO в пользу Google AdWords. И Google Penguin, это очередное предупреждение. Как говорится, несите Ваши денежки… Похоже, для ссылочных бирж наступают трудные времена.

Для тех, кто продвигается под Яндекс, строго соблюдая его рекомендации к качеству сайтов, нововведения Гугла не должны вызвать серьезных проблем. Российский поисковик уже давно дал понять оптимизаторам, что он желает видеть в выдаче только СДЛ.

Вывод банален: делайте сайты для людей , а не для поисковиков, и будет Вам ТОП счастье.

А Вы как думаете, не перегибает ли палку поисковик №1 в мире? Долго ли еще протянет бизнес купли-продажи ссылок? Или покупные ссылки скоро будут бесполезны? Именем какого зверя назовут следующий алгоритм Гугла? Может это будет ? Высказывайтесь в комментариях.

До скорых встреч на страницах !

Penguin – алгоритм поисковой системы Google, первоначальной ролью которого являлась борьба с неестественными (покупными) ссылками. Дата первого релиза Penguin 1.0 – 24 апреля 2012 года.

Следующие обновления:

Запуск обновления Penguin 4.0 неоднократно откладывался. Релиз обновления планировался на конец 2015 года, однако, работа по усовершенствованию алгоритма продлилась до сентября 2016 года.

Представляем вам перевод статьи из официального блога Google: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Пингвин стал частью основного алгоритма Google

Алгоритм Google использует более 200 уникальных сигналов или «подсказок», что позволяет быстро находить то, что ищет пользователь. Эти сигналы включают в себя определенные слова на страницах сайтов, частоту обновления контента, регион сайта и PageRank. Один из таких сигналов Google – это алгоритм Пингвин, который был запущен в 2012 году и 23 сентября 2016 года был обновлен.

После совершенствования и тестирования Google сейчас выкатывает обновление алгоритма Пингвин на всех языках. Представляем вам ключевые изменения, которые вы увидите, они были среди популярных просьб вемастеров:

  • Сейчас Пингвин работает в реальном времени . Исторически сложилось так, что список сайтов, «пострадавших» от Пингвина периодически обновлялся. Когда вебмастера улучшали свои сайты, многие алгоритмы Google довольно быстро обновляли информацию о них, но таким алгоритмам, как Пингвин, требовалось время для обновления данных. Теперь данные Пингвина обновляются в реальном времени, а значит, изменения на сайте будут замечены Гуглом гораздо быстрее. Как правило, они вступают в силу сразу после повторного обхода роботом и индексации страниц. Это означает, что Google не собирается больше анонсировать свои обновления.
  • Пингвин стал более детальным . Сейчас он понижает страницы, содержащие спам путем изменения рейтинга, основанного на спам-сигналах, а не влияет на ранжирование сайта в целом. Т.е происходит занижение в выдаче одной или нескольких страниц, а не всего сайта.

Интернет (web-паутина) существенно изменился за эти годы, но как Google говорил в своем первоначальном посте, вебмастера должны быть свободны в своих действиях, чтобы сосредоточиться на создании убедительных и полезных сайтов. Также важно помнить, что обновления наподобие Пингвина – это только один из более 200 сигналов, который Google использует для ранжирования сайтов.

Известно ли вам, что поисковые алгоритмы Google учитывают более 200 факторов ранжирования и степень важности каждого из них индивидуальна для каждого отдельно взятого сайта? А знаете ли вы, что в течение года Google совокупно вносит более 500 изменений в свои алгоритмы и перед полноценным внедрением каждая измененная версия тестируется на небольшой выборке пользователей поисковика?

Сегодня мы поговорим, пожалуй, о самом известном алгоритме Google – Penguin («Пингвин»).

Что такое Google «Пингвин»?

Google «Пингвин» – это алгоритм, созданный для борьбы некачественными сайтами и с веб-спамом. Датой его «рождения» считается 24 апреля 2012 года. Чтобы не попасть под действия алгоритма, Google приводит ряд рекомендаций, которые необходимо учитывать при продвижении сайта в этой поисковой системе. Вот некоторые из них:

    на сайте не должно быть автоматически сгенерированного контента;

    на сайте не должно быть страниц с неоригинальным или дублированным контентом;

    сайт не должен предоставлять неодинаковый контент или разные URL пользователям и поисковым системам;

    переадресация на другой URL не должна применяться для обмана поисковой системы;

    запрещено использовать скрытый текст и скрытые ссылки с целью влияния на рейтинг сайта в результатах поиска Google;

    на сайтах, участвующих в партнерских программах, свой собственный контент должен превалировать на контентом, предоставляемым партнерской площадкой;

    ключевые слова на странице должны полностью соответствовать ее содержанию;

    запрещено создание вредоносных страниц для фишинга и установки вирусов, троянов или другого вредоносного ПО;

    запрещено некорректное использование разметки для расширенных описаний веб-страниц;

    запрещена отправка автоматических запросов в Google.

Если на вашем сайте выявлено что-то из данного списка и он попал под санкции «Пингвина», то выйти из-под них можно будет только при очередном апдейте алгоритма и только в том случае, если на сайте исправлены ошибки, приведшие к пенализации. С каждой новой версией «Пингвина» частота апдейтов возрастает, а значит, скорость выхода из-под санкций тоже увеличивается.

На что влияет Google «Пингвин»

Алгоритм влияет на ранжирование сайта. Некоторые говорят, что это не понижение в поисковой выдаче, а лишь отправка сайта на ту позицию, которую он должен занимать на самом деле. Но это не совсем верное утверждение, так как понижение позиций в выдаче связано с наличием и оценкой веса негативных факторов сайта, и, как мы уже писали выше, для каждого сайта степень влияния негативных факторов индивидуальна, а это уже пенализация.

Алгоритм и ручная модерация

Напоминаем, что «Пингвин» – это автоматизированный алгоритм, и он всегда будет работать как автоматизированный алгоритм. Но существует еще и такое понятие, как «ручная модерация» сайта, что также может привести к пессимизации позиций в поисковой выдаче. При этом и алгоритмическая, и ручная модерации могут проводиться на вашем сайте одновременно. Стоит заметить, что выход из-под санкций алгоритма «Пингвин» происходит автоматически, но, чтобы выйти из-под санкций, наложенных в режиме ручной модерации, необходимо связываться с техподдержкой Google и сообщать о том, какие шаги были предприняты для исправления ошибок на сайте.

Определение проблемы

Для определения причин пенализации сайтов алгоритмом «Пингвин» необходимо проверить внутренние факторы, как, например, чрезмерная «тошнота » ключевых слов на странице. Переспамленный ключевиками текст, и другие манипуляции – это то, что нужно проверить и исправить в первую очередь в случае попадания сайта под санкции «Пингвина».

Есть еще одна распространенная причина пенализации - наличие внешних спам-ссылок на ваш ре сурс. Как правило их появление связано с попытками проведения самостоятельной внешней SEO-оптимизации, в процессе которой некоторые владельцы сайтов прогоняют его через бесплатные каталоги, доски объявлений и тому подобные низкокачественные площадки. Чтобы избежать подобных проблем, лучше всего либо обращаться к проверенным SEO-специалистам, либо доверять продвижение сайта автоматизированным системам, таким как SeoPult, которые имеют свои настроенные фильтры и отсеивают некачественные площадки, недопуская их к клиенским сайтам. Если же вы занимались SEO самостоятельно и получили ссылки со спам-площадок, то стоит провести ссылочный аудит, чтобы определить, какие ссылки негативно влияют на ваш сайт и какие из них стоит удалить или отключить от учета поисковиком (с помощью инструмента Google Disavow Tools). Получить список внешних ссылок для аудита можно через Google Webmaster Tools . Но так как Google может видеть не все ссылки, список стоит дополнить, используя сторонние инструменты, такие как: Bing Webmaster Tools , Ahrefs , Majestic , Open Site Explorer и SEMrush . Все они имеют свои базы ссылок, которые могут дополнить список Google Webmaster Tools.

Инструмент Disavow (отклонение ссылок)

Как только вы получите полный список внешних ссылок и определите, какие из них повлияли на пенализацию вашего ресурса, вы сможете отклонить их учет в поиске Google. Для этого существует инструмент Disavow Tool , содержащий список ссылок, влияние которых на ваш сайт необходимо перестать учитывать. Джон Мюллер из Google говорит, что этот инструмент аналогичен тегу, только направлен для использования на внешних ресурсах. Вы можете запретить к индексации как отдельные внешние ссылки, так и все ссылки, ведущие с конкретного домена. Джон говорит, что добавления ссылок в Disavow более чем достаточно для выхода из-под санкций «Пингвина». В случае если вы попали под ручную модерацию (пенализацию), вам следует записывать все свои действия, предпринятые для выхода из-под санкций и позже сообщить о произведенных изменениях в службу поддержки.

Запрос на повторную проверку

В случае получения ручной пенализации единственным способом выхода из-под санкций является подача запроса на повторную проверку в кабинете Вебмастера Google. Отправлять его нужно только после того, как вы, с вашей точки зрения, исправили все, что могло привести к пенализации сайта. В запросе необходимо указать, какие ошибки вы выявили и какие шаги предприняли для их исправления. Чем более подробным будет описание ваших действий, тем выше вероятность скорого выхода из-под санкций Google.

Качественные ссылки, которые помогут выйти из-под санкций «Пингвина»

По словам уже известного нам Джона Мюллера из Google, выйти с наименьшими потерями времени и усилий из-под санкций «Пингвина» или вовсе под них не попасть может помочь разумное соотношение большого количества качественных внешних ссылок к малому количеству спам-ссылок. К сожалению, точного количественного соотношения качественных ссылок к некачественным никто не знает, потому старайтесь систематически проверять качество вашей ссылочной массы и при обнаружении веб-спама сразу же удалять их или добавлять в Disavow.

Черное SEO

Черное SEO – это способ борьбы с конкурентами, при помощи которого можно сильно понизить позиции конкурентной площадки в поисковой выдаче. Одним из таких способов, например, является «ссылочный взрыв ». Но стоит помнить, что инструменты черного SEO не всегда могут быть эффективны, особенно если они применяются к сайтам с высоким трастом и качественной ссылочной массой . В ряде случаев ссылочный взрыв может сыграть в плюс сайту-конкуренту, так как новые ссылки (даже некачественные) могут значительно «утяжелить» накопленную качественную ссылочную массу и, вместо негативного эффекта, вывести сайт конкурента на более высокие позиции (относительно прежних). Также стоит отметить, что Google учится распознавать манипуляции конкурентов и защищать сайты, против которых они направлены.

Заключение

Определить самостоятельно, попал ли сайт под санкции Google, довольно сложно, особенно если они имеют алгоритмический, а не ручной характер. В Google модератор уже внесено предложение о том, чтобы в кабинет веб-мастера добавить инструмент, позволяющий определить наличие санкций «Пингвина» или «Панды», наложенных на тот или иной сайт, или отсутствие таковых. Если эта функция будет добавлена, то станет гораздо проще диагностировать и исправлять ошибки сайта, выявленные конкретными алгоритмами.

Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

Наблюдения по работе Google Penguin

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% - просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% - просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% - замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Тут же стоит посмотреть на график источников поискового трафика:

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.

2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):

Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉

3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:

Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.

Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.

Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.

Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…

Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.

Всем удачных и качественных перемен!

В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...

После того как за дублированный контент в феврале 2012 меня наказала Google Панда и за 2 с лишним месяца трафик просел ниже плинтуса (это я вам показал в этой статье про ), то у меня реально опустились руки и не хотелось вообще заниматься продвижением блога.

Я перестал с тем же энтузиазмом писать статьи, заниматься ссылочным продвижением, устраивать конкурсы и т.д. Реально, скажу честно, был некий депресс. Ну как так, пыжишься, пыжишься, все идет в гору как и должно быть и тут БАЦ, трафик проседает и ты не знаешь в чем дело.

И вот тут как раз за этот спад в активности, ко мне за спиной подкрался Google Пингвин и наказал в добавок. За что? А за то, что заподозрил меня в неестественном ссылочном продвижении. И наверное даже не за сами неестественные входящие ссылки, а за спад в их количестве.

Сейчас в 2014 году я то уже разобрался в чем дело (почему резко упала посещаемость с февраля), дело в ДУБЛЯХ, но к сожалению уже поздно, фильтр пингвин наложил. Слава богу все закончилось отлично и я из под него успешно вылез.

Давайте, чтобы все было понятно новичкам я начну с самого начала и по порядку. Вот что вы узнаете из данной статьи:

Фильтры Google Пингвин и Панда — за что они наказывают

Начнем вообще с понимания того, за что google в основном наказывает блоги и накладывает на них так называемые фильтры панда и пингвин. Разберем сначала панду, так как она наказала меня первой.

Алгоритм google панда наказывает за контент. То есть за ваши косяки в контентной составляющей блога. А косяков у нас море поверьте. Я выделил тут несколько пунктов:

1. Сам контент . Если у вас на блоге в основном не уникальный контент (рерайт или еще хуже копипаст, скопировали тупо и вставили себе), то фильтр вам обеспечен. Контент на блоге должен быть уникальный. Ни какого скопировал, вставил себе — запомните это.

2. Переоптимизация контента. Если у вас все статьи нашпигованы ключевыми словами, слишком много выделений ключевых слов, подчеркиваний, курсивов, слишком много ключевых слов в h1, h2, h3 и т.д., переспам в title, описании (description), keywords и т.д., то за это тоже можно получить по шапке. Не то что можно, вы именно и получите по шапке.

Если вы что-то и выделяете, то сделайте это так, чтобы было удобно пользователю в первую очередь, а не чтобы как-то схитрить и заоптимизировать. Знаете прикольную шутку про сеошника? Слушайте:

SEOшник приходит в бар, ресторан, купить алкогольные напитки, клубы, лучшие бары в Москве, заказать банкет…

Вот у вас такого быть не должно!)))

3. Дублированный контент. Моя любимая тема последних 2-х статей. В выдачу google должен занести только главную страницу, страницы и записи (статьи). Все. Других страниц с одинаковым контентом быть в выдаче не должно. Как показывает практика более 90% блоггеров страдают болезнью дублей. Решение и .

4. Слишком много рекламы. Если у вас ну очень много рекламы на блоге, то это так же видит google панда и понижает ваш блог в выдаче по ключевым запросам. Особенно панда не любит рекламу в начале статей. Опять же у 90% блоггеров в самом начале статей стоит реклама google или яндекс.))

Это очень плохо. Я лично проводил эксперимент на своем блоге. Хотел узнать как реклама влияет на позиции. Сначала я убрал рекламу в начале статей. Трафик чуть чуть вырос. Далее я собрал все те статьи на которые всех чаще заходят посетители с поисковых систем, ПОЛНОСТЬЮ убрал в этих статьях рекламу и...

Через 1-1,5 недели трафик на них вырос почти в 2 раза. Вот вам и прикол. Короче подумайте над этим. не делайте из своего блога светофор рекламы, вставляйте ее так, чтобы она была незаметна для посетителя.

5. Показатель отказов. Что это? По-русски, это когда посетитель пришел на ваш блог на какую-то статью и через 2-3 секунды, ну 5 или 10 закрыл вкладку. И чем вот так вот больше тем хуже. 100 человек пришли на статью, 80 человек сразу ушли — это говорит о том, что 80% людей считают ее не информативной.

То есть люди не нашли в ней то что искали. Следовательно стоит понизить ее в выдаче. Какие выводы можно сделать вам? Возможно заголовок статьи не тот, мало контента, человека отпугнул дизайн, может у вас какая-то музыка на фоне начинает играть (это вообще пипец, я бы такие сайты сразу под фильтр)

Если взять все эти 6 пунктов вместе, то вы наверное уже поняли, какая статья будет любимицей google панды. А это классная интересная, уникальная статья заголовок которой будет цепляющим и информативным. Чтобы посетитель прочитал заголовок и понял, — «Все, вот это то что мне надо, я нашел что искал».

Статья в которой нет копипаста, статья которая не напичкана ключевиками, не переоптимизирована, в которой нет продажных ссылок и кучи рекламы... Статья у которой нет братьев близнецов и которую читают от корки до корки не 5-10 секунд, а 1-2-3-5 минут да еще и хотят другие статьи почитать. =)

Вот к чему надо стремиться товарищи. Это вот по google панде. Эта зверюшка пришла ко мне в 2012 году в феврале, посмотрела на тысячи дублей, которые появились вдруг от куда не возьмись и наложила санкции на весь блог.

А до этого момента трафик дошел до 6200 посетителей в сутки и продолжал расти как на дрожжах. Ну я и накосипорил.))

Сейчас дубли потихоньку уходят и я вижу прирост трафика с google:

Всегда было с гугла 150-170 человек в сутки, а тут уже 280-330. Процесс пошел. Чувствую когда дубли уйдут, то трафик с google даже обгонит Яндекс =)

Что такое хороший блог? Это блог, который постоянно развивается и дает людям качественный, уникальный и полезный контент верно? Верно. А как гугл определит качественный он или нет? Интересный или нет?

Очень просто. По поведенческим факторам — раз. По входящей ссылочной массе — два. Первое понятно, про поведенческие факторы говорить много не буду, почитайте и у меня статьи на блоге есть про них и в интернете.

Разберем входящую ссылочную массу. Если блог развивается и выдает постоянно полезные и интересный контент, то по любому на этот блог должны ссылаться другие сайты и блоги в сети. Так? То есть должен быть постоянный прирост ссылочной массы. Ссылки должны идти и идти...

С сайтов и блогов, с социальных сетей, закладок, форумов и т.д. и т.п. По любому... НО! Ссылки естественные и качественные — раз, идти постоянно — два. Что такое естественные и не естественные ссылки вы можете почитать в интернете. Про качество расскажу дальше.

Вкратце про естественные и не естественные. Естественные — те которые ставят другие люди без ваших просьб и т.д. Понравился им пост ваш, они и поставили ссыль. Не естественные — покупные или поставленные специально вами где-то лишь бы была ссылка ведущая на ваш блог, которая поможет увеличить ваши позиции в ПС. Как то так.

Если же google пингвин видит, что на вас идут ссылки с других сайтов и блогов, но основная масса из них — не естественные, то он вас накажет. Если же google пингвин видит, что на вас идут ссылки естественные, супер, но если они шли шли, а потом бац и перестали идти, то он вас тоже накажет. За что?

А за то, что ваш блог перестал развиваться. Все просто. Это некий сигнал гуглу, который дает ему понять, что или же ваш блог реально затух, то есть посетители любили ваш контент и делились ссылками на него в других источниках, а потом перестали или же вы занимались покупкой ссылок, потом перестали это делать.

То есть было например входящих ссылок на вас 200, а стало 100. Значит где-то вы смухлевали, наверняка купили временных ссылок либо просто там где стояли ссылки на вас, те сайты и блоги умерли.

Google все это понимает, он смотрит на динамику роста ссылочной массы. Если видит обвал, то на вас возможно наложат санкции. Не возможно, а наложат.

Вывод: блог надо развивать постоянно. Постоянно писать полезный и интересный контент, тем самым наращивая ПОСТОЯННО входящую ссылочную массу.

Окей. За что наказывает Google пингвин мы понимаем, а как же узнать наложены на ваш блог какие-то санкции пингвина? Чтобы это определить нужно сначала вообще знать какие виды фильтров существуют у Пингвина.

Какие бывают фильтры Google Пингвин (виды)

У пингвина бывают 2 вида фильтров:

1. Ручной фильтр
2. Автоматически фильтр

Как узнать под каким фильтром находится ваш блог и находится ли вообще? Давайте начнем с ручного фильтра. Я расскажу вам как попал под него мой блог и как я из него вышел довольно таки быстро хотя сидел под ним аж почти 2 года.

При чем реально вопрос решался быстро, но мое не желание разобраться в этом вопросе затянуло выход из под ручного фильтра аж на 2 года. Короче отнесся я к нему не серьезно и образно говоря только делал вид, что хочу из под него выйти.

Итак! В общем 4 мая 2012 года приходит мне в панель управления google webmasters (раздел — поисковый трафик меры принятые вручную ) вот такое письмо:

То есть гугль говорит мне о том, что нашел не естественные ссылки, ведущие на мой блог и накладывает на меня ручной фильтр. Почему ручной? А потому что я письмо получил. При наложении автоматического фильтра письмо не приходит.

Ну короче посмотрел я на это письмо, кивнул головой, улыбнулся и пошел по своим делам. Так как трафик просел из-за дублей (о которых я не знал тогда) еще с февраля, то мне уже честное слово было по барабану, фильтры не фильтры, панды, пингвины и т.д.

Я забил на все. Просто тупо писал иногда посты, занимался переездами в новую хату, потом в и т.д. Короче был жесткий спад моей активности. Прошел АЖ ЦЕЛЫЙ ГОД!)))) И только тогда мне что-то подумалось — а не пора ли разобраться в вопросе снятия фильтра?)))

И вот только 3 марта 2013 года я отправляю первый запрос на повторную проверку в google и прошу пересмотреть мой блог на наличие не естественных входящих ссылок и снять фильтр:

Говорю мол какой я белый и пушистый, больше так не буду, вот мол блогу дизайн сменил, картинки все уникал, все статьи пишу сам, ля ля ля... Там в этом же разделе есть такая кнопка:

Отправил. Через аж 3 дня получаю ответ:

То есть они проверили мой блог и как бы он все еще нарушает рекомендации по обеспечению качества. Ссылки все еще на меня идут неестественные. Окей. Я отправляю еще раз запрос и там уже возмущаюсь еще больше, мол да как так, я не нарушал, не виноватая я, он сам пришел и все в этом роде.

Снова получаю ответ, нет ты сама пришла... Виноватая...))) То есть ни фига фильтр не снимают. Ок! Отправляю запрос еще раз и уже ругаюсь... Мол да что такое, покажите ссылки, их на меня идет аж 1500, я не маг и не могу понять какие хорошие, а какие плохие.

Получаю вот такой ответ:

То есть снова говорят, что сайт нарушает рекомендации, но они еще и даже 3 ссылки показали какие для примера. Я посмотрел все эти ссылки и увидел, что это пипец. Как можно считать их не естественными, если их люди сами ставили на своих блогах??? Ну ок, согласен на счет одной, я проводил конкурс, но остальные то 2 за что?

Я пишу письмо гугл снова, мол товарищи вы что там с ума сошли со своими алгоритмами? Вы считаете за неестественные ссылки как раз таки естественные ссылки. Их люди сами ставили. Получаю снова ответ — ваш сайт все еще нарушает рекомендации и снова показывают еще примеры ссылок.

Я снова смотрю на них и вижу, что все они естественные. Я их не покупал, люди их сами ставили. И вот так я 9 раз отправлял запросы на проверку. Все бесполезно. Я уже хотел писать им маты в поддержку, но понял, что это точно к хорошему не приведет, поэтому пошел на форум google.

Решил там по задавать вопросы. Объясняю ситуацию, говорю google присылает письма, что мой блог нарушает рекомендации, как так, ведь все ссылки естественные. Получил там кучу бесполезных ответов в итоге ушел от туда.

Мой вывод был однозначный: Google не заслуженно наложил на меня фильтр.

На самом деле ребята, я считаю, что гоголь наложил на меня фильтр как раз таки не за не естественные ссылки, а за спад в общем количестве входящих ссылок. Я расслабился после панды, перестал получать качественные входящие ссылки и поэтому пингвин огрел меня своим плавником =)

Как я вышел из под ручного фильтра гоголя пингвин

Но не буду же я сидеть, плакать в платочек и оставлять все как есть? В начале 2014 года я решил взять себя в руки и избавиться от этой напасти, от этого фильтра google. Я стал копать различную информацию по снятию фильтра, читать кучу статей и кейсов, смотрел видео, посещал вебинары по seo, смотрел курсы и т.д.

В итоге получил четкое понимание того, что мне надо сделать, чтобы вывести блог из под фильтра. А мне надо было сделать следующее:

1. Собрать полный список всех входящих на мой блог ссылок
2. Вычислить из списка плохие ссылки и отклонить их в Disavow Tool
3. Удалить все те ссылки с других сайтов (которые мне показал google)
4. Начать получать качественные естественные ссылки

Весь январь и февраль я именно этим и занимался. 22 февраля отправляю запрос на повторную проверку и 2 марта УРА!!! Получаю письмо от Google где он говорит, что фильтр снят:

Прочитав это письмо я вскочил со стула, начал бегать по комнате в трусах с криками «Google я люблю тебя!!!», потом опять же в одних трусах побежал в магазин, купил пузырь коньяка и напился как скотик =))) Шучу конечно же... Но радости моей не было предела.

Так вот! Что я собственно сделал? Первым делом я попросил всех тех вебмастеров убрать те ссылки на которые мне указал google. Почти все убрали без проблем, за что им большое спасибо! Но ведь есть и те ссылки, которые я не могу убрать верно? Что делать с ними?

Все это дело вставляем в простой txt документик:

Ок. У нас с вами есть полный список всех входящих доменов на наш блог. Теперь нам надо вычислить все плохие ссылки из этого списка и сказать google, чтобы он не учитывал их вообще при ранжировании.

У google есть такой специальны инструмент, который называется Disavow Tool . Туда мы можем загрузить список ссылок, которые не стоит учитывать google и через какое-то время через несколько апдейтов все эти ссылки учитываться не будут.

Как это делается я расскажу ниже, но вот вопрос — как вычислить из списка, какие ссылки хорошие, а какие плохие? Тут есть 2 варианта:

Ну первый вариант конечно же рабочий, но мало эффективный. Почему? А потому что вы можете смотреть на ресурс, видеть, что вроде бы он нормальный, но на самом деле по качеству плохой. Качество — это в первую очередь ТРАСТ и СПАМ. Об этом дальше.

То есть вы не отклоняете ссылку, думая что она хорошая, а она на самом то деле плохая. Так же первый вариант плох тем, что займет у вас кучу времени. Вот у меня 1500 входящих ссылок. Представьте если я буду по каждой ходить? Это жесть =)

Второй вариант крут тем, что сервис Checktrust сам пройдет по всем тем ссылкам, которые вы ему покажете, выберет из них все плохие не трастовые и заспамленные и даст вам уже ГОТОВЫЙ ФАЙЛ, который только нужно будет загрузить в инструмент Disavow Tool и все.

Однозначно рекомендую вам использовать этот вариант, так как это 100% решение. Я 9 раз отправлял заявки на пересмотр в google и только на 10 раз, когда использовал этот сервис (получил готовый файл и отправил его в Disavow Tool) фильтр с меня сняли.

Для того, чтобы воспользоваться сервисом checktrust вам надо всего лишь:

1. Зарегистрироваться
2. Добавить список всех ссылок на проверку в инструмент BackLinks Checker
3. Получить готовый файл с плохими ссылками
4. Отправить его в Disavow Tool.

Начнем. С регистрацией у вас проблем не будет. Далее создаем в кабинете новый проект BackLinks Checker:

Жмем «Далее» и — «Подтвердить и разместить проект». Все. Сервис через минут 5-10, а то и раньше все ссылки обработает и выдаст вам готовый файл, который надо будет загрузить в Disavow Tool, чтобы отклонить плохие ссылки.

Как только Checktrust все закончил, заходим «Домой», нажимаем на название нашего проекта и нам автоматически скачается txt файлик со всеми плохими ссылками:

Вот с этим файлом мы идем сюда в Disavow Tool . Жмем — «Отклонение ссылок»:

Еще раз — «Отклонение ссылок» и загружаем туда наш файл, который нам дал checktrust:

Все! Плохие ссылки мы отклонили! Но этого мне было мало, чтобы выйти из под фильтра. Мне обязательно нужно было восстановить динамику роста ссылочной массы. То есть мне нужно было сделать так, чтобы на меня снова начали ссылаться различные сайты и блоги.

Если сказать коротко, то мне надо было начать улучшать свой ссылочный профиль, чем я и занялся. Что такое ссылочный профиль, как его проанализировать и улучшить я рассказывал в своем курсе Как стать блоггером тысячником 3.0

Естественно самое главное в улучшении ссылочного профиля — это постоянный прирост новых качественных ссылок. Новые входящие ссылки нужно получать постоянно и в этом мне так же помог и помогает до сих пор сервис Checktrust.

Это вообще сейчас инструмент №1 в продвижении моего блога. Как его использовать при покупке ссылок, я так же рассказал в курсе КСБТ 3.0. Владелец этого сервиса Александр Алаев , про которого я вам уже не раз говорил. Саня спасибо за такую крутую штуку.

Как же она здоровски помогает не выкидывать 90% бюджета при покупке ссылок в трубу. В общем я начал изо дня в день получать входящие ссылки (бесплатно и платно, покупая их на биржах). Вы слышали, что Яндекс отменил ссылки? =) Верьте этому дальше.))))

В общем вот таким вот образом я вышел из под ручного фильтра google. Есть еще и автоматический фильтр. Чем он отличается от ручного? А отличается он тем, что у вас блог (сайт) вылетает за топ 50-100 по всем позициям, трафик жестко проседает, но уведомления в панели инструментов google вы не получаете. Все просто!

И если от ручного фильтра избавиться можно в принципе быстро, только использовав checktrust, то от автоматического будет избавиться гораздо сложнее потому что он снимается не людьми, которые смотрят вашу заявку на пересмотр и принимают решение, а роботами (алгоритмами).

А у роботов есть определенные цифры выхода из под фильтра и пока ваш ресурс не выйдет на эти цифры, вы из под фильтра не выйдете, так же надо ждать апдейтов алгоритмов gogole пингвин. Схема выхода их под автоматического фильтра пингвина такая же как для ручного:

Если вы видите например, что у вас есть хороший трафик с Яндекса, а с google с гулькин клюв, то это сигнал — вы под фильтром. Или панды или пингвина. За что наказывает панда вы уже знаете. Если считаете, что у вас все «зер гут» с пандой, то значит не все так хорошо с пингвином.

Нужно принимать меры. Но не стоит сразу паниковать и бежать отклонять ссылки. Может быть стоит просто посмотреть все свои входящие ссылки, проанализировать их в checktrust, посмотреть на то, какого они качества и наглядно оценить всю картину.

То есть каких ссылок больше плохих или хороших. Если вы видите реально, что на вас ссылаются мало качественных ресурсов, то надо эту ситуацию исправлять и начать добывать качественные ссылки. Я замечу КАЧЕСТВЕННЫЕ!

Ну вот наверное и все. На этом я буду заканчивать и в заключение у меня для вас есть интересное предложение:

ТОТ КТО ДО 15 АВГУСТА 2014 ГОДА ЗАРЕГИСТРИРУЕТСЯ В СЕРВИСЕ CHECKTRUST ПО МОЕЙ ПАРТНЕРСКОЙ ССЫЛКЕ И ПОПОЛНИТ БАЛАНС СВОЕГО СЧЕТА МИНИМУМ НА 1000 РУБЛЕЙ, ТОТ ПОЛУЧИТ ОТ МЕНЯ ОЧЕНЬ ХОРОШИЙ ПРЕЗЕНТ.

ПОСЛЕ РЕГИСТРАЦИИ И ПОПОЛНЕНИЯ БАЛАНСА ПРОСТО НАПИШИТЕ МНЕ В ПОДДЕРЖКУ И ПОЛУЧИТЕ СВОЙ ПОДАРОК. ЕСЛИ ВЫ ПОПОЛНИТЕ БАЛАНС НА 2000 РУБЛЕЙ, ТО В ДОБАВОК К ПОДАРКУ Я ЛИЧНО ПОСМОТРЮ ВАШ БЛОГ, ПРОАНАЛИЗИРУЮ ЕГО НА ОШИБКИ И СКАЖУ ВАМ ЧТО НУЖНО ИСПРАВИТЬ.

ЕСЛИ НАПРИМЕР У ВАС ЕСТЬ КАКИЕ-ТО НЕДОПОНИМАНИЯ С УСТРАНЕНИЕМ ДУБЛЕЙ НА ВАШЕМ БЛОГЕ, О КОТОРЫХ Я ГОВОРИЛ В ДВУХ ПРЕДЫДУЩИХ СТАТЬЯХ, ТО Я ВАМ В ЭТОМ ТАК ЖЕ ПОМОГУ И ВСЕ НАСТРОЮ!

НО! Не стоит думать, что я написал эту статью лишь бы пропиарить сервис checktrust и заработать комиссионных. Это не так. Это действительно реальный сервис, который я сам использую почти каждый день и настоятельно рекомендую вам использовать его.

А предложение я вам делаю, потому что участвую в конкурсе от checktrust, где разыгрывается 5 айфон, который я бы хотел выиграть и вручить победителю конкурса « ». =) Вот такие пироги.

Если у кого-то будут какие-то вопросы, то обращайтесь в комментариях. Но по идее я думаю, что все понятно объяснил.

Ребята, знаете почему сегодня у большинства блоггеров печальная ситуация с трафиком от google и yandex? Ну да, технические косяки играют роль, но одна из самых главных причин — это отсутствие хорошей входящей ссылочной массы или же вообще полное ее отсутствие.

Сколько писем я получаю в поддержку, — «Александр, что делать? Пишу в блог уже второй год, а трафика с ПС все нет. Статьи уникал, интересные, полезные, есть куча читателей... ПОМОГИ!»

Это все супер, что у вас много читателей и статьи классные, но это мало. Вы должны показать и доказать, что они действительно классные. Показать это могут только качественные, трастовые, входящие ссылки. И чем их больше тем лучше.

Если авторитетный сайт ссылается на вас, то это прямой показатель того, что ваш сайт интересен. Если вы ведете блог 2-3 года и у вас 100 входящих ссылок, то не ждите мега посещаемости. Посмотрите на проекты, которые выходят на десятитысячные посещаемости.

Там ссылочное продвижение продумывается еще до начала ведения проекта. Там есть целые методики, анализы, планирование ссылочного продвижения и т.д. Именно поэтому одни ресурсы развиваются хорошо, а другие в попе.

В общем последнее — используйте ссылочное продвижение и будет вам счастье, и не слушайте ни какие заявления, что ссылки не работают, их отменили и т.д. Удачи!

P.S. Наверное самый последний вопрос у вас — «Что мне делать сейчас? Письмо от google мне не пришло, вроде как я не под фильтром, трафик какой ни какой, но идет. Что тогда?»

А тогда просто оцените качество всех входящих на ваш блог ссылок через сервис checktrust (как это делать я говорил в КСБТ 3.0) и если вы видите, что картина печальная ссылок мало и основная масса не очень хорошего качества, то принимайте меры.

Уверяю вас! Начнете получать качественные ссылки, увидите рост трафика. Я это наглядно показывал до февраля 2012 года пока не получил панду за дубли.

Ну все, всем пока! Жду ваших вопросов в комментариях!

С уважением, Александр Борисов