Что такое фильтр Penguin от Google. Краткий экскурс в историю. Миф: дезавуирование плохих ссылок – единственный путь восстановиться от воздействия алгоритма Penguin
Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».
Фильтр Google Пингвин - это один из последних алгоритмов, которые компания использует при ранжировании сайтов в поисковой выдаче.
На сегодняшний день Google при ранжировании сайтов принимает во внимание более двух сотен факторов. Чтобы учесть их все, одного алгоритма не хватит, необходимы несколько, каждый из которых будет решать собственные задачи.
Главная задача фильтра Пингвин – выявление и блокировка сайтов, использующих нечестные методы продвижения, основным из которых является закупка ссылочной массы. Алгоритм постоянно совершенствуется и в настоящее время апдейт фильтра Google Penguin выполняется практически непрерывно.
История разработки алгоритма Пингвин
Google Penguin вышел в мир в апреле 2012 года. В течение следующих двух месяцев он дважды обновлялся, разработчики корректировали первую версию фильтров. Вторая версия алгоритма появилась почти через год, обновленный Пингвин действовал уже тоньше и учитывал не только уровень ссылочного спама, но и общий уровень страницы.
Осенью 2014 года алгоритм вновь был обновлен. Надо сказать, что в тот период он действовал таким образом, что попавшим под его фильтры сайтам приходилось после коррекции долго дожидаться выхода очередного обновления, чтобы вновь пройти проверку. Ситуация изменилась в 2016 году, после выхода Google Penguin 4.0, который действовал в режиме реального времени и обновлялся непрерывно. Последние версии алгоритма действуют предельно мягко – учитывается уровень сайта, качество страниц, а некачественные ссылки аннулируются без отправки всего сайта в бан.
За что наказывает Google Penguin
Специалисты полагают, что алгоритм Пингвин должен дополнять алгоритм Google Панда, отвечающий за проверку контента сайтов. Чтобы ваш ресурс не попал под фильтр Google Пингвин, необходимо внимательно работать с внешними ссылками на сайт и избегать того, что специалисты называют манипулированием ссылочной массой. Основными способами такого манипулирования считаются:
- «Торговля» ссылками, когда владелец сайта за деньги или другую плату публикует на своем ресурсе ссылки на чужие сайты.
- Явно искусственный обмен ссылками, когда сайты ссылаются друг на друга из-за сговора владельцев, а не из-за качества контента.
- Использование на сайте большого количества текстов, в которых много «притянутых за уши» анкоров и ключевых слов.
- Использование сервисов, которые автоматически генерируют ссылки на сайт.
- Наличие на сайте ссылок, имеющих в анкоре прямое вхождение ключевиков.
- Использование сквозных ссылок с анкором-ключевиком в сайдбаре и футере сайта.
- Комментарии к материалам сайта со ссылками на спам-ресурсы.
- Чрезмерное количество контекстной рекламы на главной странице сайта.
За применение таких недобросовестных ссылочных схем фильтр Гугла Пингвин быстро и надежно «уронит» ваш сайт на много страниц в выдаче. Более того, вам будет очень непросто вернуть занимаемые позиции, поскольку проверка сайта Google Penguin выполняется всего лишь дважды в год.
Как узнать, что Google Penguin применил санкции
В отличие от алгоритма Google , работающего только в автоматическом режиме, Пингвин используется и при ручной модерации. Если вы обнаружили резкое падение трафика, зайдите на Google Webmaster Tools, в раздел «Меры принятые вручную» и проверьте, нет ли там сообщения от модераторов.
Если письмо есть, вам останется только исправить указанные в нем недочеты и отправить запрос о новой проверке.
Однако чаще всего алгоритм срабатывает автоматически. В этом случае стоит зайти на Moz.com и проверить, не было ли недавно обновлений Пингвина. Если обновления были, значит, диагноз установлен верно, и пора приступать к «лечению» сайта. Выявить это соответствие можно также с помощью сервиса PenguinTool, с сайта Barracuda. Правда для этого вам придется дать сервису доступ к своему аккаунту в Google Analytics, чтобы он сравнил период падения трафика и время выхода нового обновления. Результат сравнения поможет понять, попали вы под фильтры Пингвина или нет.
Что делать? если Google Penguin вас поймал
Если вы попали под фильтры этого алгоритма, то самое худшее, что можно сделать – начать панически удалять все ссылки. Этим вы окончательно погубите ресурс.
Сайту, который поисковая система сочла некачественным, нужна спокойная и вдумчивая санация. Сама компания Google предлагает набрать ссылочную массу заново, не спеша, естественным путем и в основном за счет создания уникального контента.
Первое, что нужно сделать для выхода из-под фильтра – проанализировать ссылочный профиль ресурса. Вам надо будет понять, какие ссылки идут с качественных сайтов, то есть с полезных, интересных и посещаемых, а какие со спамных. Сделать это можно с помощью сервиса Majestic SEO. Ссылки на спамные сайты (внутренние ссылки) надо нейтрализовать с помощью запретов noindex и nofollow, которые закроют «плохие» ссылки от индексации и заблокируют переходы по ним. Чтобы убрать внешние ссылки, вам надо будет использовать сервис Google для отклонения ссылок. Сервис называется , внесенные в него ссылки Пингвин Google просто не учитывает.
Второй шаг – смена анкоров ссылок. Ее выполняют двумя способами. Первый состоит в том, чтобы поменять ссылку на безанкорную, но сделать это может только опытный web-мастер. Второй способ состоит в наращивании ссылочного профиля за счет появления новых безанкорных ссылок.
Третьим шагом вам надо расширить базу ссылочных доноров, то есть позаботиться о том, чтобы ссылки шли из разных источников: с форумов, из социальных сетей, из каталогов, из блогов и средств информации, вроде интернет-журналов и новостных порталов. Полная санация сайта и выведение его из-под фильтров обычно занимает 3-4 месяца.
Чтобы не попасть под фильтры Google Penguin, надо привлекать только качественные ссылки, поддерживать постоянную динамику роста ссылочного профиля и не использовать в ссылках прямые анкоры. Качественный контент и естественное наращивание ссылочной массы из разных источников защитят вас от санкций поисковой системы лучше любого специалиста.
Несмотря на то, что изменения в алгоритмах Google – одна из самых животрепещущих тем в сфере SEO , многие маркетологи не могут с уверенностью сказать, как именно алгоритмы Панда, Пингвин и Колибри повлияли на ранжирование их сайтов.
Специалисты компании Moz подытожили наиболее значимые изменения алгоритмов Google и буквально разложили по полочкам информацию о том, за что отвечает каждое обновление.
Google Панда – Инспектор по качеству
Алгоритм Панда, главной целью которого является повышение качества результатов поиска , был запущен 23 февраля 2011 года. С его появлением тысячи сайтов потеряли свои позиции, что взбудоражило весь Интернет. Поначалу оптимизаторы думали, что Панда штрафует сайты, замеченные в участии в ссылочных схемах. Но, как позже стало известно, борьба с неестественными ссылками не входит в круг полномочий этого алгоритма. Все, чем он занимается, – это оценка качества сайта.
Чтобы узнать, не угрожает ли вам опасность попасть под фильтр Панды, ответьте на такие вопросы:
- Стали бы вы доверять информации, размещенной на вашем сайте?
- Есть ли на сайте страницы с дублированным или очень схожим контентом?
- Вы бы доверили данные вашей кредитной карточки подобному сайту?
- Содержатся ли в статьях орфографические или стилистические ошибки, опечатки?
- Статьи для сайта пишутся с учетом интересов читателей или же только с целью попасть в результаты поиска по определенным запросам?
- Есть ли на сайте оригинальный контент (исследования, отчеты, аналитика)?
- Выделяется ли ваш сайт среди конкурентов, которые выдаются вместе с ним на странице результатов поиска?
- Пользуется ли ваш сайт авторитетом в своей сфере?
- Уделяете ли вы должное внимание редактированию статей?
- Предоставляют ли статьи на сайте полные и информативные ответы на вопросы пользователей?
- Вы бы стали добавлять сайт/страницу в закладки или рекомендовать его друзьям?
- Могли бы вы встретить подобную статью в печатном журнале, книге или энциклопедии?
- Не отвлекает ли внимание читателей реклама на сайте?
- Уделяете ли вы внимание деталям при создании страниц?
Какие именно факторы учитывает Панда при ранжировании сайтов, наверняка не знает никто. Поэтому лучше всего сфокусироваться на создании максимально интересного и полезного сайта. В особенности вам нужно уделить внимание таким моментам:
- « Недостаточный» контент. В данном контексте термин «недостаточный» подразумевает, что контент на вашем сайте не представляет новизны или ценности для читателя, так как не раскрывает тему должным образом. И дело вовсе не в количестве символов, так как иногда даже пара предложений может нести немалую смысловую нагрузку. Конечно, если большинство страниц вашего сайта будут содержать обрывки текста из нескольких предложений, Google сочтет его некачественным.
- Дублированный контент. Панда посчитает ваш сайт некачественным в том случае, если большая часть его контента скопирована из других источников или если на сайте есть страницы с дублированным или схожим контентом. Это распространенная проблема Интернет-магазинов, которые продают сотни товаров, различных лишь по одному параметру (например, по цвету). Чтобы избежать этой проблемы, используйте тег canonical.
- Некачественный контент. Google любит сайты, которые постоянно обновляются, поэтому многие оптимизаторы рекомендуют ежедневно публиковать новые материалы. Однако если вы будете публиковать некачественный контент, не представляющий ценности для пользователей, то такая тактика принесет больше вреда.
Как выйти из-под фильтра Панда?
Google ежемесячно обновляет алгоритм Панда. После каждого обновления поисковые роботы пересматривают все сайты и проверяют их на соответствие установленным критериям. Если вы попали под фильтр Панда, после чего внесли изменения на сайте (изменили недостаточный, некачественный и неуникальный контент), позиции вашего сайта улучшатся после очередного обновления. Учтите, что, скорее всего, вам придется ждать восстановления позиций несколько месяцев.
Google пингвин – Охотник за ссылками
Алгоритм Google Пингвин был запущен 24 апреля 2012 года. В отличие от Панды, этот алгоритм нацелен на борьбу с неестественными обратными ссылками .
Авторитет и значимость сайта в глазах поисковых систем во многом зависит от того, какие сайты на него ссылаются. При этом одна ссылка с авторитетного источника может иметь такой же вес, как десятки ссылок с малоизвестных сайтов. Поэтому раньше оптимизаторы стремились всеми возможными путями получить максимальное количество внешних ссылок.
Google научился распознавать разные манипуляции с ссылками. Как именно работает Пингвин, известно только его разработчикам. Все, что известно оптимизаторам, так это то, что этот алгоритм охотится за некачественными ссылками, созданными веб-мастерами вручную с целью повлиять на позиции сайта. Сюда относятся:
- покупные ссылки;
- обмен ссылками;
- ссылки с нерелевантных сайтов;
- ссылки с сайтов-сателлитов;
- участие в ссылочных схемах;
- другие манипуляции.
Как выйти из-под фильтра Пингвин?
Пингвин – такой же фильтр, как и Панда. Это означает, что он регулярно обновляется и пересматривает сайты. Чтобы выйти из-под фильтра Пингвин, вам нужно избавиться от всех неестественных ссылок и ждать обновления.
Если вы добросовестно последуете рекомендациям Google и не будете пытаться получить ссылки нечестным путем, то сможете вернуть себе расположение поисковых систем. Однако чтобы вернуть первые позиции, вам не достаточно будет просто удалить некачественные ссылки. Вместо них вам нужно заработать естественные редакторские ссылки с трастовых сайтов.
Google Колибри – самый «понимающий» алгоритм
Алгоритм Колибри – это совсем другой «зверь». Google объявил о запуске этого обновления 26 сентября 2013 года, но он также упомянул о том, что этот алгоритм действует уже на протяжении месяца. Вот почему владельцы сайтов, позиции которых упали в начале октября 2013 года, ошибочно полагают, что они попали под фильтр Колибри. Если бы это действительно было так, они ощутили бы действие этого алгоритма на месяц раньше. Вы спросите, а что же в таком случае послужило причиной снижения трафика? Скорее всего, это было очередное обновление Пингвина, которое вступило в силу 4 октября того же года.
Алгоритм Колибри был разработан для того, чтобы лучше понимать запросы пользователей. Теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Екатеринбурге», поисковая система понимает, что под словом «места» пользователь подразумевает рестораны и кафе.
Как поднять себя в глазах Google Колибри?
Поскольку Google стремится как можно лучше понимать пользователей, вы должны делать то же самое. Создавайте контент, который будет давать максимально развернутые и полезные ответы на запросы пользователей, вместо того, чтобы зацикливаться на продвижении по ключевым словам.
В заключение
Как видите, все поисковые алгоритмы преследуют одну цель – заставить веб-мастеров создавать качественный, интересный и полезный контент. Помните: Google постоянно работает над повышением качества результатов поиска. Создавайте контент, который поможет пользователям найти решение их проблем, и первые места в выдаче вам гарантированы.
Привет, друзья. Сегодня обещаю быть интересным, а главное полезным. Поделюсь с вами своей небольшой радостной новостью – как вы уже догадались из заголовка, мне удалось реабилитировать мой сайт, попавший ровно год назад под фильтр Гугл Пингвин. Хочу особо обратить ваше внимание, что речь пойдет именно про автоматически наложенные санкции без уведомлений в панели вебмастера о мерах принятых вручную – ничего этого не было, просто в октябре 2012 года трафик на сайт резко упал, а позиции вылетели из зоны видимости (за пределы ТОП 200). И с тех пор положение только усугублялось, но…
Но наконец-то свершилось то, чего я так долго ждал! Фильтр за спамные входящие ссылки снялся, значительно улучшилась видимость сайта, позиции сильно выросли.
Сказав выше слово «новость», я, конечно же, вас обманул, потому что это не новость. Этот пост я начал писать еще 14 октября 2013 года, но так и не дописал его, сначала решил немного подождать, чтобы не делать поспешных выводов, потом ленился, а затем вообще уволился с работы и переехал в другой город. Короче, было мне совсем не до Пингвинов. Но теперь я готов не только продолжить, но и дополнить свой пост новыми мыслями, идеями и выводами.
Хочу напомнить, что самый последний на сегодня апдейт алгоритма Google Penguin состоялся 5 октября 2013 года, называется он Penguin 5 (или Penguin 2.1), по данным Google новый алгоритм задел около 1% запросов. Вот об этом апдейте и пойдет дальше речь.
Далее я вам расскажу, что стало причиной наложения фильтра, какие были последствия, как мне в итоге удалось победить Гугл Пингвина, и что происходит на данный момент, а так же мои рекомендации о том, как делать не стоит, имея полученный опыт!
Пост будет очень длинным, но наберитесь терпения, это поможет вам либо застраховать себя от возможного фильтра, либо избавиться от него, если он уже наложен. Итак, поехали!
Краткий экскурс в историю
Вот ссылка на мой апрельский пост, где я писал (тогда еще даже в планах не было). Там же я упомянул про один мой проект, который я никому не свечу, но сегодня я решил спалиться, вот этот сайт — http://slimdown.ru/ . Да, это женский сайт, кстати, крупнейший структурированный сборник диет в рунете. И это для него же я делал мобильные приложения для iOS и Android – если не в облом, можете скачать и поставить оценку в 5 звезд, я буду очень благодарен (ссылки на приложения в сайдбаре сверху на указанном сайте)! Но не о крутости моего сайта речь, как вы понимаете.
А речь о том, что данный сайт в октябре 2012 года попал под фильтр Google Penguin. Смотрите сами.
Срез среднесуточной посещаемости с поиска Google по месяцам по данным LiveInternet.ru:
Или вот вам статистика переходов с ПС Google за период 1 января 2012 – 13 октября 2013:
Как видите, 2 октября 2012 у меня было все в полном порядке, взял новый рекорд посещаемости с Google почти в 3000 посетителей в сутки, а уже 6 числа все оказалось в жопе и далее только усугублялось. Совершенно очевидно, что это наложение фильтра за искусственные или спамные ссылки, т.к. как раз в эти дни был апдейт Пингвина. И если все предыдущие обновления алгоритма для меня проходили незаметно, более того – сайт только рос, то в этот раз мне это с рук не сошло. Апдейт этого злосчастного алгоритма был 5 октября 2012 года, назывался он Penguin 3 и коснулся по официальным данным около 0.3% всех запросов.
Так вот, в посте, который уже упоминался выше, я выдвинул гипотезу, что «появление в ссылочном профиле трастовых сайтов должно улучшить ситуацию и теоретически вернуть трафик с Google хотя бы частично ». А так же альтернативное исследование заключалось в том, чтобы сделать выгрузку беклинков на сайт из всех возможных источников, проверить их на качество… Далее почему-то я ничего тогда не сказал, но логично, что после проверки надо было понять, насколько плох текущий ссылочной профиль, выбрать всех плохих доноров и отклонить через инструмент Google Disavow Links Tool .
Восстановим хронологию событий
Чтобы ничего не упустить, еще раз разложим хронологию:
- До 5 октября 2012 года все было замечательно , трафик рос завидными темпами, я собирался начинать копить на яхту)))
- 5 октября случился апдейт алгоритма, после чего трафик резко упал , я понял, что это фильтр. Конечно, первым делом заглянул в панель вебмастера, в раздел «Меры, принятые вручную ». Но и тогда и сейчас там написано «В отношении этого сайта вручную не принимались меры по борьбе с веб-спамом». Я расстроился, перестал закупать ссылки и вообще что-либо делать с сайтом.
- 15 ноября 2012 года, тогда еще, может кто-то помнит, была на странице «мер, принятых вручную» волшебная кнопка, позволяющая написать письмо в Гугл
, даже если никаких мер не принято. Вскоре эту кнопку убрали, видимо, количество таких идиотов как я превысило критическую отметку. Так вот я решил прикинуться валенком и написать слезное письмо с мольбами о пощаде. Каково же было мое удивление, когда текст этого письма, бережно сохраненный в txt-файл, я нашел сегодня в одной из забытых папок на рабочем столе:
Добрый день, уважаемая служба поддержки веб-мастеров.
Я к вам обращаюсь по вопросу, по которому, наверняка, обращаются еще тысячи людей – проблемы с ранжированием сайта.
Я прочитал данную инструкцию в вашей справке — http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=2648487
Мой сайт http://slimdown.ru . Я скачал список ссылок из панели вебмастера для своего сайта. Просмотрел его, а там около 4 тысяч ссылок, и ужаснулся, очень много ссылок с мошеннический сайтов, или дорвеев, созданных на бесплатных хостингах, типа narod.ru и др., вот несколько ссылок примеров:http://a570028.narod.ru/page/dieta_na_chae_s_molokom_72.html
http://alex1953.narod2.ru/dieta_kristiny_orbakayte.html
http://andreydust.narod2.ru/kefirnaya_dieta_9_dnyay_otzyvy.html
http://balbeska-999.narod2.ru/dieta_na_800_kkal.htmlВсе они выглядят одинаково и их очень много. Я просмотрел около 1500 ссылок из списка из 4000 и чуть не сошел с ума, проверяя все вручную.
Я составил список доменов для инструмента отклонения ссылок https://www.google.com/webmasters/tools/disavow-links?hl=ru&siteUrl=http%3A%2F%2Fslimdown.ru%2F и загрузил текстовый файл. Пример содержания файла:
domain: 0good-diet-2011.ru
domain: aleksei-pelevin.narod2.ru
domain: deorseradar.pochta.ru
domain: easy-diet.cu.cc
и т.д.В соответствии с вашей справкой пишу вам это письмо.
Хотелось бы еще попутно задать несколько вопросов:
— Пропадут ли ссылки с доменов, указанных и загруженных в файле для инструмента отклонения ссылок? Если так, то я смогу периодически проверять список ссылок и добавлять в отклонение новые, некачественные ссылки.
— Можно ли добавлять в список на отклонение домены верхнего уровня? Например, narod.ru, чтобы все поддомены так же не учитывались. Я готов пожертвовать ссылками с нормальных сайтов на бесплатных хостингах, иначе просто невозможно отследить все вредоносные поддомены третьего уровня.Небольшая предыстория этого письма. Раньше мой сайт очень хорошо чувствовал себя в поиске Google и получал хороший трафик. Я начал вести свой сайт с конца 2009 года и постепенно наполнял его качественными статьями. Сначала мы с женой писали туда новости, потом стали привлекать и других людей, которые помогали наполнять сайт. По сути, вот уже 3 года и продолжаем каждый день публиковать статьи.
Я постоянно слежу за состоянием сайта в панели вебмастера, исправляю все ошибки, слежу, чтобы не было одинакового содержания на разных страницах и т.д. Внедряю ваши рекомендации, которыми вы делитесь в блоге и в справке для веб-мастера.
Но вот в начале октября 2012 года трафик с Google резко упал. Вот скриншот графика одного из счетчиков — http://s2.ipicture.ru/uploads/20121115/7RIIQFhG.png (04.03.2014, прим — картинка уже не существует) . Заметно, что трафик с начала 2012 года начал очень хорошо расти, мы как раз начали более активно наполнять сайт, чаще публиковать новости. Яндекс долго «думал» прежде чем понять, что мы стали усерднее работать над сайтом и только в мае трафик начал расти. И я не знаю, с чем связано столь резкое падение посетителей с Google, ведь развитие сайта было всегда в одном направлении, просто стали добавлять больше статей. Все статьи уникальные, мы их пишем сами, хотя иногда я и проверяю, не своровал ли кто-то наши тексты.
Поэтому и обращаюсь к вам за помощью. Может быть и правда, причина в тех самых ссылках, о которых я говорил в самом начале письма.
Мы очень ждем вашего ответа.
Спасибо, что выслушали и прочитали такое большое письмо.Как вы понимаете, прикидываться валенком было бесполезно, ни ответа, ни какой-то иной реакции на мое письмо не последовало. Я продолжал грустить.
- В апреле 2013 наступило озарение – задумался про траст, запилил скрипт-парсер маджестика, попутно выдвинул гипотезу, решил провести . А еще через пару дней пришла мысль из разряда, а что если... Что если создать программу для автоматизации оценки имеющихся ссылок и будущих доноров!? И началась разработка (в мае).
- 26 июня 2013 случился . Как вы знаете, случился такой ажиотаж вокруг программы, что я вообще забил все кроме программы, а времени не хватало даже на сон.
- Летом на эксперимент я забил, но не забыл. За месяц до релиза программы на самом первом рабочем прототипе я первым делом прогнал базу доноров GGL и стал закупаться понемногу ссылками с самых трастовых сайтов (Траст > 50, Спам
- Параллельно закупу ссылок я скачал полный список беклинков из Google WMT и из панели вебмастера Яндекса. Совместил эти таблицы, добавил в FastTrust и полностью проверил. На выходе получил список сайтов по самым жестоким фильтрам (Траст 7) и, сформировав txt-файл, использовал инструмент Disavow Tools
. Под раздачу по таким критериям попали около 95% сайтов, требовались жестокие меры. Данный txt-файл я загрузил в Disavow 11 сентября 2013:
- 5 октября 2013 года случается апдейт алгоритма в Google, и видимость сайта резко улучшается, запросы из ниоткуда возвращаются в пределы ТОП10-ТОП30. Казалось бы – вот она Победа! Но…
«Мир уже никогда не будет прежним»
Помните те графики в начале поста? Я их сделал через несколько дней после снятия фильтра. Я был полон оптимизма, наблюдая растущий график по Liveinternet’у и смотря на тут «пипку», похожую на появившийся пульс после остановки сердца, на графике Яндекс Метрики…
Я уверен, вы хотите знать, что сейчас происходит, какие сейчас графики и вообще.
Вот, пожалуйста.
Статистика по трафику с Google по данным Яндекс Метрики за 2 года (период 26 февраля 2012 – 26 февраля 2014):
Не совсем понятно что там на графике происходит. Поэтому ниже предлагаю вам два графика из Liveinternet (среднесуточная посещаемость) с группировкой по месяцам и по неделям:
Вы думаете, какая-то фигня, АлаичЪ нас обманывает! На графике по месяцам и правда можно подумать, что это не больше чем «пук в лужу». Но на графике по неделям видно, что в первый же день трафик вырос в 2 раза и продолжал расти дальше. Далее провал, связанный с новым годом, а так же всплеск, связанный с ним же. Делать еще какие-то выводы из этих графиков я не берусь, но совершенно отчетливо видно, что падений нет, но, к сожалению, нет и роста…
Почему это – Победа!
Вы не поверите, насколько сильно мне хочется вернуть былую славу моего сайта в глазах Гугла, насколько сильно мне хочется вернуть и еще увеличить трафик. Разумеется, чтобы таки начать копить на яхту, ведь я же живу теперь совсем около моря))) Но чудес не бывает, зато бывают победы, и эта одна из них.
Открывайте картинку по ссылке ниже в новой вкладке в полный размер и смотрите. Первым признаком снятия фильтра и улучшения самочувствия сайта в целом является улучшение видимости в выдаче. На графике видно, что видимость сайта улучшилась с 5000 до 8000 показов. После этого в течение 2 недель видимость увеличилась до 12 000, но скриншота этого графика у меня нет, а сейчас вернуться в те времена нельзя, история хранится только за последние 2 месяца. Другими словами, видимость сайта выросла более чем в 2 раза. А ниже графика вы можете видеть изменение видимости каких-то отдельных запросов, их CTR и средней позиции.
Ну и вот вам еще более конкретный пример моей статистики – реальные запросы и изменение их позиций. Историческая сводка по позициям ключевых слов от июня 2012 года до октября 2013. Напомню, что апдейт алгоритма Пингвина случился 5 октября 2012 (фильтр наложен) и 5 октября 2013 (фильтр снялся).
Так же хочу обратить ваше внимание на сами ключевые слова (я их не стал скрывать), это часть из списка моих ориентировочных ключей – это самые ВЧ ключевики в нише (во всяком случае, по тем временам, например, один только запрос «японская диета» дает 1000+ переходов в день, это без длинного хвоста). Я рассчитывал вывести их в топ в течение еще нескольких месяцев, и это потенциально давало мне 30-50 тысяч посетителей ежедневно. Но как в известном ролике «пацан к успеху шел», да не дошел. Я специально для мониторинга выбирал ВЧ, т.к. НЧ и СЧ отлично и сами сидели стабильно в топе, мониторить их смысла особого и не было.
Вот вам еще один график с изменением позиций по маркерным ключам после снятия фильтра . Немного более наглядно, чем исторический график:
Не знаю, что тут еще добавить, графики все наглядно показывают. Но у нас остается открытым чуть ли не самый важный вопрос – а почему все случилось именно так?
Причины и следствия
Итак, есть у меня несколько идей и мнений на тему, почему все произошло именно так, а не иначе, почему трафик восстановился не полностью, почему, почему…
Начну издалека. Знаете ли вы, что существуют специальные форумы Google для вебмастеров, где можно напрямую пообщаться с официальными представителями поиска и обсудить интересующие вопросы? Более всего нам будет интересен форум про индексирование и ранжирование сайтов , где обсуждаются вопросы о взаимодействии сайтов с поисковой системой и их положении в поисковой выдаче.
Конкретно там обсуждаются проблемы, связанные с наложением фильтра, там можно «запалить» свой сайт, если не боитесь и обсудить, почему же вашему сайту стало плохо. Лично я боюсь там обсуждать свой сайт, там валенком не прикинешься, там растерзают на месте, я уже достаточно видел случаев полного морального уничтожения вебмастеров:)
Вот просто для затравки вам несколько ссылок, связанных с наложением Пингвина:
Сайт резко «упал» по всем поисковым запросам
Помогите выйти из под автофильтра
Если почитать несколько топиков, можно заметить, что в обсуждениях отвечающие очень умело оперируют данными по беклинкам из Solomono – скрыться от алгоритма можно попытаться, а от людей – никак. Если вы действительно нарушаете правила, вас моментально разоблачат.
Короче, не о том речь. Выше я вам просто дал полезные ссылки, которые стоит почитать. Но вел я к тому, что я там однажды наткнулся на длинную переписку одного вебмастера и представителя Гугла . Заключалась переписка в следующем – на сайт наложили ручной фильтр, пользователь воспользовался Disavow Links, но эффекта не получил, решил спросить, что делать и как дальше жить. Сначала выяснилось, что он просто некорректно создал txt-файл со списком ссылок для отклонения, далее выясняли, откуда взялись ссылки и как их удалить, часть удалили, часть осталась, решили отклонить. В процессе всего это цирка, который длился около месяца, вебмастеру несколько раз отказывали в снятии ручного фильтра, с горем пополам он наконец смог создать и загрузить правильный список ссылок для отклонения и его приняли. О чудо! Ручной фильтр сняли…
Вы не поверите, но сайт вебмастера не поднялся в выдаче – он просел и потерял даже самые плохие имеющиеся позиции! Фееричная развязка, не так ли? Далее было все еще смешнее – вебмастер умолял наложить обратно на его сайт фильтр, чтобы вернуть хоть какие-то позиции. В итоге дело кончилось ничем — поохали, поахали и разошлись с миром. Зато я хорошо помню объяснение представителя Гугла на счет повторного падения позиций. Он сказал что-то в духе: «А что вы хотели?! Вы отклонили ссылки, они теперь не учитываются, а ваш сайт, может быть, только за счет них и держался хоть на каких-то позициях, теперь эти ссылки не учитываются, вот и позиций тоже нет».
Верить представителям ПС нельзя, но и не верить тоже нельзя. Возможно поэтому одной из причин, почему трафик на моем сайте не вернулся к прежнему уровню, стал именно неучет анкорных ссылок . А я, будучи совершенно бесстрашным человеком, продвигал все по-хардкору – анкорные ссылки с точным вхождением ключевиков (но без повторов, просто очень большой набор кейвордов). В итоге на сайт к моменту наложения фильтра было куплено около 300 ссылок на 50 000р в GGL и еще 300 ссылок на 30 000р в RotaPost. Ссылки покупались максимально тематические — в статьях по теме на соответствующих сайтах. Еще одно тому подтверждение, что тематика сайта мало что решает, а совсем другие факторы отвечают за то, будет ли ссылка работать и не наложат ли фильтр. Кстати, я же потом проанализировал купленные мной ссылки, оказалось, что большая часть сайтов, на которых стоят эти ссылки, заспамлены и не трастовые совсем. Поэтому почти все купленные ссылки и отправились в Disavow, а ведь когда-то они прекрасно работали…до поры до времени.
Когда трафик с Гугла начал падать, с Яндекса он начал расти. Видимо, только тогда до Яндекса дошло, что я начал покупать ссылки, он начал их постепенно индексировать и учитывать. После фильтра в октябре я сразу перестал покупать ссылки, но Яндекс долго их учитывал, потому рост шел аж до февраля. Согласно эксперименту, летом 2013-ого я начал закупать трастовые ссылки, до Яндекса это дошло только в октябре-ноябре, зато хорошо дошло, посещаемость выросла с 3000 до 5000 в сутки. Так что под Яндекс ссылки с хороших сайтов продолжают рулить.
Как правильно отфильтровать некачественные ссылки
Я писал, что находил некачественные беклинки своей программой. Но программа есть не у всех, и далеко не у всех есть возможность ее купить, я это прекрасно знаю. И поэтому месяц назад, в конце января, я незаметно анонсировал наш новый мини-сервис под названием BackLinks Checker , цель которого как раз поиск и фильтрация некачественных ссылок .
Вы просто загружаете файл, скачанный из панели вебмастера Гугла, а сервис сам проанализирует каждый сайт. Когда анализ закончится, будет сформирован готовый txt-файл, который прямо сразу без каких-либо правок можно будет загрузить в Google Disavow Tools. Алгоритмы отбора некачественных сайтов основываются на опытах и наблюдениях, можете мне доверять!
И главное – стоимость такой проверки до смешного мала – 5 копеек за один проверенных хост! Обратите внимание, что я сказал не URL, а хост. В вашем файле с беклинками может быть и 50 000 ссылок, но ссылок с уникальных доменов там может быть всего 300, например. Соответственно и плата возьмется в размере 300*5=1500 копеек = 15 рублей! Где вы еще такое видели, чтобы проверка 1000 ссылок стоила вам всего 50 рублей!
Что касается продвинутых пользователей , которые хотят контролировать каждый шаг и решать все самостоятельно, ты в данный момент мы работаем над большим сервисом под названием CheckTrust — релиз его пока не состоялся, но уже я успел сделать анонс в Москве на конференции AllInTop Conf. Сервис в стадии беты, но вы можете регистрироваться уже сейчас и полноценно им пользоваться. При регистрации каждому будет выдано 500 бесплатных проверок. Если говорить кратко, то этот сервис – аналог программы FastTrust в вебе, а к своему релизу он обрастет новыми уникальными возможностями, которых у программы нет и не будет. Пользуйтесь на здоровье и не забывайте сообщать обо всех найденных багах!
О том, как получить список некачественных ссылок я вам рассказал. Но как говорится в том самом анекдоте – есть нюанс! И нюанс этот взялся из публичных заявлений представителей Google, высказываний на форуме поддержки вебмастеров и, собственно, из писем-уведомлений о наложении ручных санкций на сайт:
«Исправьте или удалите все искусственные ссылки, не ограничиваясь приведенными выше примерами. Возможно, для этого Вам придется связаться с веб-мастерами соответствующих сайтов. Если Вы не смогли добиться удаления каких-либо ссылок, воспользуйтесь инструментом для отклонения ссылок. Однако помните, что недостаточно просто внести в него все подозрительные ссылки: отправляя запрос на повторную проверку, необходимо продемонстрировать, что Вы сделали все возможное для удаления искусственных ссылок с других ресурсов».
Так вот нюанс заключается в том, чтобы не тупо загрузить список ссылок в Disavow, но создать видимость того, что вы приложили все силы к тому, чтобы избавиться от «плохих» ссылок. Если вы арендуете ссылки в sape, то просто перестаньте это делать. А если вы покупали вечные ссылки, как это делал я, то можете попытаться связаться с вебмастерами и договориться удалить ссылки. Но я решил забить на нюанс, опасаясь за Яндекс, и потому ограничился только инструментом Disavow.
В качестве послесловия
Надо сказать, что все вышеописанное актуально и для снятия ручного фильтра Google Penguin , когда вам приходят сообщения в панель вебмастера об искусственных входящих ссылках. В этом случае задача упрощается, вам не надо будет гадать, все ли вы сделали правильно, вы просто чистите ссылки, отправляете запрос на пересмотр и ждете результата, если необходимо повторяете процедуру. Все просто. А вот мануалов по избавлению от автоматического Пингвина я пока не встречал.
Вот так совершенно незаметно вы прочитали более 20 000 знаков, при этом мне пришлось упустить некоторые моменты, поэтому обязательно задавайте вопросы, уточняйте, вместе попытаемся всю недостающую информацию раскрыть в комментариях .
Надеюсь, что мой пост оказался для вас полезным и заставил задуматься о правильных вещах!
Успехов и побед вам, дорогие друзья, в борьбе с фильтрами. Но еще лучше – не попадайте под фильтры вообще!
Спасибо за внимание, до связи.
С уважением, Александр Алаев
Penguin – алгоритм поисковой системы Google, первоначальной ролью которого являлась борьба с неестественными (покупными) ссылками. Дата первого релиза Penguin 1.0 – 24 апреля 2012 года.
Следующие обновления:
Запуск обновления Penguin 4.0 неоднократно откладывался. Релиз обновления планировался на конец 2015 года, однако, работа по усовершенствованию алгоритма продлилась до сентября 2016 года.
Представляем вам перевод статьи из официального блога Google: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html
Пингвин стал частью основного алгоритма Google
Алгоритм Google использует более 200 уникальных сигналов или «подсказок», что позволяет быстро находить то, что ищет пользователь. Эти сигналы включают в себя определенные слова на страницах сайтов, частоту обновления контента, регион сайта и PageRank. Один из таких сигналов Google – это алгоритм Пингвин, который был запущен в 2012 году и 23 сентября 2016 года был обновлен.
После совершенствования и тестирования Google сейчас выкатывает обновление алгоритма Пингвин на всех языках. Представляем вам ключевые изменения, которые вы увидите, они были среди популярных просьб вемастеров:
- Сейчас Пингвин работает в реальном времени . Исторически сложилось так, что список сайтов, «пострадавших» от Пингвина периодически обновлялся. Когда вебмастера улучшали свои сайты, многие алгоритмы Google довольно быстро обновляли информацию о них, но таким алгоритмам, как Пингвин, требовалось время для обновления данных. Теперь данные Пингвина обновляются в реальном времени, а значит, изменения на сайте будут замечены Гуглом гораздо быстрее. Как правило, они вступают в силу сразу после повторного обхода роботом и индексации страниц. Это означает, что Google не собирается больше анонсировать свои обновления.
- Пингвин стал более детальным . Сейчас он понижает страницы, содержащие спам путем изменения рейтинга, основанного на спам-сигналах, а не влияет на ранжирование сайта в целом. Т.е происходит занижение в выдаче одной или нескольких страниц, а не всего сайта.
Интернет (web-паутина) существенно изменился за эти годы, но как Google говорил в своем первоначальном посте, вебмастера должны быть свободны в своих действиях, чтобы сосредоточиться на создании убедительных и полезных сайтов. Также важно помнить, что обновления наподобие Пингвина – это только один из более 200 сигналов, который Google использует для ранжирования сайтов.