Интернет. Социальные сети. Антивирусы. Мультимедиа

Правильные настройки World of Tanks – залог эффективности!

По citrix receiver получило поврежденный ica файл

Установка кистей в фотошоп Есть ли универсальный метод открытия неизвестных файлов

Зарядное устройство из компьютерного бп

Защита от кз на полевом транзисторе

За что дают бесплатное золото World of Tanks

Публикации Разрешение изображения для печати

Epf Расширение файла. Чем открыть epf? Редактирование epf

PIN Master – надежный способ хранения паролей от кредиток

Обзор мобильных приложений для персонального финансового учета Финансовый менеджер для андроид

Спутниковый интернет «Триколор ТВ

Huawei Ascend W1 - Технические характеристики Мобильная сеть - это радио-система, которая позволяет множеству мобильных устройств обмениваться данными между собой

Nikon D80: новая D-SLR камера $1000 уровня

Системные требования Panzar

Accepted by carrier — перевод на русский язык

Пингвин гугл что. Как работает Google Penguin? Что же тогда делать и как быть

До обращения в наше агентство клиент продвигал свой сайт самостоятельно:

  • закупал и размещал статьи на бирже «Миралинкс»
  • закупал ссылки на бирже GoGetLinks

Санкции были наложены в марте 2013 года. Первое письмо, оповещающее об этом, клиент получил 8 марта 2013 года. Как результат, трафик с «Гугла» резко упал с 233 пользователей в сутки до минимума. Это можно видеть на скриншоте ниже (данные Яндекс.Метрики):

Меры были наложены из-за плохих внешних ссылок. О фильтре клиент узнал почти сразу же, но никаких мер по снятию некачественных ссылок не предпринимал, аргументируя это тем, что позиции и трафик с «Яндекса» устраивали, а заморачиваться с «Гуглом» не было мотивации, т.к. «Гугл» – «это все-таки дополнительный трафик». Первый запрос на перепросмотр был отправлен клиентом спустя 9 месяцев после наложения фильтра. После этого было еще три запроса на протяжении двух лет, но ни один из них результата не дал.


На вопрос, по каким критериям он отбирал некачественные ссылки, клиент ответил:

Не отбирал. Надеялся проскочить на дурачка, ничего не делал, просто писал запросы время от времени. В запросах рассказывал, о том, что сайт продвигал какой-то нехороший оптимизатор, но сейчас все хорошо – ссылки сняли и т.д. При этом ничего не снимал. Продолжал, так же как и раньше размещать статьи в «Миралинксе» и покупать ссылки в GoGetLinks для «Яндекса». Надеялся, что наступит день, и «Гугл» простит:)

Последнее его письмо было следующего содержания:

Здравствуйте! Постоянно работаю над сайтом, улучшаю его пользовательские характеристики. Каждый день добавляется материал по тематике. Изменил немного оформление. Но... Гугл так и не пускает посетителей из поиска на мой сайт. Помогите, пожалуйста-)

26 февраля 2015 года в ответ на очередной запрос клиента от «Гугла» было получено следующее уведомление (см. скриншот ниже). В нем говорится о том, что некоторые внешние ссылки все еще не соответствуют требованиям поисковой системы. В письме приведены примеры ссылок:


После этого письма клиент решил обратиться к нам.

Как мы снимали фильтр «Пингвин»

Работу над снятием фильтра мы начали в марте 2015 года – ровно 2 года спустя после наложения фильтра. Еще раз обращаем ваше внимание – сайт два года находился под фильтром, но никаких серьезных действий по этому поводу не предпринималось. К сожалению, это вполне типичная ситуация. Многие владельцы сайтов, которые пытаются продвигать свой ресурс самостоятельно, не обладая при этом должными знаниями в сфере SEO, часто недооценивают урон, который наносит бизнесу наложение фильтра и потому затягивают с принятием мер по его снятию.

Что мы сделали для того, чтобы вытащить сайт из-под фильтра

  1. Выгрузили все беклинки. Всего их было порядка 1200. Из них плохих беков мы отобрали 523.
  2. По ряду этих ссылок мы попытались связаться с вебмастерами площадок с просьбой снять ссылку. Запрос выглядел примерно так:

Добрый день! Я представляю веб-агентство «Текстерра». На данный момент мы продвигаем сайт http://superzapravka.ru/, на который наложены санкции в «Гугле» из-за некачественных внешних ссылок. На Вашем сайте размещена ссылка, ведущая на сайт нашего клиента. Пожалуйста, удалите ее, это нам очень поможет. Спасибо.

  1. Составили отчет, в котором отметили, какие меры были нами приняты и какие результаты мы получили. Документ содержал следующие графы:

– Владельцы сайтов в результате нашего обращения удалили ссылки, перечисленные ниже

– С 15 по 17 марта были отправлены запросы владельцам перечисленных ниже сайтов, ответы не получены

– С 11 по 14 марта были отправлены запросы на удаление перечисленных ниже внешних ссылок, но владельцы сайтов ответили отказом

– Владельцам следующих сайтов отправить запрос не удалось, поскольку контактные данные отсутствовали, либо были указаны неверно

– На перечисленных ниже страницах возвращается ошибка 404, ошибка доступа либо ссылка на сайт www.<ваш сайт>.ru отсутствует


  1. Далее 17 марта 2015 года этот отчет был отправлен в саппорт «Гугла» вместе с сопроводительным письмом следующего содержания:

Были отправлены письма владельцам площадок с просьбой удалить ссылки на сайт superzapravka.ru. Т.к. доступов к биржам нет, многие отвечали отказом, мотивируя это тем, что ссылки убираются только через администрацию биржи. Некоторые все же убрали ссылки в ходе общения. Имеются скриншоты переписок с владельцами площадок.

  1. В этот же день (17 марта) мы получили от «Гугла» два уведомления:


– о том, что мы успешно загрузили файл со списком тех ссылок, которые следует отклонить (523 линка), проведенному в конце 2014 года, Google уже обошел «Яндекс» по популярности на всех типах устройствах, и этот тренд продолжает сохраняться.


Поэтому, пожалуйста, не нужно его игнорировать и добровольно отказываться от мощнейшего канала привлечения высококачественного и целевого трафика. Ради вашего же бизнеса.

Привет! Продолжаю линейку постов посвященную фильтрам Гугла и сегодня речь пойдет о фильтре Пингвин (Penguin), который борется с сайтами использующими черные методы продвижения (SEO), но в отличии от своих собратьев может быть применен к площадкам, как в ручном, так и в автоматическом режиме.

В предыдущем посте мы познакомились с , узнали что это за такой зверь, кто его придумал и с какой целью он был выпущен на просторы всемирной сети.

Однако не успели вебмастера разобраться с Пандой (убрать спам на страницах, удалить дублирующий контент) одним словом сделать свои сайты безобидными в глазах посетителей и поисковиков, как на свет (апрель 2012 года) Google выпускает новый фильтр под кодовым словом Пингвин, который занижает в выдаче сайты с некачественным ссылочным профилем.

Зачем был создан Penguin

Давайте заглянем в прошлое и посмотрим, как раньше продвигались сайты. Например, нужно было выйти в ТОП по какому-нибудь высокочастотному запросу.

Что для этого делал вебмастер, писал оптимизированную статью, где неоднократно употреблял ключевое слово в содержании статьи, а затем, используя ссылочные биржи, покупались десятки ссылок, притом с доноров не самого лучшего качества, в которых и был продвигаемый запрос.

В итоге такой псевдо СДЛ сайт занимал высокие места в ТОП Гугл и получал тонны трафика. Конечно же, это не могло продолжаться долго и Google был вынужден настроить свои алгоритмы таким образом, чтобы исключить из выдачи некачественные сайты, умышленно завышающие свои позиции.

Если с контентом начала бороться Панда, то следить за качеством входящих и исходящих ссылок пришлось новоиспеченному Пингвину, который после запуска изменил всемирную выдачу до неузнаваемости.

Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.

Ниже мы более детально рассмотрим те факторы, за которые применяются санкции к площадкам.

За что наказывает фильтр Пингвин

Если после очередного обновления данного фильтра вы заметили, что трафик резко пошел вниз, то скорее всего к сайту были применены санкции.

Посмотрите на один сайт, который пострадал от Пингвина в день его выхода на свет.

Причины, из-за которых страдают сайты:

Качество входящих ссылок . Теперь для Гугла неважно количество входящих ссылок, ему важно качество, а самое главное естественность. Все остальное может быть расценено, как умышленное манипулирование результатами выдачи, к которым следует отнести:

— Размещение ссылок на заспамленных, некачественных площадках;

— Неравномерное распределение ссылок по страницам сайта.

То же самое касается вебмастеров зарабатывающих на продаже ссылок. Если на сайте в основном присутствуют коммерческие или нетематические ссылки, то велика вероятность, что такая площадка может попасть под клюв Пингвина.

Гуглу не понравится, если вчера на ваш сайт вело 100 линков, а спустя день уже ссылается 1000 — это явный признак линкспамерства.

Все вышеперечисленное можно заменить одним словом — ЕСТЕСТВЕННОСТЬ .

Как проверить под каким фильтром находится сайт

Если в один прекрасный день вы по неизвестным причинам лишились трафика из поисковой сети Google, то первым делом надо определить под каким именно фильтром находится ваша площадка, чтобы разработать стратегию по скорейшему снятию санкций.

Как я уже писал, фильтр Пингвин имеет две разновидности в плане применения к площадкам: ручной и автоматический.

При ручном методе наложения санкций, как правило, приходит уведомление в панели Гугл Вебмастер, в котором сообщается, из-за чего пострадал сайт.

Чтобы найти это уведомление нужно инструментах для вебмастеров перейти в раздел «Поисковый трафик» далее «Меры, принятые вручную».

Если сайт подвергся ручным санкциям, то в этом разделе будет находиться злосчастное письмо от службы по борьбе с поисковым спамом. Но большинство вебмастеров видит следующую картину.

В этом случае ручной фильтр Пингвина к проверяемой площадке не был применен и следует копать в сторону автоматического.

Пингвин, как и другие фильтры, периодически обновляет свою базу некачественных площадок, а статистика показывает, что это происходит два раз в год.

Ниже я выписал последние даты, когда произошел апдейт Penguin:

Теперь нужно сопоставить день, когда начался спад трафика с днем обновления фильтра и если эти числа совпадают, считайте истинная причина пессимизации площадки в выдаче установлена и можно приступать к ее лечению.

Но есть и другой способ узнать, под какой именно фильтр от Гугла попал сайт. Решением стал зарубежный сервис под названием Barracuda.

В его арсенале есть продукт Panguin Tool , который берет данный из статистики Google Analytics, а затем накладывает на график посещаемости даты обновления всех фильтров, что позволит лучше оценить, какой из них повлиял на ранжирование страниц сайта.

Для того чтобы его опробовать в действии на вашем сайте должна быть подключена статистика Гугл Аналитикс, правда для того чтобы воспользоваться услугами этого сервиса придется предоставить ему данные для входа в Аналитику, что не всегда может быть безопасным, однако я по этому поводу заморачиваться не стал.

1) Входим в свой аккаунт Гугл Аналитики, для чего нажимаем на кнопку «Log-in to Analytics».

3) Теперь надо выбрать тот аккаунт сайта, с которого будет сниматься статистика посещаемости.

4) Перед вами появится заветный график за последний год, на который будут нанесены все даты обновления Гугл фильтров.

Если посмотреть на статистику моего блога, вывод напрашивается неоднозначный. Четко видно, что падение трафика началось с обновления Панды, а когда трафик начал уменьшаться, произошел апдейт Пингвина, что тоже могло повлиять на ранжировании сайта в целом.

Теперь передо мной стал вопрос, под каким именно фильтром находится мой блог: Пандой или Пингвином? Буду рад, если в комментариях вы поможете мне в этом разобраться.

Как вернуть позиции сайта и победить Пингвина

Если с Пандой дела обстоят неоднозначно и чтобы ее победить, надо смотреть в сторону контента, то с Пингвином все куда радужней, так как достаточно убрать некачественные и неестественные ссылки на сайте и в случае с ручным фильтром отправить сайт на перепроверку, а с автоматическим ждать, когда случится апдейт.

Но как убрать такие ссылки, а также как узнать какие из них качественные, а какие нет? Если с исходящими ссылками все понятно, достаточно пробежаться по статьям и поставить на них запреты noindex и nofollow , то с входящими вечными линками все намного сложнее.

Для таких ситуаций Гугл пошел навстречу вебмастерам и придумал сервис Disavow links по отклонению ссылочной массы, которая не будет учитываться алгоритмами поисковика при ранжировании сайта.

Все что нам нужно это скачать список всех ссылающихся сайтов, о которых известно Гуглу, далее проверить их на качество, а затем все некачественные площадки отправить в Disavow links, сообщая тем самым, что на них не нужно обращать внимание при анализе ссылочной массы.

Скачиваем список входящих ссылок. Для этого идем в панель инструментов Гугл Вебмастер в раздел «Поисковый трафик» далее «Ссылки на ваш сайт» и в самом низу списка жмем «Дополнительно».

— Самостоятельно просматривать все доноры из списка, проверять их показатели, опираясь на свои навыки.

— Доверить проверку специальным сервисам, о которых я рассказал в статье « ».

Я пошел по более простому для меня варианту, так как не считаю, что могу потратить столько времени, чтобы проверить около 1000 доменов.

Переходим в сервис CheckTrust и выбираем в меню создать проект «BackLinks Checker».

Далее вводим любое название проекту и загружаем скаченный ранее файл со ссылками. Если какие-то ссылки из файла вы уже проверили сами, то можете вставить список оставшихся ссылок в специальное поле для проверки и нажимаем «Далее».

Легкая чистка — удалению подвергнутся только бэклинки с самых некачественных сайтов.

Умеренная чистка — в список попадут все подозрительные сайты по качеству оцениваемые как ниже среднего.

Отличная чистка — все, вызывающее хоть какое-то подозрение, будет удалено.

Жесткая чистка — среди «выживших» останутся ссылки с сайтов только высшего качества, по статистике это не более 5-10% всех бэклинков.

Нужны все варианты — получите все 4 файла со ссылками после разных степеней чистки.

Сразу скажу, что берите лучше последний вариант, чтобы у вас были все списки, и вы наглядно видели какие из доменов все-таки стоит оставить.

После того как система проверит проект и его статус обработки станет «Выполнено» вам нужно будет по нему кликнуть, чтобы произошла его загрузка на компьютер.

Это будет текстовый файл со списком сайтов, которые система посчитала некачественными и которые стоит добавить в сервис Disavow links от Google. Если посмотреть скаченный файл, то вы увидите примерно такую картину.

Именно в таком формате domain:сайт и надо отправлять все исключаемые площадки в Disavow links. Как видите, CheckTrust сделал неинтересную работу за вас.

Теперь надо перейти в инструмент Disavow links , почему-то прямой ссылки на него из панели Гугл Вебмастер я не обнаружил, а далее выбрать сайт, для которого будете отклонять ссылки.

Читаем внимательно предупреждение, видно создано для тех, кто случайно решил воспользоваться этим инструментом.

Если вы все сделали правильно, то в сообщениях о сайте должны получить уведомление, в котором будет стоять такая же цифра отклоненных доменов, сколько было в загружаемом файле.

После всех вышеописанных манипуляций останется ждать, когда произойдет обновление фильтра Пингвин и с сайта снимутся санкции, но при этом не стоит забывать, что ссылки должны постоянно прибавляться. Гугл любит динамику постоянного роста качественной ссылочной массы.

Так что обратные бэклинки нужно добывать всеми возможными способами постоянно, а вот как это сделать вы узнаете в следующих постах, главное не пропустите !

На сегодня у меня все, расскажите, как вы победили фильтр Пингвин и какими инструментами для этого пользуетесь. Пока!

После того как за дублированный контент в феврале 2012 меня наказала Google Панда и за 2 с лишним месяца трафик просел ниже плинтуса (это я вам показал в этой статье про ), то у меня реально опустились руки и не хотелось вообще заниматься продвижением блога.

Я перестал с тем же энтузиазмом писать статьи, заниматься ссылочным продвижением, устраивать конкурсы и т.д. Реально, скажу честно, был некий депресс. Ну как так, пыжишься, пыжишься, все идет в гору как и должно быть и тут БАЦ, трафик проседает и ты не знаешь в чем дело.

И вот тут как раз за этот спад в активности, ко мне за спиной подкрался Google Пингвин и наказал в добавок. За что? А за то, что заподозрил меня в неестественном ссылочном продвижении. И наверное даже не за сами неестественные входящие ссылки, а за спад в их количестве.

Сейчас в 2014 году я то уже разобрался в чем дело (почему резко упала посещаемость с февраля), дело в ДУБЛЯХ, но к сожалению уже поздно, фильтр пингвин наложил. Слава богу все закончилось отлично и я из под него успешно вылез.

Давайте, чтобы все было понятно новичкам я начну с самого начала и по порядку. Вот что вы узнаете из данной статьи:

Фильтры Google Пингвин и Панда — за что они наказывают

Начнем вообще с понимания того, за что google в основном наказывает блоги и накладывает на них так называемые фильтры панда и пингвин. Разберем сначала панду, так как она наказала меня первой.

Алгоритм google панда наказывает за контент. То есть за ваши косяки в контентной составляющей блога. А косяков у нас море поверьте. Я выделил тут несколько пунктов:

1. Сам контент . Если у вас на блоге в основном не уникальный контент (рерайт или еще хуже копипаст, скопировали тупо и вставили себе), то фильтр вам обеспечен. Контент на блоге должен быть уникальный. Ни какого скопировал, вставил себе — запомните это.

2. Переоптимизация контента. Если у вас все статьи нашпигованы ключевыми словами, слишком много выделений ключевых слов, подчеркиваний, курсивов, слишком много ключевых слов в h1, h2, h3 и т.д., переспам в title, описании (description), keywords и т.д., то за это тоже можно получить по шапке. Не то что можно, вы именно и получите по шапке.

Если вы что-то и выделяете, то сделайте это так, чтобы было удобно пользователю в первую очередь, а не чтобы как-то схитрить и заоптимизировать. Знаете прикольную шутку про сеошника? Слушайте:

SEOшник приходит в бар, ресторан, купить алкогольные напитки, клубы, лучшие бары в Москве, заказать банкет…

Вот у вас такого быть не должно!)))

3. Дублированный контент. Моя любимая тема последних 2-х статей. В выдачу google должен занести только главную страницу, страницы и записи (статьи). Все. Других страниц с одинаковым контентом быть в выдаче не должно. Как показывает практика более 90% блоггеров страдают болезнью дублей. Решение и .

4. Слишком много рекламы. Если у вас ну очень много рекламы на блоге, то это так же видит google панда и понижает ваш блог в выдаче по ключевым запросам. Особенно панда не любит рекламу в начале статей. Опять же у 90% блоггеров в самом начале статей стоит реклама google или яндекс.))

Это очень плохо. Я лично проводил эксперимент на своем блоге. Хотел узнать как реклама влияет на позиции. Сначала я убрал рекламу в начале статей. Трафик чуть чуть вырос. Далее я собрал все те статьи на которые всех чаще заходят посетители с поисковых систем, ПОЛНОСТЬЮ убрал в этих статьях рекламу и...

Через 1-1,5 недели трафик на них вырос почти в 2 раза. Вот вам и прикол. Короче подумайте над этим. не делайте из своего блога светофор рекламы, вставляйте ее так, чтобы она была незаметна для посетителя.

5. Показатель отказов. Что это? По-русски, это когда посетитель пришел на ваш блог на какую-то статью и через 2-3 секунды, ну 5 или 10 закрыл вкладку. И чем вот так вот больше тем хуже. 100 человек пришли на статью, 80 человек сразу ушли — это говорит о том, что 80% людей считают ее не информативной.

То есть люди не нашли в ней то что искали. Следовательно стоит понизить ее в выдаче. Какие выводы можно сделать вам? Возможно заголовок статьи не тот, мало контента, человека отпугнул дизайн, может у вас какая-то музыка на фоне начинает играть (это вообще пипец, я бы такие сайты сразу под фильтр)

Если взять все эти 6 пунктов вместе, то вы наверное уже поняли, какая статья будет любимицей google панды. А это классная интересная, уникальная статья заголовок которой будет цепляющим и информативным. Чтобы посетитель прочитал заголовок и понял, — «Все, вот это то что мне надо, я нашел что искал».

Статья в которой нет копипаста, статья которая не напичкана ключевиками, не переоптимизирована, в которой нет продажных ссылок и кучи рекламы... Статья у которой нет братьев близнецов и которую читают от корки до корки не 5-10 секунд, а 1-2-3-5 минут да еще и хотят другие статьи почитать. =)

Вот к чему надо стремиться товарищи. Это вот по google панде. Эта зверюшка пришла ко мне в 2012 году в феврале, посмотрела на тысячи дублей, которые появились вдруг от куда не возьмись и наложила санкции на весь блог.

А до этого момента трафик дошел до 6200 посетителей в сутки и продолжал расти как на дрожжах. Ну я и накосипорил.))

Сейчас дубли потихоньку уходят и я вижу прирост трафика с google:

Всегда было с гугла 150-170 человек в сутки, а тут уже 280-330. Процесс пошел. Чувствую когда дубли уйдут, то трафик с google даже обгонит Яндекс =)

Что такое хороший блог? Это блог, который постоянно развивается и дает людям качественный, уникальный и полезный контент верно? Верно. А как гугл определит качественный он или нет? Интересный или нет?

Очень просто. По поведенческим факторам — раз. По входящей ссылочной массе — два. Первое понятно, про поведенческие факторы говорить много не буду, почитайте и у меня статьи на блоге есть про них и в интернете.

Разберем входящую ссылочную массу. Если блог развивается и выдает постоянно полезные и интересный контент, то по любому на этот блог должны ссылаться другие сайты и блоги в сети. Так? То есть должен быть постоянный прирост ссылочной массы. Ссылки должны идти и идти...

С сайтов и блогов, с социальных сетей, закладок, форумов и т.д. и т.п. По любому... НО! Ссылки естественные и качественные — раз, идти постоянно — два. Что такое естественные и не естественные ссылки вы можете почитать в интернете. Про качество расскажу дальше.

Вкратце про естественные и не естественные. Естественные — те которые ставят другие люди без ваших просьб и т.д. Понравился им пост ваш, они и поставили ссыль. Не естественные — покупные или поставленные специально вами где-то лишь бы была ссылка ведущая на ваш блог, которая поможет увеличить ваши позиции в ПС. Как то так.

Если же google пингвин видит, что на вас идут ссылки с других сайтов и блогов, но основная масса из них — не естественные, то он вас накажет. Если же google пингвин видит, что на вас идут ссылки естественные, супер, но если они шли шли, а потом бац и перестали идти, то он вас тоже накажет. За что?

А за то, что ваш блог перестал развиваться. Все просто. Это некий сигнал гуглу, который дает ему понять, что или же ваш блог реально затух, то есть посетители любили ваш контент и делились ссылками на него в других источниках, а потом перестали или же вы занимались покупкой ссылок, потом перестали это делать.

То есть было например входящих ссылок на вас 200, а стало 100. Значит где-то вы смухлевали, наверняка купили временных ссылок либо просто там где стояли ссылки на вас, те сайты и блоги умерли.

Google все это понимает, он смотрит на динамику роста ссылочной массы. Если видит обвал, то на вас возможно наложат санкции. Не возможно, а наложат.

Вывод: блог надо развивать постоянно. Постоянно писать полезный и интересный контент, тем самым наращивая ПОСТОЯННО входящую ссылочную массу.

Окей. За что наказывает Google пингвин мы понимаем, а как же узнать наложены на ваш блог какие-то санкции пингвина? Чтобы это определить нужно сначала вообще знать какие виды фильтров существуют у Пингвина.

Какие бывают фильтры Google Пингвин (виды)

У пингвина бывают 2 вида фильтров:

1. Ручной фильтр
2. Автоматически фильтр

Как узнать под каким фильтром находится ваш блог и находится ли вообще? Давайте начнем с ручного фильтра. Я расскажу вам как попал под него мой блог и как я из него вышел довольно таки быстро хотя сидел под ним аж почти 2 года.

При чем реально вопрос решался быстро, но мое не желание разобраться в этом вопросе затянуло выход из под ручного фильтра аж на 2 года. Короче отнесся я к нему не серьезно и образно говоря только делал вид, что хочу из под него выйти.

Итак! В общем 4 мая 2012 года приходит мне в панель управления google webmasters (раздел — поисковый трафик меры принятые вручную ) вот такое письмо:

То есть гугль говорит мне о том, что нашел не естественные ссылки, ведущие на мой блог и накладывает на меня ручной фильтр. Почему ручной? А потому что я письмо получил. При наложении автоматического фильтра письмо не приходит.

Ну короче посмотрел я на это письмо, кивнул головой, улыбнулся и пошел по своим делам. Так как трафик просел из-за дублей (о которых я не знал тогда) еще с февраля, то мне уже честное слово было по барабану, фильтры не фильтры, панды, пингвины и т.д.

Я забил на все. Просто тупо писал иногда посты, занимался переездами в новую хату, потом в и т.д. Короче был жесткий спад моей активности. Прошел АЖ ЦЕЛЫЙ ГОД!)))) И только тогда мне что-то подумалось — а не пора ли разобраться в вопросе снятия фильтра?)))

И вот только 3 марта 2013 года я отправляю первый запрос на повторную проверку в google и прошу пересмотреть мой блог на наличие не естественных входящих ссылок и снять фильтр:

Говорю мол какой я белый и пушистый, больше так не буду, вот мол блогу дизайн сменил, картинки все уникал, все статьи пишу сам, ля ля ля... Там в этом же разделе есть такая кнопка:

Отправил. Через аж 3 дня получаю ответ:

То есть они проверили мой блог и как бы он все еще нарушает рекомендации по обеспечению качества. Ссылки все еще на меня идут неестественные. Окей. Я отправляю еще раз запрос и там уже возмущаюсь еще больше, мол да как так, я не нарушал, не виноватая я, он сам пришел и все в этом роде.

Снова получаю ответ, нет ты сама пришла... Виноватая...))) То есть ни фига фильтр не снимают. Ок! Отправляю запрос еще раз и уже ругаюсь... Мол да что такое, покажите ссылки, их на меня идет аж 1500, я не маг и не могу понять какие хорошие, а какие плохие.

Получаю вот такой ответ:

То есть снова говорят, что сайт нарушает рекомендации, но они еще и даже 3 ссылки показали какие для примера. Я посмотрел все эти ссылки и увидел, что это пипец. Как можно считать их не естественными, если их люди сами ставили на своих блогах??? Ну ок, согласен на счет одной, я проводил конкурс, но остальные то 2 за что?

Я пишу письмо гугл снова, мол товарищи вы что там с ума сошли со своими алгоритмами? Вы считаете за неестественные ссылки как раз таки естественные ссылки. Их люди сами ставили. Получаю снова ответ — ваш сайт все еще нарушает рекомендации и снова показывают еще примеры ссылок.

Я снова смотрю на них и вижу, что все они естественные. Я их не покупал, люди их сами ставили. И вот так я 9 раз отправлял запросы на проверку. Все бесполезно. Я уже хотел писать им маты в поддержку, но понял, что это точно к хорошему не приведет, поэтому пошел на форум google.

Решил там по задавать вопросы. Объясняю ситуацию, говорю google присылает письма, что мой блог нарушает рекомендации, как так, ведь все ссылки естественные. Получил там кучу бесполезных ответов в итоге ушел от туда.

Мой вывод был однозначный: Google не заслуженно наложил на меня фильтр.

На самом деле ребята, я считаю, что гоголь наложил на меня фильтр как раз таки не за не естественные ссылки, а за спад в общем количестве входящих ссылок. Я расслабился после панды, перестал получать качественные входящие ссылки и поэтому пингвин огрел меня своим плавником =)

Как я вышел из под ручного фильтра гоголя пингвин

Но не буду же я сидеть, плакать в платочек и оставлять все как есть? В начале 2014 года я решил взять себя в руки и избавиться от этой напасти, от этого фильтра google. Я стал копать различную информацию по снятию фильтра, читать кучу статей и кейсов, смотрел видео, посещал вебинары по seo, смотрел курсы и т.д.

В итоге получил четкое понимание того, что мне надо сделать, чтобы вывести блог из под фильтра. А мне надо было сделать следующее:

1. Собрать полный список всех входящих на мой блог ссылок
2. Вычислить из списка плохие ссылки и отклонить их в Disavow Tool
3. Удалить все те ссылки с других сайтов (которые мне показал google)
4. Начать получать качественные естественные ссылки

Весь январь и февраль я именно этим и занимался. 22 февраля отправляю запрос на повторную проверку и 2 марта УРА!!! Получаю письмо от Google где он говорит, что фильтр снят:

Прочитав это письмо я вскочил со стула, начал бегать по комнате в трусах с криками «Google я люблю тебя!!!», потом опять же в одних трусах побежал в магазин, купил пузырь коньяка и напился как скотик =))) Шучу конечно же... Но радости моей не было предела.

Так вот! Что я собственно сделал? Первым делом я попросил всех тех вебмастеров убрать те ссылки на которые мне указал google. Почти все убрали без проблем, за что им большое спасибо! Но ведь есть и те ссылки, которые я не могу убрать верно? Что делать с ними?

Все это дело вставляем в простой txt документик:

Ок. У нас с вами есть полный список всех входящих доменов на наш блог. Теперь нам надо вычислить все плохие ссылки из этого списка и сказать google, чтобы он не учитывал их вообще при ранжировании.

У google есть такой специальны инструмент, который называется Disavow Tool . Туда мы можем загрузить список ссылок, которые не стоит учитывать google и через какое-то время через несколько апдейтов все эти ссылки учитываться не будут.

Как это делается я расскажу ниже, но вот вопрос — как вычислить из списка, какие ссылки хорошие, а какие плохие? Тут есть 2 варианта:

Ну первый вариант конечно же рабочий, но мало эффективный. Почему? А потому что вы можете смотреть на ресурс, видеть, что вроде бы он нормальный, но на самом деле по качеству плохой. Качество — это в первую очередь ТРАСТ и СПАМ. Об этом дальше.

То есть вы не отклоняете ссылку, думая что она хорошая, а она на самом то деле плохая. Так же первый вариант плох тем, что займет у вас кучу времени. Вот у меня 1500 входящих ссылок. Представьте если я буду по каждой ходить? Это жесть =)

Второй вариант крут тем, что сервис Checktrust сам пройдет по всем тем ссылкам, которые вы ему покажете, выберет из них все плохие не трастовые и заспамленные и даст вам уже ГОТОВЫЙ ФАЙЛ, который только нужно будет загрузить в инструмент Disavow Tool и все.

Однозначно рекомендую вам использовать этот вариант, так как это 100% решение. Я 9 раз отправлял заявки на пересмотр в google и только на 10 раз, когда использовал этот сервис (получил готовый файл и отправил его в Disavow Tool) фильтр с меня сняли.

Для того, чтобы воспользоваться сервисом checktrust вам надо всего лишь:

1. Зарегистрироваться
2. Добавить список всех ссылок на проверку в инструмент BackLinks Checker
3. Получить готовый файл с плохими ссылками
4. Отправить его в Disavow Tool.

Начнем. С регистрацией у вас проблем не будет. Далее создаем в кабинете новый проект BackLinks Checker:

Жмем «Далее» и — «Подтвердить и разместить проект». Все. Сервис через минут 5-10, а то и раньше все ссылки обработает и выдаст вам готовый файл, который надо будет загрузить в Disavow Tool, чтобы отклонить плохие ссылки.

Как только Checktrust все закончил, заходим «Домой», нажимаем на название нашего проекта и нам автоматически скачается txt файлик со всеми плохими ссылками:

Вот с этим файлом мы идем сюда в Disavow Tool . Жмем — «Отклонение ссылок»:

Еще раз — «Отклонение ссылок» и загружаем туда наш файл, который нам дал checktrust:

Все! Плохие ссылки мы отклонили! Но этого мне было мало, чтобы выйти из под фильтра. Мне обязательно нужно было восстановить динамику роста ссылочной массы. То есть мне нужно было сделать так, чтобы на меня снова начали ссылаться различные сайты и блоги.

Если сказать коротко, то мне надо было начать улучшать свой ссылочный профиль, чем я и занялся. Что такое ссылочный профиль, как его проанализировать и улучшить я рассказывал в своем курсе Как стать блоггером тысячником 3.0

Естественно самое главное в улучшении ссылочного профиля — это постоянный прирост новых качественных ссылок. Новые входящие ссылки нужно получать постоянно и в этом мне так же помог и помогает до сих пор сервис Checktrust.

Это вообще сейчас инструмент №1 в продвижении моего блога. Как его использовать при покупке ссылок, я так же рассказал в курсе КСБТ 3.0. Владелец этого сервиса Александр Алаев , про которого я вам уже не раз говорил. Саня спасибо за такую крутую штуку.

Как же она здоровски помогает не выкидывать 90% бюджета при покупке ссылок в трубу. В общем я начал изо дня в день получать входящие ссылки (бесплатно и платно, покупая их на биржах). Вы слышали, что Яндекс отменил ссылки? =) Верьте этому дальше.))))

В общем вот таким вот образом я вышел из под ручного фильтра google. Есть еще и автоматический фильтр. Чем он отличается от ручного? А отличается он тем, что у вас блог (сайт) вылетает за топ 50-100 по всем позициям, трафик жестко проседает, но уведомления в панели инструментов google вы не получаете. Все просто!

И если от ручного фильтра избавиться можно в принципе быстро, только использовав checktrust, то от автоматического будет избавиться гораздо сложнее потому что он снимается не людьми, которые смотрят вашу заявку на пересмотр и принимают решение, а роботами (алгоритмами).

А у роботов есть определенные цифры выхода из под фильтра и пока ваш ресурс не выйдет на эти цифры, вы из под фильтра не выйдете, так же надо ждать апдейтов алгоритмов gogole пингвин. Схема выхода их под автоматического фильтра пингвина такая же как для ручного:

Если вы видите например, что у вас есть хороший трафик с Яндекса, а с google с гулькин клюв, то это сигнал — вы под фильтром. Или панды или пингвина. За что наказывает панда вы уже знаете. Если считаете, что у вас все «зер гут» с пандой, то значит не все так хорошо с пингвином.

Нужно принимать меры. Но не стоит сразу паниковать и бежать отклонять ссылки. Может быть стоит просто посмотреть все свои входящие ссылки, проанализировать их в checktrust, посмотреть на то, какого они качества и наглядно оценить всю картину.

То есть каких ссылок больше плохих или хороших. Если вы видите реально, что на вас ссылаются мало качественных ресурсов, то надо эту ситуацию исправлять и начать добывать качественные ссылки. Я замечу КАЧЕСТВЕННЫЕ!

Ну вот наверное и все. На этом я буду заканчивать и в заключение у меня для вас есть интересное предложение:

ТОТ КТО ДО 15 АВГУСТА 2014 ГОДА ЗАРЕГИСТРИРУЕТСЯ В СЕРВИСЕ CHECKTRUST ПО МОЕЙ ПАРТНЕРСКОЙ ССЫЛКЕ И ПОПОЛНИТ БАЛАНС СВОЕГО СЧЕТА МИНИМУМ НА 1000 РУБЛЕЙ, ТОТ ПОЛУЧИТ ОТ МЕНЯ ОЧЕНЬ ХОРОШИЙ ПРЕЗЕНТ.

ПОСЛЕ РЕГИСТРАЦИИ И ПОПОЛНЕНИЯ БАЛАНСА ПРОСТО НАПИШИТЕ МНЕ В ПОДДЕРЖКУ И ПОЛУЧИТЕ СВОЙ ПОДАРОК. ЕСЛИ ВЫ ПОПОЛНИТЕ БАЛАНС НА 2000 РУБЛЕЙ, ТО В ДОБАВОК К ПОДАРКУ Я ЛИЧНО ПОСМОТРЮ ВАШ БЛОГ, ПРОАНАЛИЗИРУЮ ЕГО НА ОШИБКИ И СКАЖУ ВАМ ЧТО НУЖНО ИСПРАВИТЬ.

ЕСЛИ НАПРИМЕР У ВАС ЕСТЬ КАКИЕ-ТО НЕДОПОНИМАНИЯ С УСТРАНЕНИЕМ ДУБЛЕЙ НА ВАШЕМ БЛОГЕ, О КОТОРЫХ Я ГОВОРИЛ В ДВУХ ПРЕДЫДУЩИХ СТАТЬЯХ, ТО Я ВАМ В ЭТОМ ТАК ЖЕ ПОМОГУ И ВСЕ НАСТРОЮ!

НО! Не стоит думать, что я написал эту статью лишь бы пропиарить сервис checktrust и заработать комиссионных. Это не так. Это действительно реальный сервис, который я сам использую почти каждый день и настоятельно рекомендую вам использовать его.

А предложение я вам делаю, потому что участвую в конкурсе от checktrust, где разыгрывается 5 айфон, который я бы хотел выиграть и вручить победителю конкурса « ». =) Вот такие пироги.

Если у кого-то будут какие-то вопросы, то обращайтесь в комментариях. Но по идее я думаю, что все понятно объяснил.

Ребята, знаете почему сегодня у большинства блоггеров печальная ситуация с трафиком от google и yandex? Ну да, технические косяки играют роль, но одна из самых главных причин — это отсутствие хорошей входящей ссылочной массы или же вообще полное ее отсутствие.

Сколько писем я получаю в поддержку, — «Александр, что делать? Пишу в блог уже второй год, а трафика с ПС все нет. Статьи уникал, интересные, полезные, есть куча читателей... ПОМОГИ!»

Это все супер, что у вас много читателей и статьи классные, но это мало. Вы должны показать и доказать, что они действительно классные. Показать это могут только качественные, трастовые, входящие ссылки. И чем их больше тем лучше.

Если авторитетный сайт ссылается на вас, то это прямой показатель того, что ваш сайт интересен. Если вы ведете блог 2-3 года и у вас 100 входящих ссылок, то не ждите мега посещаемости. Посмотрите на проекты, которые выходят на десятитысячные посещаемости.

Там ссылочное продвижение продумывается еще до начала ведения проекта. Там есть целые методики, анализы, планирование ссылочного продвижения и т.д. Именно поэтому одни ресурсы развиваются хорошо, а другие в попе.

В общем последнее — используйте ссылочное продвижение и будет вам счастье, и не слушайте ни какие заявления, что ссылки не работают, их отменили и т.д. Удачи!

P.S. Наверное самый последний вопрос у вас — «Что мне делать сейчас? Письмо от google мне не пришло, вроде как я не под фильтром, трафик какой ни какой, но идет. Что тогда?»

А тогда просто оцените качество всех входящих на ваш блог ссылок через сервис checktrust (как это делать я говорил в КСБТ 3.0) и если вы видите, что картина печальная ссылок мало и основная масса не очень хорошего качества, то принимайте меры.

Уверяю вас! Начнете получать качественные ссылки, увидите рост трафика. Я это наглядно показывал до февраля 2012 года пока не получил панду за дубли.

Ну все, всем пока! Жду ваших вопросов в комментариях!

С уважением, Александр Борисов

В 2012 году Google официально запустил «алгоритм борьбы с веб-спамом », направленный против спам-ссылок, а также практик манипулирования ссылками.

Этот алгоритм позже стал официально известен как алгоритм Гугл Пингвин после твита Мэта Каттса (Matt Cutts ), который впоследствии стал главой подразделения Google по борьбе с веб-спамом. Несмотря на то, что в Google официально назвали алгоритм Penguin , никаких официальных комментариев по поводу того, откуда пошло это название, не было.

Название алгоритму Panda дал из инженеров, работавших над ним. Одна из теорий возникновения имени Penguin состоит в том, что это отсылка к Пингвину – герою комиксов DC про Бэтмена .

Перед внедрением Penguin количество ссылок играло значительную роль при оценке веб-страниц поисковыми роботами Google .

Это означало, что при ранжировании сайтов по этим оценкам в результатах поиска некоторые низкокачественные сайты и куски контента появлялись на более высоких позициях.

Зачем потребовался алгоритм Penguin

Война Google с низкокачественными результатами поиска началась с алгоритма Panda , а алгоритм Penguin стал расширением и дополнением арсенала.

Penguin стал ответом Google на расширяющиеся практики манипуляции результатами поиска (и ранжированием ) через спам-ссылки.

Алгоритм Penguin обрабатывает только входящие на сайт ссылки. Google анализирует ссылки, ведущие на сайт, и не воспринимает исходящую ссылочную массу.

Первоначальный запуск и влияние

При первом запуске в апреле 2012 года фильтр Пингвин Гугл повлиял более чем на 3% результатов поиска, согласно собственным оценкам Google .

Penguin 2.0 , четвёртое обновление (включая первоначальную версию ) алгоритма, был выпущен в мае 2013 года и затронул примерно 2,3% всех поисковых запросов.

Ключевые изменения и обновления алгоритма Penguin

Всего было несколько изменений и обновлений алгоритма Penguin , начиная с момента его запуска в 2012 году.

Penguin 1.1: 26 марта 2012 года

Это было не изменение алгоритма, а первое обновление данных внутри него. Сайты, изначально затронутые алгоритмом Penguin , но после избавившиеся от низкокачественных ссылок, получили некоторое улучшение своих позиций. В то же время другие сайты, не затронутые алгоритмом Penguin при его первом запуске, заметили определенное воздействие.

Penguin 1.2: 5 октября 2012 года

Это было очередное обновление данных. Оно затронуло запросы на английском языке, а также международные запросы.

Penguin 2.0: 22 мая 2013 года

Более продвинутая (с технической точки зрения ) версия алгоритма, которая изменила степень его влияния на результаты поиска. Penguin 2.0 затронул примерно 2,3% англоязычных запросов, и примерно такую же долю запросов на других языках.

Также это было первое обновление алгоритма Гугл Пингвин , которое заглядывало дальше главной страницы и страниц верхнего уровня в поисках доказательств наличия спам-ссылок.

Penguin 2.1: 4 октября 2013 года

Единственное обновление алгоритма Penguin 2.0 (версия 2.1 ) вышло 4 октября того же года. Оно затронуло около 1% поисковых запросов.

Несмотря на то, что никаких официальных объяснений обновления от Google не было, статистика свидетельствует о том, что апдейт также увеличил глубину просмотра страниц и ввел дополнительный анализ наличия спам-ссылок.

Penguin 3.0: 17 октября 2014 года

Стало очередным обновлением данных, позволившим многим попавшим под санкции сайтам восстановить свои позиции, а другим, злоупотреблявшим спам-ссылками, но скрывшимся от предыдущих версий Penguin , почувствовать на себе его влияние.

Сотрудник Google Пьер Фар (Pierre Far ) подтвердил это и отметил, что обновлению потребуется «несколько недель » для полного развёртывания. И что апдейт затронул менее 1% англоязычных поисковых запросов.

Penguin 4.0: 23 сентября 2016 года

Почти через два года после обновления 3.0 было выпущено последнее изменение алгоритма. В результате Penguin стал частью базового алгоритма поисковой системы Google .

Теперь, работая одновременно с базовым алгоритмом, Гугл Пингвин 4 оценивает сайты и ссылки в режиме реального времени. Это означает, что можно видеть относительно быстрое влияние изменений внешних ссылок на позиции вашего сайта в поисковой выдаче Google .

Обновлённый алгоритм Penguin также не был направлен строго на наложение санкций, он девальвировал значение спам-ссылок. Это стало противоположностью предыдущим версиям Penguin , когда за плохие ссылки следовало наказание. Но исследования показывают, что алгоритмические санкции, основанные на внешних ссылках, используются до сих пор.

Алгоритмические понижения в Penguin

Вскоре после запуска алгоритма Penguin , вебмастера, которые практиковали манипулирование ссылками, стали замечать снижение объема поискового трафика и позиций в поиске.

Не все понижения, спровоцированные алгоритмом Penguin , касались целых сайтов. Некоторые были частичными и затрагивали только определённые группы ключевых слов, которые были активно забиты спам-ссылками или «излишне оптимизированы ».

Сайт, попавший под санкции Penguin , которому потребовалось 17 месяцев, чтобы восстановить свои позиции в поисковой выдаче Google .

Влияние Penguin также распространяться между доменами. Поэтому смена домена и перенаправление со старого на новый может сулить ещё больше проблем.

Исследования показывают, что использование перенаправлений 301 или 302 не отменяет влияния алгоритма Penguin . На форуме вебмастеров Google Джон Мюллер (John Mueller ) подтвердил, что использование перенаправлений meta refresh с одного домена на другой также может привести к санкциям.

Восстановление от воздействия алгоритма Penguin

Утилита Disavow Links Tool была полезной для специалистов SEO , и это не изменилось даже теперь, когда алгоритм Пингвин Гугл функционирует как часть базового алгоритма Google .

Что включать в файл дезавуирования

Файл Disavow содержит ссылки, которые должен игнорировать Google . Благодаря чему некачественные ссылки не будут снижать позиции сайта в результате работы алгоритма Penguin . Но это также означает, что, если вы ошибочно включили высококачественные ссылки в ваш файл дезавуирования, то они больше не помогут сайту подняться на более высокие позиции.

Не нужно включать никаких комментариев в Disavow , кроме случаев, когда они нужны вам самим.

Google не читает пояснений, которые вы делаете в файле, так как он обрабатывается автоматически. Некоторым удобнее добавлять пояснения для последующего использования. Например, дату, когда группа ссылок была добавлена в файл или комментарии о попытках связаться с вебмастером сайта, чтобы убрать ссылку.

После того, как вы загрузите файл Disavow , Google отправит вам подтверждение. Но, несмотря на то, что Google обработает его немедленно, он не дезавуирует ссылки в тот же момент. Поэтому вы не сможете сразу же восстановить позиции вашего сайта в поисковой выдаче.

Также не существует способа определить, какие ссылки были дезавуированы, а какие нет, так как Google всё равно включит и те, и другие в отчёт о внешних ссылках, доступный в Google Search Console .

Если вы ранее загружали Disavow и отправляли его в Google , он заменится новым, а не добавится к старому. Поэтому важно убедиться в том, что вы включили в новый файл старые ссылки. Вы всегда можете скачать копию текущего файла в своем аккаунте Google Search Console .

Отключение отдельных ссылок или доменов целиком

Для вывода сайта из под Гугл Пингвин рекомендуется дезавуировать ссылки на уровне домена вместо отключения отдельных ссылок.

Благодаря чему поисковому роботу Google потребуется посетить всего одну страницу на сайте, чтобы дезавуировать ссылки, ведущие с него.

Отключение ссылок на уровне домена также означает, что вам не нужно беспокоиться, индексируется ли ссылка с www или без.

Обнаружение ваших внешних ссылок

Если подозреваете, что на ваш сайт негативно повлиял алгоритм Penguin , нужно провести аудит внешних ссылок и дезавуировать низкокачественные или спам-ссылки.

Google Search Console позволяет владельцам сайтов получить список внешних ссылок. Но необходимо обратить внимание на то, что Disavow включает в себя ссылки, которые помечены как «nofollow ». Если ссылка помечена атрибутом nofollow , она не окажет влияния на ваш сайт. Но необходимо, чтобы сайт, разместивший ссылку на ваш ресурс, может убрать атрибут «nofollow » в любой момент без какого-либо предупреждения.

Также существует много сторонних инструментов, которые показывают ссылки, ведущие на сайт. Но из-за того, что некоторые вебмастера защищают сайт от обхода сторонними ботами, использование таких инструментов может показать не все входящие ссылки. Кроме этого подобная блокировка может быть использована некоторыми ресурсами, чтобы скрыть низкокачественные ссылки от обнаружения.

Мониторинг внешних ссылок – необходимая задача, чтобы защититься от атаки по принципу «негативного SEO ». Их суть заключается в том, что конкурент покупает спам-ссылки на ваш сайт.

Многие используют негативное SEO как оправдание, когда их сайт попадает под санкции от Google за низкокачественные ссылки. Но Google утверждает, что после обновления Пингвина Гугл поисковик хорошо распознает подобные атаки.

Опрос, проведённый Search Engine Journal в сентябре 2017 года, показал, что 38% SEO-специалистов никогда не дезавуировали внешние ссылки . Просмотр внешних ссылок и тщательное исследование домена каждой внешней ссылки - это нелёгкая задача.

Запросы на удаление ссылок

Некоторые владельцы сайтов требуют определенной оплаты за удаление ссылки. Google рекомендует не платить за это. Просто включите плохую внешнюю ссылку в ваш файл дезавуирования и переходите к удалению следующей ссылки.

Несмотря на то, что подобные запросы являются эффективным способом восстановить позиции сайта после применения санкций за внешние ссылки, они не всегда обязательны. Алгоритм Гугл Пингвин рассматривает портфель внешних ссылок целиком, то есть как соотношение количества высококачественных, естественных ссылок и спам-ссылок.

Некоторые даже что включают в соглашение об использовании сайта «условия » размещения внешних ссылок, ведущих на их ресурс:

Мы поддерживаем только «ответственное » размещение внешних ссылок, ведущих на наши веб-страницы. Это означает, что:

  • Если мы попросим удалить или изменить ссылку на наши сайты, вы сделаете это незамедлительно.
  • Вы обязаны убедиться, что использование ссылок не навредит нашей репутации и не повлечёт за собой получение коммерческих выгод.
  • Нельзя размещать более 10 ссылок на наши сайты или веб-страницы без получения разрешения.
  • Сайт, на котором вы размещаете ссылку, ведущую на наш ресурс, не должен содержать оскорбительные или дискредитирующие материалы. А также не должен нарушать чьи-либо авторские права.
  • Если кто-либо кликает по ссылке, которую вы разместили, она должна открывать наш сайт на новой странице (вкладке ), а не внутри фрейма на вашем сайте.

Оценка качества ссылок

Не думайте, что, если внешняя ссылка расположена на сайте с доменом.edu, то она обязательно высокого качества. Множество студентов продают ссылки со своих персональных сайтов, которые зарегистрирован в зоне .edu . Поэтому они расцениваются как спам, и должны быть дезавуированы. Кроме этого многие сайты в зоне .edu содержат низкокачественные ссылки из-за того, что были взломаны. То же самое относится ко всем доменам верхнего уровня.

Представители Google подтвердили, что расположение сайта в определенной доменной зоне не помогает и не вредит его позициям в результатах поиска. Но нужно принимать решение для каждого конкретного сайта и учитывать обновления Пингвина Гугл .

Остерегайтесь ссылок с очевидно высококачественных сайтов

Просматривая список внешних ссылок, не рассматривайте их как высококачественные только потому, что они размещены на определённом сайте. Если только вы не уверены на 100% в её качестве. Только то, что ссылка размещена на авторитетном сайте, таком как Huffington Post или BBC , не делает её высококачественной в глазах Google . Многие из таких сайтов продают ссылки, причём некоторые из них являются замаскированной рекламой.

Промо-ссылки

Примерами промо-ссылок, которые в глазах Google являются платными, могут быть ссылки, размещённые в обмен на бесплатный продукт для обзора или скидку на продукт. Хотя такие типы ссылок были приемлемыми несколько лет назад, теперь они должны быть помечены атрибутом «nofollow ». Вы всё ещё можете получать выгоду от размещения таких ссылок. Они могут помочь увеличить узнаваемость бренда и привлечь трафик на сайт.

Крайне важно оценивать каждую внешнюю ссылку. Нужно удалить плохие ссылки, потому что они влияют на позиции ресурса в поисковой выдаче в результате воздействия алгоритма Пингвина Гугл , либо могут привести к ручным санкциям. Не стоит удалять хорошие ссылки, потому что они помогают вам подняться в поисковой выдаче.

От санкций алгоритма Penguin не восстановиться?

Иногда, даже после того, как вебмастера проделывают огромную работу по очистке внешних ссылок, они всё равно не видят улучшений в объеме трафика или в позициях.

Есть несколько причин этого:

  • Изначальный прирост трафика и улучшение позиций в поиске, возникшие перед наложением алгоритмических санкций, были и исходили от плохих внешних ссылок.
  • Когда плохие внешние ссылки были удалены, не было предпринято усилий, чтобы получить новую ссылочную массу высокого качества.
  • Не все спам-ссылки были отключены.
  • Проблема не во внешних ссылках.

Когда вы восстанавливаетесь от санкций, наложенных алгоритмом Penguin, не ждите, что позиции вашего ресурса в поисковой выдаче возвратятся или это произойдёт мгновенно.

Добавьте к этому тот факт, что Google постоянно меняет фильтр Пингвин Гугл , поэтому факторы, которые приносили пользу раньше, теперь могут иметь не такое сильное влияние.

Мифы и заблуждения, связанные с алгоритмом Penguin

Вот несколько мифов и заблуждений об алгоритме Penguin , которые возникли за последние годы.

Миф: Penguin – это наказание

Один из самых больших мифов про алгоритм Penguin – это то, что люди называют его наказанием (или тем, что в Google называют ручными санкциями ).

Penguin строго алгоритмический по своей природе. Он не может быть применён или снят специалистами компании Google в ручном режиме.

Несмотря на то, что действие алгоритма и ручные санкции, могут привести к большому падению в поисковой выдаче, между ними большая разница.

Ручные санкции возникают, когда специалист подразделения Google по борьбе с веб-спамом отвечает на претензию, проводит расследование и приходит к выводу о необходимости наложить санкции на домен. В этом случае вы получите уведомление в Google Search Console .

Когда к сайту применяются ручные санкции, нужно не только проанализировать внешние ссылки и отправить файл Disavow , содержащий спам-ссылки, но и отправить запрос на пересмотр вашего «дела » командой Google .

Понижение позиций в поисковой выдаче алгоритмом происходит без всякого вмешательства со стороны специалистов Google . Всё делает алгоритм Пингвин Гугл .

Раньше приходилось ждать изменения или обновления алгоритма, но теперь Penguin работает в режиме реального времени. Поэтому восстановление позиций может произойти гораздо быстрее (если работа по очистке была выполнена качественно ).

Миф: Google уведомит вас, если алгоритм Penguin повлияет на ваш сайт

К сожалению, это не правда. Google Search Console не уведомит о том, что поисковые позиции вашего сайта ухудшились в результате работы алгоритма Penguin .

Это снова показывает разницу между алгоритмом и ручными санкциями – вас уведомят, если на сайт были наложены санкции. Но процесс восстановления от воздействия алгоритма схож с восстановлением от ручных санкций.

Миф: дезавуирование плохих ссылок – единственный путь восстановиться от воздействия алгоритма Penguin

Хотя эта тактика и позволяет удалить многие низкокачественные ссылки, она бесполезна. Алгоритм Penguin определяет долю хороших, качественных ссылок относительно спам-ссылок.

Поэтому вместо того, чтобы направить все силы на удаление низкокачественных ссылок, стоит сфокусироваться на увеличении количества качественных внешних ссылок. Это позитивно скажется на соотношении, которое учитывает алгоритм Penguin .

Миф: Вам не восстановиться от воздействия алгоритма Penguin

Можно вывести сайт из под Гугл Пингвин . Но это потребует некоторого опыта во взаимодействии с постоянно меняющимися алгоритмами Google .

Лучший способ избавиться от негативного влияния алгоритма Penguin – это забыть обо всех существующих внешних ссылках, ведущих на сайт, и начать собирать новые. Чем больше качественных внешних ссылок соберёте, тем проще будет освободить ваш сайт от уз алгоритма Google Penguin .

Данная публикация представляет собой перевод статьи «A Complete Guide to the Google Penguin Algorithm Update » , подготовленной дружной командой проекта

Известно ли вам, что поисковые алгоритмы Google учитывают более 200 факторов ранжирования и степень важности каждого из них индивидуальна для каждого отдельно взятого сайта? А знаете ли вы, что в течение года Google совокупно вносит более 500 изменений в свои алгоритмы и перед полноценным внедрением каждая измененная версия тестируется на небольшой выборке пользователей поисковика?

Сегодня мы поговорим, пожалуй, о самом известном алгоритме Google – Penguin («Пингвин»).

Что такое Google «Пингвин»?

Google «Пингвин» – это алгоритм, созданный для борьбы некачественными сайтами и с веб-спамом. Датой его «рождения» считается 24 апреля 2012 года. Чтобы не попасть под действия алгоритма, Google приводит ряд рекомендаций, которые необходимо учитывать при продвижении сайта в этой поисковой системе. Вот некоторые из них:

    на сайте не должно быть автоматически сгенерированного контента;

    на сайте не должно быть страниц с неоригинальным или дублированным контентом;

    сайт не должен предоставлять неодинаковый контент или разные URL пользователям и поисковым системам;

    переадресация на другой URL не должна применяться для обмана поисковой системы;

    запрещено использовать скрытый текст и скрытые ссылки с целью влияния на рейтинг сайта в результатах поиска Google;

    на сайтах, участвующих в партнерских программах, свой собственный контент должен превалировать на контентом, предоставляемым партнерской площадкой;

    ключевые слова на странице должны полностью соответствовать ее содержанию;

    запрещено создание вредоносных страниц для фишинга и установки вирусов, троянов или другого вредоносного ПО;

    запрещено некорректное использование разметки для расширенных описаний веб-страниц;

    запрещена отправка автоматических запросов в Google.

Если на вашем сайте выявлено что-то из данного списка и он попал под санкции «Пингвина», то выйти из-под них можно будет только при очередном апдейте алгоритма и только в том случае, если на сайте исправлены ошибки, приведшие к пенализации. С каждой новой версией «Пингвина» частота апдейтов возрастает, а значит, скорость выхода из-под санкций тоже увеличивается.

На что влияет Google «Пингвин»

Алгоритм влияет на ранжирование сайта. Некоторые говорят, что это не понижение в поисковой выдаче, а лишь отправка сайта на ту позицию, которую он должен занимать на самом деле. Но это не совсем верное утверждение, так как понижение позиций в выдаче связано с наличием и оценкой веса негативных факторов сайта, и, как мы уже писали выше, для каждого сайта степень влияния негативных факторов индивидуальна, а это уже пенализация.

Алгоритм и ручная модерация

Напоминаем, что «Пингвин» – это автоматизированный алгоритм, и он всегда будет работать как автоматизированный алгоритм. Но существует еще и такое понятие, как «ручная модерация» сайта, что также может привести к пессимизации позиций в поисковой выдаче. При этом и алгоритмическая, и ручная модерации могут проводиться на вашем сайте одновременно. Стоит заметить, что выход из-под санкций алгоритма «Пингвин» происходит автоматически, но, чтобы выйти из-под санкций, наложенных в режиме ручной модерации, необходимо связываться с техподдержкой Google и сообщать о том, какие шаги были предприняты для исправления ошибок на сайте.

Определение проблемы

Для определения причин пенализации сайтов алгоритмом «Пингвин» необходимо проверить внутренние факторы, как, например, чрезмерная «тошнота » ключевых слов на странице. Переспамленный ключевиками текст, и другие манипуляции – это то, что нужно проверить и исправить в первую очередь в случае попадания сайта под санкции «Пингвина».

Есть еще одна распространенная причина пенализации - наличие внешних спам-ссылок на ваш ре сурс. Как правило их появление связано с попытками проведения самостоятельной внешней SEO-оптимизации, в процессе которой некоторые владельцы сайтов прогоняют его через бесплатные каталоги, доски объявлений и тому подобные низкокачественные площадки. Чтобы избежать подобных проблем, лучше всего либо обращаться к проверенным SEO-специалистам, либо доверять продвижение сайта автоматизированным системам, таким как SeoPult, которые имеют свои настроенные фильтры и отсеивают некачественные площадки, недопуская их к клиенским сайтам. Если же вы занимались SEO самостоятельно и получили ссылки со спам-площадок, то стоит провести ссылочный аудит, чтобы определить, какие ссылки негативно влияют на ваш сайт и какие из них стоит удалить или отключить от учета поисковиком (с помощью инструмента Google Disavow Tools). Получить список внешних ссылок для аудита можно через Google Webmaster Tools . Но так как Google может видеть не все ссылки, список стоит дополнить, используя сторонние инструменты, такие как: Bing Webmaster Tools , Ahrefs , Majestic , Open Site Explorer и SEMrush . Все они имеют свои базы ссылок, которые могут дополнить список Google Webmaster Tools.

Инструмент Disavow (отклонение ссылок)

Как только вы получите полный список внешних ссылок и определите, какие из них повлияли на пенализацию вашего ресурса, вы сможете отклонить их учет в поиске Google. Для этого существует инструмент Disavow Tool , содержащий список ссылок, влияние которых на ваш сайт необходимо перестать учитывать. Джон Мюллер из Google говорит, что этот инструмент аналогичен тегу, только направлен для использования на внешних ресурсах. Вы можете запретить к индексации как отдельные внешние ссылки, так и все ссылки, ведущие с конкретного домена. Джон говорит, что добавления ссылок в Disavow более чем достаточно для выхода из-под санкций «Пингвина». В случае если вы попали под ручную модерацию (пенализацию), вам следует записывать все свои действия, предпринятые для выхода из-под санкций и позже сообщить о произведенных изменениях в службу поддержки.

Запрос на повторную проверку

В случае получения ручной пенализации единственным способом выхода из-под санкций является подача запроса на повторную проверку в кабинете Вебмастера Google. Отправлять его нужно только после того, как вы, с вашей точки зрения, исправили все, что могло привести к пенализации сайта. В запросе необходимо указать, какие ошибки вы выявили и какие шаги предприняли для их исправления. Чем более подробным будет описание ваших действий, тем выше вероятность скорого выхода из-под санкций Google.

Качественные ссылки, которые помогут выйти из-под санкций «Пингвина»

По словам уже известного нам Джона Мюллера из Google, выйти с наименьшими потерями времени и усилий из-под санкций «Пингвина» или вовсе под них не попасть может помочь разумное соотношение большого количества качественных внешних ссылок к малому количеству спам-ссылок. К сожалению, точного количественного соотношения качественных ссылок к некачественным никто не знает, потому старайтесь систематически проверять качество вашей ссылочной массы и при обнаружении веб-спама сразу же удалять их или добавлять в Disavow.

Черное SEO

Черное SEO – это способ борьбы с конкурентами, при помощи которого можно сильно понизить позиции конкурентной площадки в поисковой выдаче. Одним из таких способов, например, является «ссылочный взрыв ». Но стоит помнить, что инструменты черного SEO не всегда могут быть эффективны, особенно если они применяются к сайтам с высоким трастом и качественной ссылочной массой . В ряде случаев ссылочный взрыв может сыграть в плюс сайту-конкуренту, так как новые ссылки (даже некачественные) могут значительно «утяжелить» накопленную качественную ссылочную массу и, вместо негативного эффекта, вывести сайт конкурента на более высокие позиции (относительно прежних). Также стоит отметить, что Google учится распознавать манипуляции конкурентов и защищать сайты, против которых они направлены.

Заключение

Определить самостоятельно, попал ли сайт под санкции Google, довольно сложно, особенно если они имеют алгоритмический, а не ручной характер. В Google модератор уже внесено предложение о том, чтобы в кабинет веб-мастера добавить инструмент, позволяющий определить наличие санкций «Пингвина» или «Панды», наложенных на тот или иной сайт, или отсутствие таковых. Если эта функция будет добавлена, то станет гораздо проще диагностировать и исправлять ошибки сайта, выявленные конкретными алгоритмами.

Вам также будет интересно:

Как создать электронный журнал на компьютере
Инструкция Сначала решите, что это будет за журнал. Каково его название, целевая аудитория,...
Прохождение
Компьютеры Прохождение "Каждому свое" (квестов). Прохождение игры "Корсары: Каждому свое"...
Прохождение игры «Zастеколье: Теперь ты в компьютере» («Застеколье: Теперь ты в компьютере») для PC Лаборатория волновой физики
Описание ПК игры: Что делать, если ты устал шариться в Интернете, слушать постоянные...
Что делать, если у интернета Yota плохой сигнал
Yota не работает и нам часто приходится разбираться в этой проблеме и искать причины сбоя в...
Вирус Petya: все, что вам нужно знать об этом вирусе
Добрый день, друзья. Совсем недавно мы с вами разбирали вирус шифровальщик WannaCry ,...