Перейти к содержимому

Реферальная программа Мегаплана


Жизнь после Пингвина: что делать дальше?

#1 Fringer

Fringer
  • Пользователь
  • 11 сообщений
  • Репутация: 1
11

Отправлено 25 Май 2014 - 22:55

В своей предыдущей статье я рассказывал о ручных мерах. Сейчас, я бы хотел обсудить другой ненавистный оптимизаторам алгоритм Google Penguin и вариант развития сайта после него.

Пингвин штука хитрая - подбирается и исподтишка обваливает тебе посещаемость и позиции.

И если с остальными алгоритмами бороться проще(взять ту же Панду, грубо говоря, контент переписал и готово), то с Пингвином действительно придется попотеть.

Причины пессимизации просты:
- накачественная ссылочная масса
- переспамленный анкор-лист
 
Что делать?
Ответ очевиден - чистить ссылки.
1) Выгружаем все доступные ссылки из Гугл и Яндекс Вебмастера, по возможности выгружаем данные из Linkpad и Ahrefs. Наша цель - собрать максимально большой массив данных для последующего анализа и сортировки.

2) Анализируем и фильтруем ссылки. Качественные оставляем, некачественные и спамные заносим в отдельный файл.

3) Отправляем файл с ссылками на отклонение.
 
Чем обрабатывать ссылки?
В прошлой статье я рассказывал про очень удобный и гибкий в управлении сервис - LinkDetox. К сожалению, сервис платный. Аналогов, близких по функционалу я пока не встречал, так что тем кто стремится сэкономить или ищет бесплатные варианты, могу посоветовать следующий софт:

1) NetPeak Checker (ex Определяйка) - бесплатно
2) FastTrust - 3000 рублей - 2 лицензии
3) RDS API - длительность и объем обработанных данных зависят от количества средств, который вы положите себе на счет.

Увы, но данные программы определяют только параметры всего домена, а не ссылки, но как говориться “на безрыбье и рак - рыба”.
 

Какие ссылки обрабатывать?
1) Я противник всяких прогонов по каталогам и спама по профилям. Как по мне, подобные техники годятся в основном для дорвеестроителей и рассчитаны на короткую перспективу. Посему, можете смело брать все отчеты, которые отдали вам прогонщики и засовывать их в файл на отклонение.

2) Дальше - отказываемся от сквозняков(добавляем в файл на отклонение, просим снять ссылку или добавить атрибут rel=nofollow, если вам эта ссылка нужна из других побуждений) и ссылок-картинок, которыми имеют привычку обмениваться молодые веб-мастера.

3) С помощью приведенного мною выше софта, отклоняем те сайты у которых обнулён PR, тИЦ или в индексе любой ПС <10 страниц.

4) Отказываемся от тех сайтов, у которых количество исходящих ссылок больше количества входящих ссылок. Чаще всего, подобные сайты созданы исключительно для заработка и никакой пользы вам не принесут. Но, бывают случаи, что и высокопосещаемые СМИ имеют схожую картину. Причина - в указании источников в новостях и ссылках на сайты министерств, управлений и других государственных организаций.

5) Отклоняем ссылки с точным вхождением в анкор. На данном пункте придется сильно попотеть и поработать ручками.
 

Файл создан, на отклонение отправил - что дальше?
А дальше нужно продолжать работать над сайтом и ждать когда вас отпустит. :) Как бы смешно это не звучало, но нечего ждать у моря погоды. Продолжайте наполнять сайт контентом, дорабатывайте дизайн и функционал…..и не забывайте про ссылки! Правда действовать теперь нужно очень аккуратно и хитро. В принципе, техника о которой я расскажу ниже не нова, но мало кто ее использует ввиду того, что это долго и многим просто лень.
 

Трафиковые ссылки
Но сначала маленький и полезный ньюанс. Наверняка все слышали про биржи ссылок Rotapost и Blogun? И наверняка все знают, что там можно купить постовые у блогеров с разных ЖЖ? Так вот, при правильно написанном ТЗ и грамотном примере, блогеры помимо поста и ссылки, дадут вам еще порядочно трафика(смотря насколько посещаемый у блогера Журнал). Сейчас наступил самый лучший момент показать Гуглу что и у вас бывают естественные ссылки.

Алгоритм действий:
1) Идем на понравившуюся нам биржу.
2) Фильтруем блогеров по посещаемости. Не вижу смысла выбирать их по тематике, так как большинство из них пишет о всем подряд, но, тем не менее, есть блоги в которых тематика четко прослеживается. Я не раз натыкался на блог о рукоделье или вкусных рецептах.
3) Думаем о том, какой формат поста выбрать и уже отталкиваемся от него при написании ТЗ. Я, например, делал обзор туристического сайта-сервиса. Попросил блогера зайти на сайт, попробовать функционал и рассказать о сайте используя скриншоты. В итоге, я получил - 7 предложений, одну ссылку и несколько скриншотов. Трафик тоже пошел, правда не большой. Я как-то не рискнул сразу давать задание дорогим блогерам, пока не буду уверен в том, что мое ТЗ понятно и будет выполнено правильно.
 
1.jpg
В данном случае, за счет того, что пост был интересный, некоторые пользователи процитировали его себе в дневник, чем привлекли еще немного переходов.

Со временем, вы сможете собрать свою собственную базу проверенных блогеров и получать хороший трафик.

Должен так же заметить, что подобную штуку можно использовать и для CPA.

А теперь, собственно, сама техника о которой я хотел рассказать выше.
 

Ссылочный паразитизм
Исходя из заголовка, мы будем искать страницы на которых стоят ссылки на конкурентов, и будем оставлять там свои :)
Иначе, все можно назвать проще - анализ ссылочного паттерна конкурентов. Вот здесь хорошо об этом написано.

Данная техника привлекательна тем, что:
1) Мы отбираем у конкурента кусочек ссылочного веса
2) Мы получаем кусочек веса себе
3) Мы повышаем свою собственную релевантность запросу

Из минусов могу выделить:
1) Трудоемкость и времязатратность техники
2) С некоторыми админами не так-то просто договориться

Искать страницы конкурентов мы будем с помощью инструмента Missing Links Tool.
В прошлой статье я использовал, как мне кажется, чрезмерно большое количество скриншотов, сейчас постараюсь быть короче.

Инструмент прост в обращении. Нам нужно указать УРЛ своего сайта и список урлов конкурентов.
2.jpg

Либо, мы можем указать запрос, который нам интересен, а инструмент сам соберет нам конкурентов в той поисковой системе, в которой мы захотим.
3.jpg

После выполнения отчета увидим такую картину:
5.jpg

При клике на имя домена будет доступна дополнительная информация:
4.jpg
На рисунке:
1 - домен
2 - страницы, на которых стоит урл на конкурента
3 - страницы, на которые ведет ссылка (как видите, один сайт может ссылаться на нескольких конкурентов)
4 - дополнительные функции. Нам предлагают проанализировать полученные данные с помощью других инструментов. Например сколько трафика получает та или иная страница, опираясь на данные SEMrush.

Теперь дело за малым:
1) собрать страницы, на которых стоит ссылка на конкурента в контенте, а не в элементах меню или футере
2) собрать контактные данные с сайтов на которых мы хотим разместить свою ссылку
3) написать админам с просьбой добавить нашу ссылку в имеющийся контент на существующей странице
4) профит


Непрямые ссылки конкурентов на нас
Кем бы не были ваши конкуренты, их всегда много и по большей части у них тоже есть исходящие ссылки. Это могут быть ссылки на свои проекты, на поставщиков или на другие тематические ресурсы.

Наша задача - разместить свою ссылку на тех страницах, на которые ссылаются конкуренты. Таким образом, конкуренты будут косвенно ссылаться на нас. Классно, правда?
 
Поиск площадок можно проводить с помощью инструмента Link Juice Thief.
 
Интерфейс и принцип работы инструмента аналогичен Missing Links Tool, поэтому ход работы и скриншоты я, пожалуй, опущу. Идея ведь понятна, правда?
 
 
В заключение
Работа оптимизатора не ограничивается стандартным набором действий. Иногда, для того чтобы достигнуть результата, ну или хотя бы сдвинуть дело с мертвой точки, нужно подумать головой и проделать значительный объем работы. В данном случае это поиск сайтов и переписка с админами.
 
К сожалению, из-за дороговизны инструментов их не удастся часто использовать. Лучшая и бесплатная альтернатива, это Linkpad в комплексе с другим софтом.
 
Используя методики о которых идет речь выше, мне удается при достаточно скромном бюджете постоянно увеличивать трафик на сайт.
6.jpg
 
Надеюсь я был хоть немного вам полезен, или натолкнул на интересные мысли.
 
Спасибо за внимание!

При поддержке: Siteclinic - команда, которая выводит сайты из под фильтров поисковых систем. Обсудить на форуме.

siteclinic-468.png


 

 

Сообщение отредактировал Sosnovskij: 26 Май 2014 - 21:53

  • 0


Оформление форума – IPBSkins.ru