Здравствуйте.Расскажу вам краткую историю "без воды" о том, как мой сайт посетил зверь от Гугла -
Панда.
Данные: Сайт: интернет-магазин по продаже нижнего белья enredo.ru
Возраст: более 2-х лет.
Продвижение: внутренняя оптимизация - полностью уникальные собственноручно написанные статьи, перелинковка, удобное юзабилити и т.д.; внешняя оптимизация - регистрация в каталогах, в профилях сайтов, закладках и покупка вечных ссылок с тематичных площадок. Sape - нет.
Событие: с января 2013 года началось падение трафика с Гугла. По началу всё было списано на сезонность, праздники... Но падение продолжилось и в феврале.
Действия:1. Определён фильтр в соответствие с обновлениями Гугла. Информация взята
http://moz.com/google-algorithm-change#2013. Согласно информации -
22-23 января 2013 произошло обновление Панды.По графику видно, что падение у меня как раз началось в конце января 2013 года. К сожалению, не получается сделать более детальный график (по дням или неделям). Кто знает как - скажите, изменю. Этот график сделан с помощью ЛивИнтернета.
2. Проверяем все статьи на сайте на уникальность. Копируем строку из текста и вставляем в поисковик. И далее смотрим - появился ли в выдаче сайт, какую позицию занимает. По 99% статьям ситуация была очень хорошая - благодаря подтверждённому авторству в Гугле - сайт стоял выше конкурентов, имеющих точно такой же текст. Остаётся 1%. И этот 1% - это главная страница сайта, на которой тоже был проставлен тег rel=autor. Однако, Гугл не только не присвоил авторства этой одной единственной странице, так ещё и посчитал - что контент ворованный. Т.е. в выдаче были десятки сайтов с моим ворованным текстом, а моего сайта в выдаче не оказалось. Т.о. причина Панды была определена.
3. Далее было дело техники: убираем тег rel=autor, и полностью переписываем статью. и Вуа-ля, фильтр снят в июне.
В данной статье всё описано в простых трёх шагах, хотя прежде, чем придти к этому верному и вроде как простому решению - прошло немало времени, и сделано было не мало действий. И сам фильтр разумеется был снят не сразу, на это ушли месяцы (пришлось ждать нового обновления алгоритма Панды, в июне 2013 года).
Однако, как в том самом фильме -
I*ll be back - сайт снова попал под фильтр, уже в
2014 году. Гугл молчит и информации о том, что были какие-либо обновления алгоритмов нет. Уведомлений в Вебмастере также нет. Всё сложнее, чем в первый раз.
Есть мысли о том, что рано приписала на главную тег rel=autor после предыдущего фильтра. Более того - до февраля 2014 года авторство так и не было присвоено. Хотя дублей в выдаче нет. Поэтому тег снова убран.
Итак, такая картинка сейчас. Резкое падение 16 февраля.
Вот что сделано:1. Вновь проверены все статьи на уникальность вручную. Сайт в выдаче стоит выше всех, даже если другие сайты имеют сворованный у меня контент.
2. Вновь проверены КС и Тайтлы и прочие прелести внутренней оптимизации.. Тоже всё чисто.
Т.о. Панда отпадает. А значит - есть подозрения, что посетил другой зверёк -
Пингвин.
Продолжаем действовать:
3. Проверяем через программы:
А) https://ru.ahrefs.com/ В силу отсутсвия платной версии, получаю только лишь такую информацию (небольшую, но важную):
Ссылающиеся IP-адреса
147 Ссылающиеся домены
152Кол-во ссылок: 808
Выгрузка по анкорам:
- посетить сайт автора (7%)
- домашняя страничка домашняя страничка (5%)
- www.enredo.ru (3%)
- домашняя страница (3%)
- интернет-магазин эротического нижнего белья энредо (3%)
- бельё для увеличения попы - трусы пуш ап (2%)
- коробки для хранения нижнего белья (2%)
- подробнее (2%)
- сайт (2%)
- ссылка (2%)
- трусики пуш ап (2%)
- трусы пуш ап (2%)
- интим-магазин для красивых женщин (1%)
- органайзер по уходу и хранению нижнего белья (1%)
- трусы пуш ап (push up) (1%)
Т.е. можно сделать вывод - что с анкорами всё в порядке. Однако, проверяем дальше.
Б) через http://www.linkpad.ru. Анкоры более чем нормальные: больше всего "картинка", затем адрес сайта. Кол-во ссылок 1050, доноров - 310. Проверяю всех доноров (310) вручную. В списке обнаруживаются подозрительные сайты-дорвеи в кол-ве более 200 штук. Копирую их в файл. А также копирую явные линко-помойки (нет общей идеи сайта, статьи разношёрстые - в каждой по ссылке-двум на сторонние сайты) и нетематичные. Общее кол-во ссылок получается около 230.
В) через http://www.opensiteexplorer.org. Также использую бесплатную версию. Находится 297 ссылок. С анкорами на первый взгляд вроде скромно... А тут нескромная просьба))). У кого есть платная версия и кому не сложно - прошу посмотреть по анкорам , т.к. некоторые позиции высвечиваются 100 (???) и более анкоров, но бесплатная версия не даёт посмотреть какие именно позиции.
Г) вручную проверяю все ссылки из Веб-мастера на анкоры и ещё раз на линко-помойки и прочее. С анкорами опять всё хорошо.
4. Из файла с "нехорошими ссылками" - выбираю те, которые покупала лично. Через сервисы покупки ссылок связываюсь с веб-мастерами и прошу удалить ссылку.
5. Делаю документ с разрешением "txt"
https://www.google.com/webmasters/tools/disavow-links и отправляю в Гугл.
6. Попутно размещаю ссылки на "тяжёлых" и тематичных сайтах с PR не менее 2.
7. Заметила - что большинство купленных ссылок так и не попало в Вебмастер. Хотя в индексе есть. Т.к. до конца не понятно - учитываются эти ссылки или нет - решаю сделать переходы с наиболее весомых сайтов на свой. Ну а чтобы улучшить ещё и ПФ (поведенческий фактор) заодно - после перехода и прогулок по нескольким страницам - завершаю сессию оформлением покупки. Разумеется, кол-во переходов с ссылок - в разумных переделах, и не превышало более 2-5 раз в неделю (АП разный). Мне кажется, что "переход" активирует эту самую ссылку, плюс делает её для поисковика "не продажной", а "для людей". Появились ли всё-таки эти "активированные" ссылки в веб-мастере будет понятно позднее.
8. Также размещаются статьи, 2-3 штуки в неделю, полностью авторские и уникальные.
Выйдет сайт из-под фильтра - покажет время, возможно придётся ждать несколько месяцев до обновления алгоритма Гугла. Однако, буду очень рада вашим советам - что ещё можно сделать в этой ситуации и как улучшить позиции сайта.
Спасибо за внимание.При поддержке:
Siteclinic - команда, которая выводит сайты из под фильтров поисковых систем.
Обсудить на форуме.