Перейти к содержимому

Реферальная программа Мегаплана


Советы по выводу сайтов из-под фильтров ГУГЛа

#1 Atavisma

Atavisma
  • Пользователь
  • 31 сообщений
  • Репутация: 2
2

Отправлено 21 Октябрь 2013 - 21:47

Как практически вывести сайт из-под фильтров ГУГЛа

Фильтры и баны поисковиков - это своеобразная антивирусная система.

Поисковики, как ГУГЛ, так и Яндекс- это машины для зарабатывания денег. (к примеру- рекламные объявления)
И для того, чтобы народ пришёл именно к конкретному поисковику и воспользовался именно его услугами, им жизненно необходимо всегда выдавать людям именно то, что они хотят найти.

Если в запросе человек пишет- "деревянное окно" , то найденные сайты должны МАКСИМАЛЬНО удовлетворить потребность конкретного потребителя и выложить перед его глазами САМЫЕ информативные по данной теме сайты и страницы- найденные по его требованию.

Так? Так.
Поэтому, когда в сети появляется сайт, не удовлетворяющий по каким-либо параметрам ужесточающимся год от года требованиям и алгоритмам, такой ресурс определяется роботами-пауками как потенциально негодный, на него наносится виртуальная "чёрная метка", в последующие свои заходы робот уже видит эту метку и действует чуть строже, выискивая больше негодных параметров.

И когда находит, то ситуация усугубляется ещё сильней. Ставится ещё одна метка, и следующая, и, если хозяин сайта не предпринимает никаких шагов по исправлению положения, сайт уходит под бан или какой-либо фильтр.

Так система собственно автоматически чистит саму себя, убивая и прогоняя - так сказать, подальше от глаз клиентов, сайты- не удовлетворяющие условиям.

Мы с Вами не будем сегодня говорить о сайтах- дорвеях, о сайтах, которые делаются для быстрого обогащения путём продажи на них ссылок, рекламы, баннеров, слива траффика и так далее.

Мы с Вами будем говорить о Вашем сайте, который был создан белыми методами и продвигается Вами честно.

Но- вот вдруг - неприятность.

Сайт Ваш рассказывает о том, что волнует Вас или Вашу компанию, или предлагает хорошие качественные товары или услуги, или призван объединить людей каким-то образом, но посетители перестали приходить, сайт совсем не видно и его почти невозможно найти ни в Яндексе , ни в ГУГЛе, и статистика недвусмысленно показывает снижение всех показателей, как например вот здесь.
Изображение
И Вы после некоторого времени недоумения, метаний и восклицаний - "Как такое может быть, ведь чёрные методы мы не применяли" наконец начинаете понимать, что сайт возможно попал под какой-либо фильтр или фильтры поисковика.

Как попадают под фильтр АГС и как из-под него выходить, я писал уже довольно давно, и несомненный интерес к этим статьям показывает, что данная тема актуальна и важна.

Сейчас же мы с Вами разберём причины попадания сайтов под фильтры ГУГЛа.

Как действуют алгоритмы фильтров ПИНГВИН и ПАНДА, которые два года назад начали наводить шороху на огромное количество Российских, и не только сайтов, Вы можете прочитать во многих местах, в том числе и на этом форуме.

На самом деле причин попадания под эти фильтры великое множество, как внешних, так и внутренних.

НО.
Но. Скажите, если Вашему сайту плохо, если люди к Вам не идут, то какая, к чёрту разница- под какой фильтр попал сайт?
С моей практической точки зрения- принципиально никакой.

Поэтому когда ко мне обратились Москвичи и поставили задачу вытащить из небытия сайт наверх в ГУГЛе, не потеряв при этом мощные позиции в Яндексе, то я решил работать не по ПИНГВИНУ и не по ПАНДЕ, хотя на скрине хорошо видно и тот и другой фильтр
Изображение
Чётко видно резкое уменьшение количества поисковых запросов как в конце 2011 года (Панда), так и 25 марта 2012 года (Пингвин).

Позиции улетели с первых мест за тысячный рубеж. Сами понимаете - это очень неприятно и убыточно для большой оптовой компании.
И самое интересное, что большой, старый, мощный, высокозатратный ресурс нисколько не отличался по своим проблемам от обычного сайтика- блога.

Давайте посмотрим, почему улетел в небытие этот сайт и почему попадают под фильтры ГУГЛа обычные на первый взгляд хорошие качественные сайты.

1. Если Вы используете в своём продвижении автоматические агрегаторы типа СЕОпульта или Вебэффектора, отнеситесь со всей серьёзностью к качеству ссылок и качеству анкоров, которые Вам предлагаются.
Ведь как всё это происходит почти всегда. Вы выбираете какое либо ключевое слово. Система автоматически подбирает под него самую правильную, наиболее подходящую по её-системы- мнению, страницу на Вашем сайте, сама генерирует прямые, непрямые, косые, разбавленные, неразбавленные анкоры для Вашего ключевого слова, сама по умолчанию ставит фильтры, по которым сама потом ищет и предлагает Вам ссылки для Вашего сайта. И это ещё - поверьте- не самое плохое.
Видали Вы наверно ситуацию, когда на перекрёстке ломается светофор и посерёдке встаёт толстый ГАИшник.

Что начинается? начинается бардак. Он вертит руками в разные стороны, делает различные балетные ПА своим не худеньким корпусом и орёт во всю глотку -"Проезжай, давай-давай" и так далее. Движение замедляется , иногда до конца, то есть все встают(((.

Автоматически- при светофоре, Вы ещё каким-то образом можете отрегулировать своё продвижение сами путём чистки анкор-листа, ставя фильтры на простановку ссылок и назначая режимы снятия ссылок. САМИ.

Нажав же на кнопочку- к примеру- в СЕОпульте под названием- СЕОмах, вручную Вы уже ничего не сможете сделать и Вам остаётся уповать на милость толстых офисных планктонных менеджеров данного агрегатора. А что творят эти эффективные менеджеры иногда- это уму непостижимо.

Поэтому- если Вы уж используете арендованные ссылки, то ТЩАТЕЛЬНЕЙШИМ образом проверяйте все запятые и точки, анкор-лист, фильтры простановки и фильтры снятия, НЕ ДОВЕРЯЙТЕ свой сайт системе, всё сами, ручками и мозгом.

Я например использую СЕОпульт только для статистики, она там довольно удобна, и фильтры ставлю вот такие.

Изображение

Вобщем-то и Вам советую. По крайней мере, ТИЦ сайтов доноров должен быть не меньше 30, и ПР-3, таким образом отсекаются дерьмо-сайты- сляпанные только вчера и только для зарабатывания на ссылках, количество страниц в яндексе и гугле не должно отличаться в десятки раз и быть не меньше 500 - этим Вы выкидываете сайты под АГС и подобные им, возраст сайта- донора не должен быть меньше двух лет, сами наверно понимаете почему, и очень важно- ставьте минимальный ПР страницы не меньше единицы. Так Вы не будете платить за ссылки, которые никто не видит, так как страницы эти хотя и индексируются, но находятся в так называемых- соплях ГУГЛа, то есть не участвуют в поиске. Таким образом Вы отсечёте САМЫЕ дерьмовые сайты и получите хоть какие-то более менее приличные ссылки за свои деньги.

С анкорами тоже действуйте очень осторожно. Если система предлагает Вам такое вот предложение - " предлагаем "НЯня для ребёнка" около метро, искать на склад" Думаю понятно, что такая ссылка будет не помогать, а ВРЕДИТЬ Вашему сайту.

Вот. Это касается агрегаторов. А вообще- если Вам нравятся арендованные ссылки, а они при тщательном выборе сайтов-доноров пользу-то приносят всё равно и нужны, для продвижения сайта, то рекомендую всё же искать счастья и хороших доноров по вашей теме в системе САПа, и использовать при этом плагин Винка.

Ещё. НИКОГДА не наращивайте резко количество ссылочной массы. Поисковики и в частности ГУГЛ эти колебания отслеживает очень хорошо и считайте, что чёрная метка для Вашего сайта уже в пути.

Очень спокойно, очень постепенно, не торопясь никуда, делайте вид- что это вообще тут не Вы находитесь и работаете))) и вообще это все ссылки- самые что ни на есть реальные и честные.

Фильтры ГУГЛА, как выходить и что делать?

Фильтр Пингвин используется ГУГЛом в основном для наказания сайтов с плохой внешней оптимизацией.
  • Плохая ссылочная масса - плохие сайты доноры ( большое количество говносайтов, порно, виагра, наркотики, мат на страницах сайтов-доноров, большое количество исходящих ссылок и так далее)
  • Большое количество ссылок с форумов, досок объявлений ( обычно появляется после так называемых прогонов по каталогам, причём по страшным дерьмовым базам каталогов. Кстати, уже появилась в связи с выходом Пингвина услуга- "забей конкурента" Прогон по очень плохим базам каталогов иногда является вполне достаточным для обрушения слабого сайта конкурента)
  • Не тематические ссылки в своей основе ( то есть сайты или страницы-доноры совершенно не совпадают с Вашим сайтом по тематике. К примеру- Ваш сайт рассказывает о погоде, а сайт-донор- о бормашинках))
  • Несоответствие , неправильное- по мнению ГУГЛа, соотношение прямых "ОКНО" , непрямых "Окна" разбавленных "Окна для офисов", просто безанкорных " h_ttp://ВашСайт" анкоров. Проверить соотношение Вам можно в системе h_ttps://ru.ahrefs.com/index.php
  • Просто кривые тексты анкоров, такие как "предлогаем у кальян- на каталог у Светланы окна близко"
Поэтому ссылочную массу Вашего сайта нужно проверять, чистить, смотреть анкоры, их соотношение в анкор-листе, причём не один раз- а периодически, раз в два- три месяца.

И совет. Если Вы считаете, что на Ваш сайт ссылаются очень плохие, нехорошие, некачественные сайты, то в ГУГЛе не так давно появилась специальная форма для обращения. В ней можно указать плохие страницы или даже сайты доноры и попросить ГУГЛ не учитывать их в своих алгоритмах. Я так делал. это помогает. Проверено.



ПАНДА предназначена для фильтрации сайтов с плохой внутренней оптимизацией. Поэтому внимание на своём сайте Вам нужно обязательно обращать на такие вещи.
  • Отсутствие, дублирование или неправильное прописывание трёх основных метатегов Title, Keywords, Description
  • К примеру- сайт, который у меня вышел из-под фильтров ГУГЛа, в вебмастере сейчас выглядит очень хорошо. На сайте размером более 3000 страниц осталось всего несколько ошибок в метатегах, по мнению ГУГЛа. По моему- это очень хороший показатель.
Изображение
  • Обязательно прописывание заголовков H1, H2 и так далее, хотя бы - если нет времени на все - АШ1. Это всегда название статьи, название страницы, и в ЛЮБОМ случае такой заголовок НЕОБХОДИМ Вашему сайту. На КАЖДОЙ странице.
  • Проверить все тексты на сайте, переписать НЕУНИКАЛЬНЫЕ, на самых- хотя бы- важных страницах проверить тошноту и заспамленность. Полностью большой сайт проверить и поправить очень сложно, но 10-20 страниц- возможно. Здесь возникает вопрос. А какое соотношение ключевых слов или фраз в общей массе текста должно быть на вашей странице в каждом конкретном случае, можно примерно определить проверив сайты первой пятёрки или десятки по Вашему ключевому запросу. Если тошнота в лучших сайтах- по мнению поисковика- 4,7% , значит спокойно ставьте примерно такой же процент, хуже не будет точно, а вот помочь может. Так же проверено на собственном опыте на многих сайтах.
  • Проверьте на уникальность картинок на Вашем сайте. Если Вы их создаёте сами- то оформите правильно, использовав теги альт и тайтл, если Вы их где-то берёте и картинки неуникальные - тогда я бы посоветовал Вам просто прописать запрет на индексирование картинок в файле "Роботс"
  • Как можно больше и естественней перелинкуйте страницы сайта.
  • Проверьте управляющие файлы сайта, правильно пропишите файл Роботс
  • Просканируйте Ваш сайт на вирусы, это чрезвычайно нервирует как поисковики, так и Ваших потенциальных посетителей
  • Проверьте зеркала сайта. У сайта должен быть только один адрес с www или без оного. Решите, какой у Вас, и сделайте редирект со второго на главный
  • Проверьте дубли ссылок, кривые ссылки, ссылки ведущие в никуда или ссылающиеся сами на себя. Часто снизу сайта разработчики делают ещё одно меню для тех пользователей, которые к примеру- дочитали текст до конца и не видят вкладки, оставшиеся сверху. Тогда, чтобы не возникало дублирование ссылок, нижние вкладки можно сделать якорными ссылками. Ещё раз повторюсь, по моему опыту - это даёт хороший результат
  • Красиво и информативно оформите страницу 404. Чтобы- если Ваш посетитель неправильно написал адрес и не попал по адресу, на этой странице Вы сможете во-первых помочь ему и во-вторых- не упустить потенциального клиента.
  • И так далее и тому подобное. Сайт можно вылизывать до бесконечности, но статья не резиновая. Поэтому то что я здесь посоветовал Вам, проверено не один десяток раз на собственном опыте и работает.
  • Ну а в конце позвольте немного похвалиться. После полугода непрерывной работы вышеупомянутый мощный старый сильный сайт всё же вылез из-под фильтров ГУГЛА. Делал я всё на нём ровно то, что здесь описал. И сайт вышел из-под пресса ГУГЛа. Чего и Вам желаю. Изображение
  • Задавайте вопросы, всем отвечу.
При поддержке: Seohammer - ссылочный агрегатор нового поколения. Обсудить на форуме.

Изображение

 

 

  • 2

robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85
Советую обратить внимание на следующее:
  1. Помогите вывести сайт из под фильтра Яндекса!
  2. Как я снял фильтр Google более чем для 30-ти сайтов за входящие ссылки
  3. Вывод одного сайта из-под двух фильтров: Google Пингвин и Яндекс -30
  4. Советы в выводе сайта на первых страницах Google
  5. Как вывести сайт из под фильтра АГС

#2 skilur

skilur
  • Пользователь
  • 221 сообщений
  • Репутация: 45

Отправлено 21 Октябрь 2013 - 22:12

Статья хорошая,спасибо, но лучше б Вы ее назвали "как не попасть под фильтры Google", потому что кроме Панды и Пингвина, существуют фильтры, наложенные вручную. Неплохо было бы указать, как выявить заспамленные площадки с линками сайта, попавшего под фильтр, как их вычистить при помощи disallow links, какие параметры и через какие инструменты следует применять. Потому что настройки в SEOpult, которые Вы предлагаете не могут уберечь Ваш сайт от фильтров - они не дают никаких представлений о заспамленности ресурс-донора, а спам-площадка может иметь и ТИЦ>100. Либо как нужно перерабатывать страницы, чтоб они не улетели под фильтр за переспам постфактум. У Вас же, повторюсь, больше предостережение с описаний фильтров, что безусловно тоже нужно, тоже важно, расписано хорошо, но не соответствует теме
  • 0

#3 Atavisma

Atavisma
    Topic Starter
  • Пользователь
  • 31 сообщений
  • Репутация: 2

Отправлено 22 Октябрь 2013 - 00:30

Что такое https://www.google.c...avow-links-main ? я написал выше.
страницы или даже домены -доноры, которые кажутся Вам неправильными, плохими, отрицательно действующими на Ваш сайт, с помощью этой фрмы ГУГЛа Вы можете попробовать убрать от индексации, таким образом нивелировав отрицательный эффект.

Убирает ли действительно из индексации это всё или нет- ГУГЛ не говорит, и вычислить, ну я по крайней мере не знаю как.

Переспам КАЖДОЙ донорской страницы если ссылок тысячи- почти невозможен. Времени на это нет.
Поэтому я писал выше, и пишу ещё раз- для чернового определения хорошести сай-та донора я использую плагин Винка. Таким образом отсекается - ну- 90 процентов дерьма. Более глубокий анализ сайтов доноров лично я просто делать не имею времени.

Преспам на собственных страницах своего сайта как привести в норму и какая это норма (а по моему мнению в каждой тематике и подтематике эти нормы разнятся) нужно по моему мнению приводить в соответствие с первыми сайтами ТОПа.

Как не попасть под фильтр- да, и как выходить из под него, какие работы проводить- по моему- я так же описал. ))
  • 0

#4 Diablero

Diablero
  • Пользователь
  • 36 сообщений
  • Репутация: 6

Отправлено 22 Октябрь 2013 - 00:33

skilur, полностью с Вами согласен.

Atavisma, простите за критику, но вывести из-под фильтра Гугла - не так уж сложно. Покажите мне человека, который из-под АГС Яндексовского вывел, мне интересно его послушать. Если сами выводили каким-то образом - расскажите об этом пожалуйста. Ни у меня ни у моих коллег не получилось вывести. Я попал из-за того что на молодой сайт который быстро развивался повесил Сапу, чтобы спасти удачный домен были произведены:
  • полная замена контента на качественный/уникальный;
  • смена движка сайта с Drupal на WordPress;
  • закуплена ссылочная масса с блогов моих коллег;
  • обеспечено регулярное (минимум 3 раза в неделю) обновление контента на протяжении более чем 4х месяцев.

  • 0

#5 Atavisma

Atavisma
    Topic Starter
  • Пользователь
  • 31 сообщений
  • Репутация: 2

Отправлено 22 Октябрь 2013 - 01:00

вот сайт и вот статья1 и 2 и 3 КАК Я ВЫВЕЛ САЙТ ИЗ ПОД АГС
  • 0

#6 FlyHelen

FlyHelen
  • Пользователь
  • 48 сообщений
  • Репутация: 7

Отправлено 22 Октябрь 2013 - 08:51

Хорошая практическая статья, спасибо за то, что делитесь своим опытом.
  • 0

#7 Atavisma

Atavisma
    Topic Starter
  • Пользователь
  • 31 сообщений
  • Репутация: 2

Отправлено 22 Октябрь 2013 - 10:15

правда Рад помочь.
  • 0

#8 Diablero

Diablero
  • Пользователь
  • 36 сообщений
  • Репутация: 6

Отправлено 22 Октябрь 2013 - 21:32

вот сайт и вот статья1 и 2 и 3 КАК Я ВЫВЕЛ САЙТ ИЗ ПОД АГС


За ответ спасибо. К сожалению новой полезной информации на вашем сайте не нашел.
  • 0

#9 Atavisma

Atavisma
    Topic Starter
  • Пользователь
  • 31 сообщений
  • Репутация: 2

Отправлено 22 Октябрь 2013 - 22:36

Что для Вас полезная информация? Чётко задайте вопрос, постараюсь ответить, если знаю
  • 0

#10 Diablero

Diablero
  • Пользователь
  • 36 сообщений
  • Репутация: 6

Отправлено 25 Октябрь 2013 - 12:05

Примерно через сколько Ваш сайт вышел из-под АГС с момента, когда Вы его полностью вычистили?

Я не хочу сказать что я Вам не верю, что Ваш сайт был действительно именно под АГС, но я знаю как минимум два случая, когда домен попал под АГС, после этого была проведена огромная работа по удалению всех ссылок и некачественного контента, и организовано регулярное обновление контента на сайтах, а из-под АГС сайт так и не вышел. Вы столь тщательную работу судя по вашей трилогии из статей не проводили, потому собственно и вопросы возникают:
  • Действительно ли сайт был именно под АГС, или может быть он попал под какой-то другой фильтр, из-под которого благополучно и вышел благодаря вашим действиям?
  • В статье вы описали точно всю информацию о том, что делали? Может быть что-то упустили. Там письма писали в Яндекс, заявки подавали, ответы какие-то получали...
В случаях, о которых я знаю, представители Яндекса просто ничего не отвечали на письма и заявки на перепроверку ресурса и вообще никак не реагировали.
  • 0

robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85


Оформление форума – IPBSkins.ru