Перейти к содержимому


Партнерская программа Kredov

Индексация страниц сайта

#1 Алена

Алена
  • Пользователь
  • 14 сообщений
  • Репутация: 4
2

Отправлено 24 Сентябрь 2013 - 12:57

На конкурс "Статейник - 3"


Здравствуйте, уважаемые друзья!

Давайте разберем для начала, что такое индексация страниц сайта. Индексация – это когда паук, он же робот, он же поисковый бот, найдя ссылку на вас, перейдет по ней, загрузит страницу, на которую пришёл в свою базу. Затем перейдет по ссылкам, которые есть на странице и если их нет в базе, то же загрузит их туда. В дальнейшем старицы будут обработаны, систематизированы и попадут в поисковую выдачу.

Изображение


Если по какой-то причине блог не доступен, то пауку ничего не останется, как прийти в другой раз. А когда он будет этот другой раз только паук и знает.

Как добавить сайт в индексацию?

Вы написали пост на своем блоге. Отлично. Теперь нужно, что бы его как можно быстрее проиндексировали поисковые системы. Какие действия необходимо предпринять после публикации?

Настройка пинга

У меня блог на WordPress. Как только я публикую пост, мой блог трубит всем о его выходе. Вроде все хорошо и правильно, только вот есть один нюанс. Смотрите, что получается. То, что пингуется новая статья – это отлично, но пинг посылается на сервисы и тогда, когда вы просто, что-то поменяли в старом посте. Это может быть просто какая-то ошибка, которую вы углядели.

Пинг прошел на пинг сервис, от него к ПС. С поисковой системы пришел паук, а у вас все практически без изменений. Не соло нахлебавшись бот пошел обратно. Вы ничего не подозревая продолжаете работать над старым постом. Изменения так ерундовые. Но WordPress предательски продолжает пинговать каждое из них. Паук снова приходит и снова уходит практически ни с чем. В конце концов пауку это надоедает и он перестает так быстро реагировать на ваш вызов, принимая его за очередной ложный, а ПС может вообще поставить фильтр за пинговый спам.

У себя на блоге я убрала весь список пинг сервисов. Теперь мой блог не пингует. После опубликования поста я пингую сама с помощью программы PingXpert. В отличии от WordPress в программу можно загрузить значительно больший список пинг сервисов, не боясь создать большую нагрузку на блог.

Что интересно. До того как я это сделала вопрос с индексацией стоял довольно остро. Если Google реагировал относительно быстро, то Яша совсем не радовал.

Теперь боты слетаются словно пчелы на мед. Яша индексирует через 2-3 часа, про Google я вообще молчу.
Если учесть, что среднее время индексации может варьироваться от пары часов до нескольких недель, то такое положение дел меня весьма радует.

Добавляем в аддурилки

Благую весть о создании нового поста вносим в так называемые аддурилки. Это панель, куда добавляют новые ресурсы.
Надеюсь, у вас есть аккаунт в панеле вебмастеров двух основных наших поисковиков: Яндекса и Google.

webmaster.yandex.ru/addurl.xml
www.google.ru/addurl/?continue=/addurl

Создание уникального контента

Сейчас много внимания уделяется уникальному контенту. Причем он должен быть не только уникальным, а интересным и полезным. Теперь поисковик в состоянии оценить и эти факторы.

При обнаружении такого контента отношение к вам бота будет весьма благосклонно, следовательно, вам будет предоставлено более лучшее место в поисковой выдаче.

Разве не бывает так, что вы тратит много средств и времени на то, что бы сделать свой сайт красивым, удобным и посты на нем хорошие, только трафика нет.

А рядом сайт простой, иногда без картинок, но народу там много. Одна из причин – частые обновления. Чем чаще, тем лучше, ведь каждое обновление – это приход робота.

Вывод: уникальный контент с полезной информацией, который выходит достаточно часто залог нашей популярности среди ботов и как следствие достаточно быстрое индексирование.

Нужна ли карта сайта?

Например, на блогах WordPress существуют как минимум две карты сайта. Одна для людей, она создается плагином Dagon Desing Sitemap Generator, другая для ботов ПС – плагин Google XML Sitemap. Такая карта служит для быстрого индексирования нашего блога. Более подробно о создании карты можно прочитать здесь.

Страница с картой располагается в одном клике от главной. Ссылку на главную страницу и на страницу карты располагают на каждой странице вашего блога.

Правильный robots txt

Это специальный файл. С его помощью мы указываем роботу, что можно индексировать, а что нет. Роботы, приходя к вам, для начала прочитают инструкцию в robots.txt, а уж потом примутся за индексацию.

Правильное написание robots.txt позволяет избежать многих неприятностей.

Удаления битых ссылок

Битая или мертвая ссылка – ссылка, которая ведет на страницу, которой нет. Бот ходит по сайту так же как посетитель. Ужасно то, что админ может и не заметить битую ссылку, а вот посетитель, попав на нее, уйдет на другой сайт. За достаточное количество таких ссылок ПС может понизить сайт в ранжировании, а следовательно упадет посещаемость.

Для борьбы с битыми ссылками блоги, которые на WordPress используют плагин Broken Link Checker. Активировали плагин, проверили ссылки, все поправили и деактивировали. Лишняя нагрузка ни к чему.

Хостинг имеет значение

Что еще может повлиять на индексацию? Хостинг. Если на вашем хостинге постоянно перебои в работе, то ничего хорошего вам это не сулит. У меня недавно из-за хостинга не просто весь блог вылетел из индекса. Вылетела даже главная страница. Каким-то образом у них вдруг появился запрет для Яндекс робота. Что называется наши руки не для скуки. Так что хостинг имеет большое значение.

Можно ли править

Когда-то мне казалось, что если я опубликовала пост, то все трогать его нельзя ведь он уже проиндексирован. Можно. Спокойно меняйте текс поста, картинки, дизайн. Если статья не оптимизирована – оптимизируйте, если устарела – обновляйте. Все в порядке. Все ваши обновления, по мере прохождения робота проиндексируется. Просто Яше для этого может понадобиться время. Если изменения достаточно большие – пропингуйте пост.

Перестал индексироваться сайт

Есть еще одна «радость» индексации – ее отсутствие. Причин может быть масса:
  • Вы не правильно написали robots.txt
  • ПС не любят Flash и Java ссылки
  • Перестарались с количеством ссылок на странице
  • Есть запрет в мета-тегах
  • Не уникальный контент
  • В конце концов получили бан ПС
Бан поисковых систем

Бан – это когда ваш сайт выбрасывают из индекса и не дают туда добавиться.

За что могут забанить:
1. Переспам ключевых слов
2. Перестарались с ссылками
3. Всплывающие окна
4. Клоакинг. Клоакинг – это когда некий контент на блоге скрывается или наоборот показывается в зависимости от того, кто пришел человек или бот. У Яндекса есть робот James Bond. Он целенаправленно разыскивает подмену. Не 007, но если поймает, то все, будет вам вечный бан.
5. Много не уникального контента
6. Жуткие посты. Много воды. Мало полезной информации или вообще сгенерированные автоматически и поэтому абсолютно бессмысленные тексты.
7. Использование черного сео.
8. Излишнее увлечение рекламой
9. Ваше участие в линкфарме
10. Распространение вирусов либо специально, либо просто сайт заражен.

Проверка дублей страниц

Еще один камень преткновения – дубли страниц. Существование дублей приводит к ошибкам индексации блога. Например, у продвигаемой вами странице есть дубль. Прошел апдейт и в поисковой выдаче вместо нужной страницы появился ее двойник у которого естественно нет ссылочной массы. Как следствие проседание в позиции.
Что бы понять, если у странницы двойник введите в поиск Яндекса или Google кусочек текста со страницы. Например:

«Наше настроение прямо пропорционально нашей жизни. Не верите? Тогда давайте разберемся.»



Изображение



Вот так, неожиданно для себя вы можете обнаружить дубль страницы не только на своем блоге, а и полностью спионеренный на чужом. Причем, что самое загадочное – пост был уже в индексе больше полу года, когда вор напечатал статью, но по не понятной для меня причине авторство Google отдал ему. Товарищ слямзил 70 статей, а отвоевать удалось только 7 из них. Обидно.

Воровство контента – это целая проблема и стратегия войны уже отдельный разговор.

К стати, почему у меня не срабатывает Автор: Алена Марченко я так и не поняла.

Дубли убираем с помощью robots.txt.

Настройка ЧПУ на блоге

Это, пожалуй, одна из первых настроек которые мы делаем. Почему-то ПС не любят url вида /нашсайт/ archive/0/n-47538/. Блог с таким адресом труднее продвинуть. То ли дело feniks818.ru/chto-oznachayut-pozy-sna/.. Преимущества:
  • Красота и с этим не поспоришь.
  • Удобно. Если где-то для себя скопировал ссылочку, то сразу вспомнил почему.
  • ПС доволен. А раз доволен, значит можно получить более выгодную позицию в выдаче.
  • Ключевая фраза в url увеличивает релевантность по ключевому запросу.
Правильная внутренняя перелинковка

Перелинковка – это простановка внутренних ссылок для распределения веса для нужных вам страниц. Перелинковка позволит распределить не только вес, но и улучшает навигацию по сайту, как следствие поведенческий фактор.

На главной странице поставьте виджеты «Популярные статьи», «Последнее в блоге», «Избранное», «Новые статьи», «Комментируемые». Только не все сразу. )

В конце каждого поста выводим ссылки на похожие посты. У меня два скрипта. Один выводит похожие посты внутри рубрик, другой по ключевым постам. Есть идея поставить третий по поисковым фразам, по которым пришли на мой сайт. Только не знаю, не будет ли это уже перебором.

Проверить индексацию страниц можно на сайте xseo.in/indexed
А если вы хотите что бы вам помогли с битыми ссылками, с оптимизацией страниц, с перелинковкой воспользуйтесь программой Page Weight.
Удачи всем, друзья!

При поддержке: Seohammer - ссылочный агрегатор нового поколения. Обсудить на форуме.

Изображение

 

 

  • 1

#2 html-ka

html-ka
  • Пользователь
  • 455 сообщений
  • Репутация: 82

Отправлено 24 Сентябрь 2013 - 21:31

я бы добавил правильную настройку Last-Modified
  • 2

#3 Лиана Аджиева

Лиана Аджиева
  • Пользователь
  • 130 сообщений
  • Репутация: 14

Отправлено 21 Октябрь 2013 - 08:35

Дельные советы. Узнала много полезного. :) Особенно про "Клоакинг".
  • 0


Оформление форума – IPBSkins.ru