Перейти к содержимому

Сервис обмена электронных валют


Индекс google переваливает за 3000. Почему?

#1 vsevideshey

vsevideshey
  • Пользователь
  • 30 сообщений
  • Репутация: -4
0

Отправлено 29 Июнь 2013 - 19:29

Всем , здравствуйте. У меня такой вопрос: как избавиться от страниц в доп. индексе google. У меня на блоге около 150 записей. Яша забраз около 200 страниц, как и должно быть, а Гоша уже около 3000 забрал. Я наблюдаю похожую ситуацию у многих. Однако, на некоторых блогах результаты индексации почти одинаковы. Кто-нибудь знает как этого добиться?

 

 

  • 0

#2 PhotoShopRND

PhotoShopRND
  • Пользователь
  • 209 сообщений
  • Репутация: 53

Отправлено 29 Июнь 2013 - 19:35

Наверное с помощью robots.txt
  • 0

#3 vsevideshey

vsevideshey
    Topic Starter
  • Пользователь
  • 30 сообщений
  • Репутация: -4

Отправлено 29 Июнь 2013 - 21:04

Наверное с помощью robots.txt


У меня, как и у многих, в robots.txt прописаны запреты, и именно для google, но он на них внимания не обращает.
  • -1

#4 PhotoShopRND

PhotoShopRND
  • Пользователь
  • 209 сообщений
  • Репутация: 53

Отправлено 29 Июнь 2013 - 21:19

Значит неверно прописаны... или не там расположен ваш robots. А так как вам лень ссылку дать на сайт, никто вам и ответить ничего не может. А минусы ставить людям которые хотят вам помочь, некрасиво.
  • 0

#5 vsevideshey

vsevideshey
    Topic Starter
  • Пользователь
  • 30 сообщений
  • Репутация: -4

Отправлено 30 Июнь 2013 - 06:54

Ну, извини, за минус. я думал, если не помог, то ставить надо. Я впервые на форуме. Вот мой ресурс http://raskrutkabloga.ru/
Рам робот расположен правильно и прописано все соответственно.
  • 0

#6 Jean

Jean
  • Пользователь PRO
  • 1 237 сообщений
  • Репутация: 218

Отправлено 30 Июнь 2013 - 08:35

vsevideshey, Как выше вам подсказали у вас есть варианты:
1: Верно составленный Robots.txt
2: использование rel=canonical
3: использование 301 редиректа для дублей
4: Удалить не нужные урл из индекса через Гугл Вебмастер
5: Использование Seo плагинов
  • 0
Научу вас Seo оптимизировать и продвигать сайт, стоимость от 150р час, теория+практика
Консультирую по Интернет рекламе


#7 vsevideshey

vsevideshey
    Topic Starter
  • Пользователь
  • 30 сообщений
  • Репутация: -4

Отправлено 30 Июнь 2013 - 13:18

Робот правильно составлен, в этом я уверен. А вы можете по подробнее рассказать о сео плагинах и rel=canonical. Как они влияют?
  • 0

#8 WPGet

WPGet
  • Пользователь
  • 276 сообщений
  • Репутация: 46

Отправлено 30 Июнь 2013 - 16:34

Вот про канонические URL, а про плагины принцип поиска информации не сильно отличается.
  • 1

#9 Sosnovskij

Sosnovskij
  • Администратор
  • 3 886 сообщений
  • Репутация: 566

Отправлено 01 Июль 2013 - 20:49

В google бывает такая ситуация. В выдаче, например, при запрос site: domen.ru выдаются 3000 страниц, но у 2500+ документ сниппет говорит о том, что страница запрещена в robots.txt. Соответственно, если смотреть кол-во проиндексированных страниц, то будет 3000, а на деле же намного меньше.

Проблема может быть в плагине replytocom. В выдаче есть много страниц, которые он создает.
  • 0

Не стесняйтесь ставить оценки темам :) Правила форума. Мой блог http://sosnovskij.ru/.



robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85


Оформление форума – IPBSkins.ru