Перейти к содержимому



Индекс google переваливает за 3000. Почему?

#1

Поделиться сообщением #1



vsevideshey

vsevideshey
  • Неактивные
  • 30 сообщений
  • Репутация: -4
0

Отправлено 29 Июнь 2013 - 19:29

Всем , здравствуйте. У меня такой вопрос: как избавиться от страниц в доп. индексе google. У меня на блоге около 150 записей. Яша забраз около 200 страниц, как и должно быть, а Гоша уже около 3000 забрал. Я наблюдаю похожую ситуацию у многих. Однако, на некоторых блогах результаты индексации почти одинаковы. Кто-нибудь знает как этого добиться?

 

 

  • 0

robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85
Советую обратить внимание на следующее:
  1. Советы по выводу сайтов из-под фильтров ГУГЛа
  2. Быстрая индексация страниц Вашего сайта!
  3. Вообще нет трафика с Google
  4. Сайт не растет в гугле
  5. Почему нет страниц в индексе гугл?

#2

Поделиться сообщением #2



PhotoShopRND

PhotoShopRND
  • Неактивные
  • 209 сообщений
  • Репутация: 53

Отправлено 29 Июнь 2013 - 19:35

Наверное с помощью robots.txt
  • 0

#3

Поделиться сообщением #3



vsevideshey

vsevideshey
    Topic Starter
  • Неактивные
  • 30 сообщений
  • Репутация: -4

Отправлено 29 Июнь 2013 - 21:04

Наверное с помощью robots.txt


У меня, как и у многих, в robots.txt прописаны запреты, и именно для google, но он на них внимания не обращает.
  • -1

#4

Поделиться сообщением #4



PhotoShopRND

PhotoShopRND
  • Неактивные
  • 209 сообщений
  • Репутация: 53

Отправлено 29 Июнь 2013 - 21:19

Значит неверно прописаны... или не там расположен ваш robots. А так как вам лень ссылку дать на сайт, никто вам и ответить ничего не может. А минусы ставить людям которые хотят вам помочь, некрасиво.
  • 0

#5

Поделиться сообщением #5



vsevideshey

vsevideshey
    Topic Starter
  • Неактивные
  • 30 сообщений
  • Репутация: -4

Отправлено 30 Июнь 2013 - 06:54

Ну, извини, за минус. я думал, если не помог, то ставить надо. Я впервые на форуме. Вот мой ресурс http://raskrutkabloga.ru/
Рам робот расположен правильно и прописано все соответственно.
  • 0

#6

Поделиться сообщением #6



Jean

Jean
  • Пользователь PRO
  • 1 237 сообщений
  • Репутация: 218

Отправлено 30 Июнь 2013 - 08:35

vsevideshey, Как выше вам подсказали у вас есть варианты:
1: Верно составленный Robots.txt
2: использование rel=canonical
3: использование 301 редиректа для дублей
4: Удалить не нужные урл из индекса через Гугл Вебмастер
5: Использование Seo плагинов
  • 0
Научу вас Seo оптимизировать и продвигать сайт, стоимость от 150р час, теория+практика
Консультирую по Интернет рекламе


#7

Поделиться сообщением #7



vsevideshey

vsevideshey
    Topic Starter
  • Неактивные
  • 30 сообщений
  • Репутация: -4

Отправлено 30 Июнь 2013 - 13:18

Робот правильно составлен, в этом я уверен. А вы можете по подробнее рассказать о сео плагинах и rel=canonical. Как они влияют?
  • 0

#8

Поделиться сообщением #8



WPGet

WPGet
  • Неактивные
  • 276 сообщений
  • Репутация: 46

Отправлено 30 Июнь 2013 - 16:34

Вот про канонические URL, а про плагины принцип поиска информации не сильно отличается.
  • 1

#9

Поделиться сообщением #9



Sosnovskij

Sosnovskij
  • Администратор
  • 4 230 сообщений
  • Репутация: 639

Отправлено 01 Июль 2013 - 20:49

В google бывает такая ситуация. В выдаче, например, при запрос site: domen.ru выдаются 3000 страниц, но у 2500+ документ сниппет говорит о том, что страница запрещена в robots.txt. Соответственно, если смотреть кол-во проиндексированных страниц, то будет 3000, а на деле же намного меньше.

Проблема может быть в плагине replytocom. В выдаче есть много страниц, которые он создает.
  • 0

Не стесняйтесь ставить оценки темам :) Правила форума. Мой блог http://sosnovskij.ru/.



robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85


Оформление форума – IPBSkins.ru