Перейти к содержимому

Сервис обмена электронных валют

Партнерская программа Kredov

Существует ли предел загруженных страниц?

#1 ssabbass

ssabbass
  • Пользователь
  • 280 сообщений
  • Репутация: 33
0

Отправлено 23 Октябрь 2013 - 23:22

Когда-то краем уха слышал о том, что в Яндексе для сайтов действует некий предел на индексацию. Что, якобы для экономии ресурсов, установлены ограничения на индексацию в виде фиксированного количества загруженных страниц.

Вопрос возник из-за того, что мой ресурс, который регулярно обновляется уникальными текстами, уже на протяжении 4-5 месяцев стоит на отметке в 2000 страниц индекса (Вебмастер.Яндекс), хотя новые страницы без проблем проходят в результаты поиска. При этом в Google число проиндексированных страниц периодически повышается, а Вебмастер Яндекса будто бы замер на данной отметке в 2000 и никак не хочет расти, заменяя в поиске старые статьи на новые, но не повышаясь количественно.

Какие мысли на этот счет: очередная утка или правда?

 

 

  • 0

#2 skilur

skilur
  • Пользователь
  • 221 сообщений
  • Репутация: 45

Отправлено 23 Октябрь 2013 - 23:48

не волнуйтесь - проиндексирует. 2000 - это далеко не предел для Яндекса. Если Вы посмотрите на некоторые информационные порталы, то число проиндексированных страниц может переваливать за 100к страниц.
можете попробовать прогнать внутряки через твиттер или другие социальные сети.
кроме того, гугл всегда индексирует быстрее, больше, игнорируя теги(

если Вы любите легенды про Яндекс, то вот еще одна: апдейт происходит во время флеш-мобов Платонов. Они всем составом должны собраться на одной из станций красной ветки московского метро и запустить уникальное приложение на своих айфонах, потому что айфоны по мощностям лучше, чем сервера Яндекса.
  • 1

#3 ssabbass

ssabbass
    Topic Starter
  • Пользователь
  • 280 сообщений
  • Репутация: 33

Отправлено 24 Октябрь 2013 - 00:52

Так я и думал. Очередной бред из разряда "садо-мазо-оптимизации". :)

Просто там всё было грамотно замешано на том, что необходимо удалять старые, неактуальные и дублирующиеся страницы (любым доступным методом - robots, noindex, delete) из Яндекса, якобы, чтоб освободить место в ограниченном списке для новых статей. И что мол, эти границы со временем жизни сайта расширяются Яндексом автоматически (так объяснялось существование вот тех гигантов в 100к страниц).
  • 1

#4 Rexxar

Rexxar
  • Пользователь
  • 590 сообщений
  • Репутация: 36

Отправлено 01 Ноябрь 2013 - 12:38

Никакого предела быть не может, рассуждайте логически когда дело доходит до поисковых систем.

И уникальный контент не дает гарантию, на его индексацию и нахождение в индексе, есть куча уникального контента, который удачно выплевывается обеими пс. Нужен востребованный контент, а если у вас новостник с 200000 страниц и 10 человек в сутки, то такой сайт имеет смысл забанить, зачем ему индекс, если не получает трафика.
  • -1



Оформление форума – IPBSkins.ru