Перейти к содержимому

Реферальная программа Мегаплана

Партнерская программа Kredov

Как закрыть страницы от индексации?

#1 efros

efros
  • Пользователь
  • 197 сообщений
  • Репутация: 5
0

Отправлено 29 Декабрь 2015 - 15:28

Как мне закрыть вот эти страницы от индексации? http://www.foto-me.r...35721e27d86829e


 

 

Сообщение отредактировал efros: 29 Декабрь 2015 - 16:51

  • 0

#2 Igor_Petrenko

Igor_Petrenko
  • Пользователь
  • 226 сообщений
  • Репутация: 35

Отправлено 03 Январь 2016 - 18:10

Если нужно скрыть все страницы, которые начинаются с page, то

User-agent: *
Disallow: /page

Если же только указанную вами страницу, то

User-agent: *
Disallow: /page/2/

Сообщение отредактировал Igor_Petrenko: 03 Январь 2016 - 18:12

  • 0

#3 hammer8

hammer8
  • Пользователь
  • 308 сообщений
  • Репутация: 31

Отправлено 03 Январь 2016 - 18:50

Как мне закрыть вот эти страницы от индексации?
 

 

Вы пробовали делать эти страницы каноническими https://support.goog...er/139066?hl=ru

Сейчас не нужно закрывать проиндексированную страницу в robots, в индексе останется с надписью "скрыто в роботс". 


  • 1

#4 efros

efros
    Topic Starter
  • Пользователь
  • 197 сообщений
  • Репутация: 5

Отправлено 04 Январь 2016 - 18:34

@Igor_Petrenko, Спасибо, это же в robots прописать?  


  • 0

#5 Igor_Petrenko

Igor_Petrenko
  • Пользователь
  • 226 сообщений
  • Репутация: 35

Отправлено 04 Январь 2016 - 18:42

@efros, да, именно в нем.


  • 0

#6 efros

efros
    Topic Starter
  • Пользователь
  • 197 сообщений
  • Репутация: 5

Отправлено 04 Январь 2016 - 20:16

@Igor_Petrenko, А та страница, которая уже проиндексировалась, она пропадет с поиска или нет? 


  • 0

#7 ShowPrint

ShowPrint
  • Пользователь PRO
  • 1 718 сообщений
  • Репутация: 408

Отправлено 04 Январь 2016 - 20:20

@efros, в идеале содержимое robots.txt лучше разбить минимум на 2 части: одна для Яндекса, вторая - для всех остальных ПС.

 

Для Яндекса - можно закрыть как написал @Igor_Petrenko, а вот для Гугля - это прямой источник получения "соплей", об этом предупреждал @hammer8.

 

Наиболее эффективным в настоящий момент является закрытие от индексации через мета-тег внутри <head>...</head>. В вашем случае скорее всего подойдет вариант:

<meta name='robots' content='noindex,follow'>

В идеале дополнить это указанием канонического адреса:

<link rel='canonical' href='http://www.polochek.ru'>

также внутри <head>, для всех страниц содержащих в урле "page"...

 

 

та страница, которая уже проиндексировалась

В Яндексе - уйдёт, в Гугле - повиснет в соплях (если только через robots.txt закрыть)


Сообщение отредактировал ShowPrint: 04 Январь 2016 - 20:22

  • 0
MasterWEBS: третий дом - моё хобби и увлечение... Второй дом: работа - не меньше 12 часов в день...
Первый дом - под охраной: "Осторожно - злая жена!" (дрессировалась долго и надёжно) /*ссылку не просите - не дам!*/



Оформление форума – IPBSkins.ru