Перейти к содержимому

Сервис обмена электронных валют


Googlebot не может получить доступ к файлам CSS и JS на сайте

#1 Evgeniy3200

Evgeniy3200
  • Пользователь PRO
  • 1 149 сообщений
  • Репутация: 268
0

Отправлено 19 Август 2015 - 16:55

 

 

Мы обнаружили на Вашем сайте проблему, которая может помешать его сканированию. Робот Googlebot не может обработать код JavaScript и/или файлы CSS из-за ограничений в файле robots.txt. Эти данные нужны, чтобы оценить работу сайта. Поэтому если доступ к ресурсам будет заблокирован, то это может ухудшить позиции Вашего сайта в Поиске.

 

Вот такое сообщение у мня появилось в панели вебмастера Гугл.  Рекомендации по исправлению - открыть индексацию в файле робота. 

 

Файлы css / js находяться в паках шаблона / плагинов / модулей. И путь к этим папкам действительно закрыт.

 

Кто что думает, как решить проблему, стоит открывать?

Может открыть только для гугли?


 

 

  • 0

Если вы можете наугад в полной темноте пробраться к собственной кровати, ни разу не ушибившись, значит, пора путешествовать!



robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85
Советую обратить внимание на следующее:
  1. Как закрыть доступ ко всем файлам и и папкам на сайте через файл .htaccess
  2. Вопросы по созданию сайта с использованием ''CSS'', ''JS'', скриптов и др.
  3. Открыть роботу Googlebot доступ к JavaScript, CSS

#2 BLIK

BLIK
  • Супермодератор
  • 3 199 сообщений
  • Репутация: 635

Отправлено 19 Август 2015 - 18:14

@Evgeniy3200, Это эпидемия прям).

 

Скажу одно, у меня "много" сайтов, там где дизайны адаптивные(именно адаптивные), таких писем не было, там где НЕ адаптивные и нет мобильной версии, сообщения были.

 

Я ничего ему не открывал, если я ему открою эти файлы, то в соплях в выдачи появятся еще и скрипты.

 

И так появляются приходится руками из выдачи удалять.

 

P.s А так открой ему примерно так

Allow: /templates/*.css
Allow: /templates/*.js 

смотря какой у тебя путь такие и надо правила.

 

Я не открывал по причине того что сайты старые и не особо важны для меня, а так может и открыл бы....


  • 1


#3 ShowPrint

ShowPrint
  • Пользователь PRO
  • 1 729 сообщений
  • Репутация: 410

Отправлено 19 Август 2015 - 18:35

Не уверен что правильно, но я бы открыл... Без доступа к css сохраненная копия в ПС может выглядеть "как попало", за что можно поплатиться...

<offtop на тему>

  1. Пока "рожал"@BLIK написал: идея в голову пришла: а если попробовать после правила закрытия папки написать правило открытия js и css, мы привыкли что в robots есть директива "запрещающая", но редко вспоминаем что есть "разрешающая"...

  2. Может стоит поработать с правилом и закрыть не папки, а типы файлов в них, те которые могут в индексе зацепиться... Сами по себе прилинкованные js и css я никогда не встречал в индексе...

</offtop>


  • 0
MasterWEBS: третий дом - моё хобби и увлечение... Второй дом: работа - не меньше 12 часов в день...
Первый дом - под охраной: "Осторожно - злая жена!" (дрессировалась долго и надёжно) /*ссылку не просите - не дам!*/


#4 Evgeniy3200

Evgeniy3200
    Topic Starter
  • Пользователь PRO
  • 1 149 сообщений
  • Репутация: 268

Отправлено 20 Август 2015 - 09:19

@BLIK,@ShowPrint,

 

У меня в файле робота есть такое правило:

Disallow: /templates/ 

 Значит те файлы, которые просит открыть Гугл, находятся по следующему пути:

1 /templates/beez3/css/файлы таблиц стилей

2 /templates/beez3/javascript/файлы скриптов которые в шаблоне используются

 

 

т.е. по сути не должно быть проблем с выдачей и лишних страниц, если я их открою.

 

Как мне правильно прописать правило для открытия нужной мне папки в закрытой? Т.е. в папке /templates я хочу открыть только 2 папки, с css и javascript, а все остальные оставить запрещенные к индексации.

 

И вопрос второй: правило наверное лучше прописать и для Яндекса тоже? ведь он тоже индексирует все, хоть и не выдает ошибки.


  • 0

Если вы можете наугад в полной темноте пробраться к собственной кровати, ни разу не ушибившись, значит, пора путешествовать!



#5 ShowPrint

ShowPrint
  • Пользователь PRO
  • 1 729 сообщений
  • Репутация: 410

Отправлено 20 Август 2015 - 10:22

@Evgeniy3200, попробуй после Disallow поставить 

Allow: /templates/beez3/css/

 и в проверке robots.txt в ЯВМ укажи полный путь одного из css-файлов, он тебе напишет разрешен или запрещен к нему доступ...


  • 0
MasterWEBS: третий дом - моё хобби и увлечение... Второй дом: работа - не меньше 12 часов в день...
Первый дом - под охраной: "Осторожно - злая жена!" (дрессировалась долго и надёжно) /*ссылку не просите - не дам!*/


#6 Evgeniy3200

Evgeniy3200
    Topic Starter
  • Пользователь PRO
  • 1 149 сообщений
  • Репутация: 268

Отправлено 20 Август 2015 - 12:11

@ShowPrint,  все вроде корректно работает, нужные файлы видит, не нужные не видит! Спасибо.

 

Внимание
Чтобы увидеть этот текст Вам необходимо иметь 50 единиц репутации


  • 0

Если вы можете наугад в полной темноте пробраться к собственной кровати, ни разу не ушибившись, значит, пора путешествовать!



#7 ShowPrint

ShowPrint
  • Пользователь PRO
  • 1 729 сообщений
  • Репутация: 410

Отправлено 20 Август 2015 - 12:27

@Evgeniy3200, дубль правил с небольшими изменениями - нормальная ситуация...

 

Проверь (почитай) про два момента:

1. Про  Sitemap...  У меня он стоит в конце файла, если он стоит "до" правил для Я - правильно ли это??? Не получается ли что он для всех, кроме Я? Или так и задумано?

2. Про Host... Вроде это директива чуть ли не только для Я... И если я помню, то она должна стоять последней... (Строка с Sitemap - не считается)

 

<offtop>

Никогда не понимал смысл директив открытия, для того что не закрыто (например /images/)... Всегда считал, что все что не запрещено - разрешено... Могу ошибаться, т.к. отношу себя к категории ламмеров ;)

</offtop>


  • 0
MasterWEBS: третий дом - моё хобби и увлечение... Второй дом: работа - не меньше 12 часов в день...
Первый дом - под охраной: "Осторожно - злая жена!" (дрессировалась долго и надёжно) /*ссылку не просите - не дам!*/


#8 akmid81

akmid81
  • Пользователь
  • 118 сообщений
  • Репутация: 14

Отправлено 06 Ноябрь 2015 - 15:39

@Evgeniy3200, С первого взгляда мне эти требования Гугла показались странными. Поэтому, для верности провел эксперимент над своим сайтом (вот тема на форуме с экспериментом), сделал все как просил - открыл доступ ко всему. Тем более, Гугл грозился понижать в выдаче сайты, не выполняющие требования. 4 месяца наблюдал - результат абсолютно нулевой - никаких изменений не произошло ни в лучшую ни в худшую сторону - позиции остались примерно те же, трафик также не вырос.

 

Мое итоговое мнение - можно не обращать внимания на это сообщение, ни на что скрипты и стили не повлияют.


  • 1

#9 Golland

Golland
  • Пользователь
  • 163 сообщений
  • Репутация: 10

Отправлено 06 Ноябрь 2015 - 17:55

Мне такое сообщение тоже пришло еще летом. Пошуршал по форумам, подумал и пришел к выводу, что открытие или закрытие пути к индексации ни на что не повлияет. Изменений для сайта в выдаче гугла не произошло. И сообщение выше подтверждает мои выводы. 


  • 0

robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85


Оформление форума – IPBSkins.ru