Перейти к содержимому


Пользователь месяца
WGN WGN 1-й за Июль
Очков активности: 850 2 темы, 75 сообщений, 7 баллов репутации
Сайт: worldgamenews.com
ТОП самых активных за этот месяц
  • Фотография TimurR
    #1

    TimurR
    Очков активности: 372 3 темы, 22 сообщения, 8 баллов репутации

  • Фотография WGN
    #2

    WGN (worldgamenews.com)
    Очков активности: 72 Вне конкурса за определение пользователя месяца

  • Фотография ShowPrint
    #3

    ShowPrint (ShowPrint.ru)
    Очков активности: 60 0 тем, 8 сообщений, 5 баллов репутации

  • Фотография BlackLion
    #4

    BlackLion
    Очков активности: 36 0 тем, 24 сообщения, 1 балл репутации

  • Фотография Vmir
    #5

    Vmir
    Очков активности: 25.5 Вне конкурса за определение пользователя месяца

  • Фотография Napoleon-007
    #6

    Napoleon-007
    Очков активности: 21 0 тем, 14 сообщений, 1 балл репутации

  • Фотография Ixman
    #7

    Ixman (o5cat.ru)
    Очков активности: 21 0 тем, 7 сообщений, 2 балла репутации

  • Фотография alekswebart
    #8

    alekswebart
    Очков активности: 19.5 1 тема, 10 сообщений, 1 балл репутации

  • Фотография r0mZet
    #9

    r0mZet (rz-style.ru)
    Очков активности: 18 2 темы, 6 сообщений, 1 балл репутации

  • Фотография profi
    #10

    profi (1informer.com)
    Очков активности: 12 0 тем, 8 сообщений, 1 балл репутации

  • Показать весь ТОП 10

Kwork.ru - услуги фрилансеров от 500 руб.

Поддержите форум! =)
Апдейты
  • Яндекс тИЦ: 19.11.2017
  • Яндекс выдача: 19.08.2018
Топ 5 участников по репутации


Robots (стр. 2)

#11 ZiTosS

ZiTosS
  • Неактивные
  • 5148 сообщений
  • Репутация: 8
0

Отправлено 25 July 2010 - 02:12

pechenki, не повлияет, это просто будет означать, что вы роботам разрешаете к индексации все ссылки (конечно не учитываем noindex и rel="nofollow")
  • 0

#12 Matt

Matt
  • Неактивные
  • 774 сообщений
  • Репутация: 2

Отправлено 25 July 2010 - 19:54

Многие бесплатные CMS сами создают роботс.
  • 0

#13 dymer

dymer
  • Неактивные
  • 8 сообщений
  • Репутация: 0

Отправлено 29 September 2010 - 23:32

А файл роботс может стоять по умолчанию есть сайт с шаблона укоз?
  • 0

#14 Matt

Matt
  • Неактивные
  • 774 сообщений
  • Репутация: 2

Отправлено 29 September 2010 - 23:48

На укозе не знаю. Есть на джумле и ДЛЕ, по-моему.
  • 0

#15 ZiTosS

ZiTosS
  • Неактивные
  • 5148 сообщений
  • Репутация: 8

Отправлено 01 October 2010 - 21:30

dymer, что значит по умолчанию? Вообще на Ucoz можно использовать robots.txt
  • 0

#16 atog

atog
  • Неактивные
  • 18 сообщений
  • Репутация: 0

Отправлено 10 October 2010 - 18:18

Вот тут подробно расказано о файле robots.txt
http://robotstxt.org.ru/
Создавать его нужно. Для ответа на ваш вопрос нужно увидеть ваш сайт.
  • 0

#17 tati777

tati777
  • Неактивные
  • 2 сообщений
  • Репутация: 0

Отправлено 14 October 2010 - 00:03

У меня сайт на "укозе" ссылка на него в подписи. Добавила файл через панель управления сайтом Главная » Файловый менеджер . Файл назвла robots.txt. Он у меня содержит:
User-agent: *
Disallow:
Всё ли верно я сделала. Подскажите пожалуйста. :lol:
  • 0

#18 ZiTosS

ZiTosS
  • Неактивные
  • 5148 сообщений
  • Репутация: 8

Отправлено 17 October 2010 - 11:09

tati777,
У вас не
User-agent: *
Disallow:
а
User-agent: *
Disallow: /
Таким образом вы запретили всем роботам индексацию всего сайта.
Правильный первый вариант, а не второй.
  • 0

#19 mylenta

mylenta
  • Неактивные
  • 10 сообщений
  • Репутация: 0

Отправлено 23 October 2010 - 01:38

У меня сайт на "укозе" ссылка на него в подписи. Добавила файл через панель управления сайтом Главная » Файловый менеджер . Файл назвла robots.txt. Он у меня содержит:

User-agent: *
Disallow:
Всё ли верно я сделала. Подскажите пожалуйста. :lol:

А зачем запрещать? если вам нечего писать то лучше вообще удалить (пустой robots) - тоже самое
  • 0

#20 fanya

fanya
  • Неактивные
  • 3 сообщений
  • Репутация: 0

Отправлено 27 February 2011 - 16:07

Есть проблема с двойными страницами

В индексе появились страницы, как-бы составленные из двух //dekor-remont.narod.ru/shtrolenie.html/foto.html, хотя реально существуют отдельно shtrolenie.html и отдельно foto.html, причём открыть двойные страници можно, они вроде как автоматически генерируются на основе первого файла. Если не сложно, поясните, что не так и как это исправить.

Если запретить доступ через robots.txt прописав
Disallow: /shtrolenie.html/*.html
Как думаете, ускорит это устранение данной проблемы? и правильно ли я понимаю, что запретятся к индексации все двойные файлы, начинающиеся с /shtrolenie.html/, а просто shtrolenie.html будет доступна. Или всё-таки стоит подождать? Но уже две недели вебмастер выводит 43 странице в структуре сайта вместо существующих 25-и и одна двойная висит в индексе. Всё проверил, ошибочных внешних ссылок на двойные страницы нет, а внутренние есть только с этой же двойной странице. Мучает сомнение в правильности писать запрет на страницы, которых на самом деле нет.
  • 0

robot

robot
  • Пользователь PRO
  • 2652 сообщений
  • Репутация: 85


Похожие темы

  Название темы Автор Статистика Последнее сообщение

Оформление форума – IPBSkins.ru