Помощник
|
Нагрузка на сервер, Всё для поискового робота |
prostors
|
Сообщение
#1
|
||
|
|
||
|
|||
Гость_0_* Гость_0_* |
5.3.2009, 2:47;
Ответить: Гость_0_*
Сообщение
#2
|
|
Поисковые роботы не индексируют js
|
|
|
prostors
|
Сообщение
#3
|
|
|
|
|
Гость_0_* Гость_0_* |
5.3.2009, 3:50;
Ответить: Гость_0_*
Сообщение
#4
|
|
prostors, аналогично как и первое сообщение в теме. Больше конкретики, что за скрипты?
|
|
|
prostors
|
Сообщение
#5
|
|
admin, Cкрипты js. расскажи какие лучше спрятать, а какие лучше оставить, на странице. вопрос задан без привязки к определённому какому то либо одному скрипту.
Если первое сообщение задано малосодержательно и непонятно удаляй его. Что сложно ответить учтя все тонкости и варианты? Со скриптами кроме js сталкивался мало, поэтому расскажи тоже что с ними делать. |
|
|
prostors
|
Сообщение
#6
|
|
Поисковые роботы не индексируют js Что они не индексируют файлы с расширением .js или код внутри тегов <script> ? Во всех подробностях пж. Как робот распознаёт что это js, тратит ли он на это время, если скрипт стоит сверху страницы, до статического кода как он реагирует на это и тд. Ведь важно всю тему раскрыть. |
|
|
ZiTosS |
5.3.2009, 9:49;
Ответить: ZiTosS
Сообщение
#7
|
|
prostors,
Первый случай. Все скрипты висят на сайте в открытом для роботов виде. Робот зайдя на сайт начинает их обрабатывать и тем самым задерживается, подгружает сервер и тд. В общем индексация может зависнуть на долго. По поводу подгрузки сервера вы ошибаетесь. JavaScript это язык, работающий на стороне клиента, браузера и он никак не влияет на работу сервера, подгрузка всего идёт параллельно загрузке страницы. Spider (паук) - браузероподобная программа, которая скачивает веб-страницы. Spider скачивает веб-страницы тем же способом, что и браузер пользователя. Отличие состоит в том, что браузер отображает информацию, содержащуюся на странице (текстовую, графическую и т.д.), паук же не имеет никаких визуальных компонент и работает с html-текстом страницы (вы можете сделать «просмотр html-кода» в вашем браузере, чтобы увидеть «сырой» html-текст). Indexer (индексатор) - программа, которая анализирует веб-страницы, скаченные пауками. Indexer разбирает страницу на составные части и анализирует их. Выделяются и анализируются различные элементы страницы, такие как текст, заголовки, структурные и стилевые особенности, специальные служебные html-теги и т.д. Я думаю вам стало понятно, что ПС при индексации не подгружает страницу а просто копирует её "сырой" HTML-код. Затем Indexer просто ищет параметры подходящие под его шаблоны, разбирает и заносит в базу. И никакой JS он не обрабатывает, а вот индексирует или нет, это уже сказать труднее. Возможно он и понимает некоторые аспекты JavaScript и даже разбирает их и заносит в базу. Всё зависит от присутствия определённых шаблонов у Indexer. Второй случай ваш идентичен, Поисковые роботы копируют то что им нужно, и никак не загружают это, как мы в браузере. Они тупо видят HTML-код страницы. По поводу SSI всё намного проще. SSI (Server Side Includes - включения на стороне сервера) - это язык включений на стороне сервера. Браузер(Поисковой бот) посылает запрос по определённому адресу. Идёт запрос на сервер этой страницы, сервер находит в ней SSI включения, и вставляет вместо них всё что нужно, а браузеру(поисковому боту) возвращает уже готовую, собранную HTML-страницу(HTML-код). SSI собирается так же как и PHP, а вообще бы я посоветовал вам почитать про протокол HTTP, как осуществляется запрос, возвращение информации, как передаются заголовки страницы и что это вообще такое. |
|
|
prostors
|
Сообщение
#8
|
|
Первый случай. Все скрипты висят на сайте в открытом для роботов виде. Робот зайдя на сайт начинает их обрабатывать и тем самым задерживается, подгружает сервер и тд. В общем индексация может зависнуть на долго. Я про то что когда робот скачивает себе на сайт html страницу, он скачивает и js скрипты. Тоесть когда он их начинает обрабатывать на своём серваке как это происходит? Раз уж на то пошло и никто не может рассказать во всех подробностях буду сам спрашивать включая каждую мелочь. |
|
|
ZiTosS |
5.3.2009, 21:36;
Ответить: ZiTosS
Сообщение
#9
|
|
|
prostors, вы знаете что такое парсеры?
Прасеры - это скрипты(программы) которые написаны под определённые запросы, они разбирают данный им текст и находят в них соответствие заданным шаблонам. Что делать с найденой информацией это уже другое дело... Заносить в базу или выводить на экран. Не уверен что ПС так уж силньо интересуется JavaScript, если учесть что написание одного и того же кода можно проделать многими способами. Мне кажется парсеры ПС не заморачиваются на JavaScript коде и просто выкидывают его. Скорость работы таких парсеров написанных на низких языках программирования очень больша, и поэтому обработали ли они ваш JS или нет, вы даже не сумели бы заметить...
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Сервер для поднятия proxy ipv4 | 3 | Panameira | 2710 | 13.11.2018, 4:24 автор: zkalinin |
|
RegVPS.ru - Надежный VPS/VDS сервер на SSD от 3.95 usd! | 0 | Regvpsru | 1790 | 2.12.2017, 22:23 автор: -Regvpsru- |
|
Нужно написать Api сервер для мобильного приложения | 0 | Ksardas777 | 1683 | 7.9.2016, 11:34 автор: Ksardas777 |
|
Куплю сервер б/у Куплю физический сервер |
2 | Leksandr0 | 2007 | 29.8.2016, 18:57 автор: Leksandr0 |
|
Качественно настрою Ваш VPS/VDS сервер | 0 | Dimkox | 1797 | 16.3.2016, 0:46 автор: Dimkox |
Текстовая версия | Сейчас: 18.4.2024, 3:31 |