Перейти к содержимому

Сервис обмена электронных валют


Секреты внутренней SEO-оптимизации сайта: как получить максимальный результат?

#1 Aroniya

Aroniya
  • Пользователь
  • 6 сообщений
  • Репутация: 0
-2

Отправлено 29 Октябрь 2013 - 23:38

Здравствуйте уважаемые друзья и читатели форума masterwebs.ru!

Тематика ведения моего блога совсем не имеет никакого отношения к тому, о чем в этой статье я вам буду рассказывать! На написание статьи меня подтолкнул конкурс "Статейник - 3".

Блог у меня о Здоровом Образе Жизни, на сегодняшний день средняя посещаемость колеблется от 1300 - 1500 человек в сутки, имеет ТИЦ40, PR3, траст-9. На мой взгляд - это не плохо, если считать, что все манипуляции с блогом и seo-продвижением занимаюсь лично я сама. Поэтому в этой статье я хочу поделиться с вами своим личным опытом и знаниями в области продвижения блога в поисковых системах, а для этого очень важна правильная внутренняя Seo-оптимизация сайта.

Технической оптимизацией сайтов довольно часто и совершенно незаслуженно пренебрегают, отдавая большее предпочтение таким методам продвижения, как создание уникального контента, раскрутка в социальных сетях и построение ссылок. Однако лично я считаю, что в борьбе за увеличение трафика внутренняя оптимизация должна стоять на одном из первых мест среди остальных методов продвижения. Кстати раньше я только ими и занималась,сейчас осваиваю техническую часть. Об остальных методах продвижения и раскрутке и можете прочитать в следующей моей статье на блоге вот здесь, с которой я также участвовала на одном из конкурсов Seo-продвижения сайтов, и заняла одно из первых мест!

Важно, чтобы сайт был максимально оптимизирован под поисковые системы. Логика простая – если поисковики не видят ваш ресурс, он не пройдёт индексацию, а значит, и ранжирование. Другими словами, никто не узнает о существовании вашего сайта или блога, и даже размещение сторонних ссылок на ваш ресурс и раскрутка в соцсетях не помогут решить проблему.

Именно поэтому я решила написать статью, в которой подробно расскажу о самых значимых аспектах, непосредственно влияющих на видимость сайта в поисковых системах, то есть о тех методах, которые повышают шансы индексации и высокого ранжирования вашего ресурса.

Сканирование

Прежде всего, необходимо убедиться в том, что все целевые страницы вашего сайта сканируются поисковыми системами. Я говорю «целевые страницы», потому что вполне вероятно, что некоторые страницы вы всё же захотите скрыть от поисковых машин – этот вопрос я затрону чуть позже.

Для начала рассмотрим, как сделать свой сайт наиболее удобным для поисковиков.


Архитектура сайта

Грамотно выстроенная структура сайта – это плюс не только для поисковых систем, но и для реальных пользователей. В идеале всё должно быть настолько доступно, чтобы всё самое важное на сайте можно было найти в несколько кликов с главной страницы. Благодаря такому простому управлению, повышается вероятность того, что заинтересованные пользователи быстро найдут нужную информацию и из обычных посетителей вашего сайта станут вашими клиентами. Кроме того, поскольку сторонние ссылки размещают обычно именно на главную страницу, это в конечном итоге оказывает положительное влияние на PageRank и других страниц сайта.

Для наглядности приведу схематичную иллюстрацию того, как должна быть выстроена структура сайта:

struktura sajta.jpg


Это вполне логичная модель, рекомендуемая для создания небольших и средних сайтов (блогов). Единственный нюанс, на который стоит обратить внимание, это оптимизация самой структуры под ключевые запросы.

Но давайте представим на минутку что, если ваш сайт насчитывает миллионы страниц? Даже при хорошей организации разделов информация об основном продукте может оказаться так далеко от главной страницы, что у пользователей едва ли хватит терпения долистать до этого места. В этом случае лучше использовать фасетную навигацию, принцип работы которой построен на том, что пользователь может самостоятельно задавать интересующие его параметры поиска. Это значительно облегчает задачу и экономит время. Чтобы лучше понять, как это работает, приведу наглядный пример (картинка взята из интернета):

fasetnaj novigazij.jpg


Как видно на рисунке, каждый пользователь может легко и быстро найти интересующий его товар, задавая нужные параметры и отсеивая таким образом те товары, которые этим параметрам не соответствуют. Такая модель структуры сайта – идеальный вариант для интернет-магазинов, поскольку она позволяет пользователям сортировать и находить товары по самым разным характеристикам – размеру, цвету, бренду и т.д.

Другой наглядный пример такой модели поиска – сайты по трудоустройству и подбору персонала. Так, выбирая в поиске категорию «Бухгалтерия», пользователь может отсортировать результаты по конкретным вакансиям – например, «Помощник бухгалтера» или «Кредитный контролёр».

Таким образом, грамотно выстроенная структура и оптимальная модель поиска по сайту позволяет быстро и просто перейти к самой отдалённой странице сайта всего в несколько кликов. Это существенно облегчает доступ к ресурсу как для пользователей, так и для поисковых машин.

Что касается сканирования сайта поисковыми роботами, здесь нужно учитывать ещё один важный момент. Иногда возникает необходимость скрыть от поисковиков некоторые страницы, на которых указано слишком много разнообразных параметров, так, чтобы они были невидимы для роботов даже при глубоком сканировании. Допустим, ваш сайт занимается продажей верхней одежды, в частности – курток. Параметры могут быть следующие:
  • Цвет
  • Размер
  • Пол
  • Бренд
  • Цена
  • Водонепроницаемость.
Согласно статистике планировщика ключевых слов Google AdWords, ключевое словосочетание «мужские водонепроницаемые куртки» встречается в поиске во множестве различных комбинаций довольно часто. Естественно, вы заинтересованы в том, чтобы такая страница была видимой для поисковиков, которые могли бы с лёгкостью просканировать, проиндексировать и ранжировать её. Именно для этого и выстраивается фасетная навигация по сайту, чтобы ссылку на страницу с популярным ключевым запросом могли без труда обнаружить и посетители сайта, и поисковые машины.

С другой стороны, запрос по ключевому словосочетанию «чёрная мужская водонепроницаемая куртка большого размера стоимостью до 100» встречается крайне редко. Поэтому вам выгоднее сделать такую страницу невидимой для поисковиков, чтобы не снижать шансы всего сайта на высокое ранжирование. В то же время эта страница, конечно, должна оставаться доступной для пользователей.

Почему это так важно? В следующем пункте мы подробнее рассмотрим такой показатель, как количество сканируемых страниц, а также варианты, как сделать отдельные страницы невидимыми для поисковых систем.

Количество сканируемых страниц

Google устанавливает определённую норму сканируемых страниц для каждого домена. Как утверждает ведущий инженер Google Мэтт Каттс, этот показатель зависит от PageRank сайта, то есть количество сканируемых поисковым роботом страниц сайта примерно пропорционально его рейтингу. Система пытается охватить как можно более широкое информационное пространство, в то время как это пространство продолжает непрерывно расширяться, а ресурсы системы и инструменты сканирования так или иначе ограничены. Поэтому Google-боты вынуждены действовать избирательно, ориентируясь на качество контента сканируемых сайтов, то есть на показатели PageRank.
Однако Мэтт отмечает, что предельного значения или чёткого ограничения количества сканируемых страниц отдельного домена не существует. Это высказывание можно воспринимать как намёк на то, что Google-боты всё равно будут стремиться просканировать и проиндексировать как можно больше содержимого вашего сайта, просто если ваши показатели PageRank недостаточно высоки, им потребуется чуть больше времени для глубокого сканирования и обнаружения внутренних страниц.

Как контролировать сканирование сайта?

Всем известно, что для увеличения показателей PageRank можно размещать ссылки на свой сайт на сторонних ресурсах или продавать места для ссылок на своём ресурсе. Однако есть и более тонкие методы, позволяющие контролировать Google-ботов.
  • Используйте атрибут rel=”nofollow” в ссылках на страницы, которые вы хотели бы скрыть от поисковиков.
  • Чтобы усложнить доступ к ссылкам для Google-ботов, используйте JavaScript и AJAX. Однако будьте осторожны – во-первых, такие ссылки должны оставаться рабочими, ведь они нужны посетителям сайта, во-вторых, Google постоянно совершенствует технологии распознавания и сканирования, поэтому этот трюк может и не сработать.
  • Заблокируйте нужные страницы в файле robots.txt, запретив тем самым Google индексирование этих страниц.
Все эти действия направлены не на повышение PageRank сайта, а на то, чтобы иметь возможность контролировать страницы, сканирование которых проводят поисковые роботы. Вам абсолютно невыгодно, если Google-боты будут сканировать всё подряд, целесообразнее сделать так, чтобы поисковики индексировали избранные страницы, которые часто обновляются и имеют больше шансов на высокий рейтинг.

Разумеется, косвенно это повлияет на повышение PageRank самых популярных страниц, но в целом, эти показатели должны расти за счёт грамотно выстроенной архитектуры сайта, а не за счёт выше перечисленных трюков.
Контролировать сканирование сайта можно также с помощью мета-тегов, которые располагаются в заголовке страницы между тегами < head> и < /head>. Они выполняют целый ряд функций, запрещая Google-ботам:
  • индексировать страницу,
  • сканировать ссылки на странице,
  • индексировать изображения на странице,
  • выдавать отрывки страниц в результатах поиска.

kod.jpg


Следует помнить, что тег влияет только на ту страницу, на которой он указан, на остальные страницы он влияния не имеет. Также важно, чтобы страница была видимой для поисковиков. То есть, если вы заблокируете страницу с помощь файла robots.txt, поисковый робот не сможет просканировать её, а значит, не сможет и обнаружить тег.

Итак, суммируем вышесказанное:
  • Атрибут rel=”nofollow”, указанный в ссылке, влияет только на видимость этой ссылки для Google-ботов и ни на какие другие аспекты.
  • Мета-теги влияют только на ту страницу, на которой они указаны, на остальные страницы они влияния не имеют.
  • Файл robots.txt влияет не только на отдельные страницы и части сайта, но и на ресурс в целом.
Теперь поговорим об атрибуте rel=”canonical”. Он позволяет владельцам сайтов указать версию страницы, которую Google будет считать канонической среди страниц с аналогичным содержанием. Таким образом, поисковик получит сигнал о том, какая страница наиболее полезна и заслуживает более высокий рейтинг при выводе в результатах поиска. Однако это вовсе не означает, что робот будет действовать по команде, прописанной тегом, он может и проигнорировать его.

Тем не менее, данный тег очень полезен – он гарантирует корректное отображение URL страницы в результатах поиска, а также позволяет убедиться в том, что дублированный контент не навредит рейтингу вашего сайта, поскольку отвлекает внимание поисковиков от страниц с похожим содержанием. Как и в случае с мета-тегами, здесь также важно, чтобы страница была видимой для поисковиков, иначе робот не сможет обнаружить тег.

Журнал веб-сервера

Если вы хотите получить более детальную информацию об истории сканирования вашего сайта, вы можете поднять файлы журнала веб-сервера. В нём отражается частота посещений сайта, а также записи о каждом сканировании сайта поисковыми роботами. Вы можете отсортировать файлы и чётко проследить, какие из них и в каком порядке были обработаны поисковиком, а какие вовсе не проходили через краулер.

Таким образом вы сможете выяснить причины, по которым те или иные страницы не проходят индексацию и ранжирование, и заняться решением проблемы.

Следующая иллюстрация наглядно демонстрирует, как Google иногда сканирует и индексирует совершенно ненужные нам страницы, пропуская те, которые действительно важны:

skanirovanie guglom.jpg


Индексация

Добившись того, чтобы поисковые роботы сканировали сайт так, как выгодно вам, теперь самое время изучить принципы индексирования страниц.

Кэширование

Проще всего убедиться в том, что Google корректно индексирует страницу – проверить кэшированную версию и сравнить её с текущей. Сделать это можно тремя способами:

1)Воспользуйтесь поиском Google.

kes.jpg


2) Перейдите по ссылке в результатах поиска и сравните с текущей.

kes2.jpg


3) Можно еще использовать букмарклет.
Просмотреть кэш страницы можно и с помощью «закладки» в браузере Google Chrome. Создайте новую закладку и ввести необходимо специальный код в адресной строке. Какой код, заморачиваться не буду здесь, так как не сильна в этом. Если кому интересно, найдите в поисковике статьи на эту тему. Главное - смысл вы поняли! Ничего в принципе трудного нет.

Цель проверки кэша страницы:
  • Убедиться в том, что страница регулярно кэшируется;
  • Убедиться в том, что в кэше отображается весь контент вашего сайта;
  • Если проблем нет, тогда вы можете быть уверены, что сканирование и индексация страницы проходит нормально.
Статус индексирования

Ещё один полезный инструмент Google – статус индексирования, который позволяет получить информацию о том, сколько страниц вашего сайта просканировал и проиндексировал Google и сколько пропустил. Для наглядности приведу пример скриншота одного из сайтов.

indeksazij.jpg


Пики зелёной линии показывают моменты, когда Google определял некоторые URL как дублированный контент и относил их к категории «не выбрано». Тут можно определить и придти к выводу, что есть проблема в каком-то плагине, из-за которого на сайте расплодилось множество ссылок на дублированные URL.

Если вы постоянно добавляете новые страницы и замечаете на графике постоянный рост проиндексированных страниц, значит, вы всё делаете верно, и страницы сканируются и индексируются корректно. Если же вы заметите на графике резкий спад показателей, это может означать, что при попытке поисковых роботов получить доступ к страницам, возникают какие-то проблемы.

Ранжирование

Наконец мы добрались до самого важного аспекта, который интересует всех. Мы всегда стремимся улучшить рейтинг страниц своего ресурса, в этом, собственно, и состоит главная задача развития сайта. Поэтому я хочу поделиться одной необычной, но очень эффективной тактикой продвижения.

Для начала необходимо определить, посещаемость какого количества страниц вы хотели бы увеличить. Обычно это главная страница, категории, продукты и, собственно, информационное наполнение. Выяснить это можно несколькими способами в зависимости от типа вашего сайта и его структуры:
  • Проверьте количество URL на карте сайта (актуально, только если карты постоянно обновляются).
  • Обратитесь к разработчикам, они дадут вам хотя бы примерное представление о количестве страниц.
  • Проведите самостоятельное сканирование сайта (актуально, только если все страницы доступны и видимы для поисковиков).
Выяснив общее количество страниц, необходимо вычислить, сколько из них проходит по естественному трафику, то есть какое количество страниц отображается в результатах поиска по запросам пользователей. Сделать это можно с помощью сервиса статистики посещений Google Analytics.

Не самый достоверный, но самый простой и быстрый способ – действовать по следующей схеме:

2013-10-30_031621.jpg

Убедитесь, что в настройках указан органический поиск, задайте достаточно широкий временной диапазон (не менее 6 месяцев) и затем листайте до конца, пока не увидите значение, сколько страниц посетили пользователи за этот период.

2013-10-30_031653.jpg

Если это значение намного меньше, чем общее количество страниц сайта, значит, вы теряете значительный объём потенциального трафика.
Чтобы получить более точную и достоверную информацию о том, посещаемость каких именно страниц практически равна нулю, конвертируйте список URL из статистических данных в CSV и сравните их с имеющимся списком всех страниц. При помощи функций VLOOKUP вычислите, какие конкретно страницы имеют высокий уровень посещаемости, а какие – низкий.
Получив список страниц с нулевой посещаемостью, можно выявить причину низкого трафика, применив те методы, о которых мы говорили выше:
  • Можно создать отдельную карту сайта, содержащую данные об этих конкретных страницах, и проследить, как Google их индексирует.
  • Включить эти URL в журнал веб-сервера и проверить, проходят ли они сканирование.
  • Проверить кэш.
На этом наверно завершим статью, это были небольшие секреты того, как можно повлиять на продвижение своего ресурса с помощью простых манипуляций. Надеюсь хоть какую-то пользу можно извлечь из рассказанной мной информации?! По крайней мере это мои знания и мой опыт, которым я поделилась с вами. А использовать в своих целях или нет, это решать вам! Удачного развития и скорейшего продвижения в топ!

При поддержке: Seohammer - ссылочный агрегатор нового поколения. Обсудить на форуме.

Изображение

Прикрепленные изображения

  • skanirovanie guglom.jpg
  • kes.jpg
  • kes2.jpg
  • indeksazij.jpg
  • 2013-10-30_031621.jpg
  • 2013-10-30_031653.jpg
  • struktura sajta.jpg
  • kod.jpg

 

 

  • 0

robot

robot
  • Пользователь PRO
  • 2 652 сообщений
  • Репутация: 85
Советую обратить внимание на следующее:
  1. Внутренняя оптимизация страниц сайта
  2. Seo оптимизация сайта на wordpress
  3. Поднятие посещаемости сайта внутренней оптимизацией
  4. 5 секретов успешного продвижения или как зарабатывать 400$ на своем сайте
  5. SEO оптимизация, Продвижение вашего сайта

#2 Jean

Jean
  • Пользователь PRO
  • 1 237 сообщений
  • Репутация: 218

Отправлено 30 Октябрь 2013 - 12:17

Автор, прошу указать хотяб внизу, что все изложенное это ваше личное ИМХО и не является фактом, чтоб ученики не восприняли как точную информацию.

ТС, перечитайте все что написали, некоторые фразы я даже воспринять не могу, с моим то опытом...


Можно еще использовать букмарклет.
Просмотреть кэш страницы можно и с помощью «закладурки» в браузере Google Chrome. Создайте новую закладку и ввести специальный код в адресной строке. Какой код, заморачиваться не буду здесь, так как не сильна в этом.

- Для начала необходимо определить, посещаемость какого количества страниц вы хотели бы увеличить.
- Обратитесь к разработчикам, они дадут вам хотя бы примерное представление о количестве страниц.
- Проведите самостоятельное сканирование сайта


  • 0
Научу вас Seo оптимизировать и продвигать сайт, стоимость от 150р час, теория+практика
Консультирую по Интернет рекламе


#3 Aroniya

Aroniya
    Topic Starter
  • Пользователь
  • 6 сообщений
  • Репутация: 0

Отправлено 30 Октябрь 2013 - 12:50

Автор, прошу указать хотяб внизу, что все изложенное это ваше личное ИМХО и не является фактом, чтоб ученики не восприняли как точную информацию.

ТС, перечитайте все что написали, некоторые фразы я даже воспринять не могу, с моим то опытом...



Ну это же не я придумала)). Букмарклет - это как бы небольшая программка JavaScript в виде URL адреса и сохраняемой браузерной закладки. Это опять же просто один из немногих вариантов проверки кеша... как и заметила в статье, что его я лично не использую, но он есть.
  • 0

#4 dvulikaya

dvulikaya
  • Пользователь
  • 24 сообщений
  • Репутация: 1

Отправлено 30 Октябрь 2013 - 23:24

Aroniya, Вы пишете:

1. "Google устанавливает определённую норму сканируемых страниц для каждого домена. Как утверждает ведущий инженер Google Мэтт Каттс, этот показатель зависит от PageRank сайта, то есть количество сканируемых поисковым роботом страниц сайта примерно пропорционально его рейтингу. Система пытается охватить как можно более широкое информационное пространство, в то время как это пространство продолжает непрерывно расширяться, а ресурсы системы и инструменты сканирования так или иначе ограничены. Поэтому Google-боты вынуждены действовать избирательно, ориентируясь на качество контента сканируемых сайтов, то есть на показатели PageRank."

По смыслу текста получается замкнутый круг: сколько ни добавляй статей, Google их индексировать не будет, т.к. у него есть некая норма. А если на новую статью будут внешние ссылки?.

2."Всем известно, что для увеличения показателей PageRank можно размещать ссылки на свой сайт на сторонних ресурсах или продавать места для ссылок на своём ресурсе. "

А тут я вижу противоречие, так как у меня прочно осело в голове , что продавать места для ссылок категорически нельзя. Google этого не любит.
  • 0


Оформление форума – IPBSkins.ru