Перейти к содержимому


Партнерская программа Kredov

Клоакинг, каталоги, обратки, пауки

#1 nomer8

nomer8
  • Пользователь
  • 276 сообщений
  • Репутация: 0
0

Отправлено 10 Октябрь 2008 - 23:43

На каком то сео блоге где то месяц назад прочитал что как можно полулегально поднять тиц сайта.
Суть метода была в том что бы каталог имеел очень жирную пузомерку, требовал обратку и ставил прямую сылку.
Когда я регестрировал в нескольких крутых каталогах, меня прежде просили поставить обратку прежде чем разместят мой сайт. Обратку проверял паук. Так тот блог "спалил" тему: тупо применять клоакинг с пауками только катологов, ибо врятли каталоги могу как яндекс раскошелицо на несколько ip для пауков :) так что скорей всего паук один(теория)
В итоге, сначала пытаемся добавить сайт не установив обратку. В итоге паук идёт на ваш сайт, вы спалили его ип, делаете клоакинг или редирект на страницу с обраткой(саму страницу которая будет линко помойкой даём только каталогам и не где не палим)
В итоге у вас халявная сылка с жирного каталога.

Теперь вопросы:
1 как делать клоакинг?
2 как вычеслить ип робота?
3 реально ли это?
4 что вы думаете по этому поводу?

Это всё был мой вольный пересказ ибо тот самый блог забыл :(

 

 

  • 0

#2 ZiTosS

ZiTosS
  • Пользователь
  • 5 148 сообщений
  • Репутация: 8

Отправлено 11 Октябрь 2008 - 14:49

Клоакинг

Там есть и методы и реализация...
А вообще клоакинг в вашем случае уместен.
1) Вам надо написать скрипт, который будет искать не по IP, а по $_SERVER['HTTP_USER_AGENT'] при обращении к странице и делать переадресацию с подменой.
2) Тут важно не IP, оно может быть динамичным.
3) Реально сделать клоакинг, если заранее знать какой USER_AGENT прописывается при обращении к странице.
К примеру:

Каждый робот поисковой системы сообщает о своей принадлежности в строке пользовательского агента, получить доступ к которой можно, обратившись к элементу суперглобального массива $_SERVER['HTTP_USER_AGENT']

Вот типичное содержимое этой строки "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)". Наличие подстроки "MSIE 6.0" говорит о том, что посетитель просматривает страницу при помощи Internet Explorer версии 6.0. Строка "Windows NT 5.1" сообщает, что в качестве ОС используется Windows XP.

Если страницы сайта посещаются роботами поисковых систем, по строке $_SERVER['HTTP_USER_AGENT'] можно определить их принадлежность. К примеру

"StackRambler/2.0" или "StackRambler/2.0 (MSIE incompatible)')" - бот Rambler
"Yandex/1.01.001 (compatible; Win16; I)" - поисковой бот Yandex
"Googlebot/2.1 (+http://www.googlebot.com/bot.html)" - бот Google
"Aport" - бот Aport


Вот такая статистика. В вашем случае вам также надо знать так сказать "инициалы" паука.
Что могу сказать по этой чёрной SEO-оптимизации, ей надо пользоваться с умом, иначе можно улететь надолго!
  • 0

#3 Galeodor

Galeodor
  • Пользователь
  • 1 172 сообщений
  • Репутация: 2

Отправлено 11 Октябрь 2008 - 18:04

Клоакинг

Там есть и методы и реализация...
А вообще клоакинг в вашем случае уместен.
1) Вам надо написать скрипт, который будет искать не по IP, а по $_SERVER['HTTP_USER_AGENT'] при обращении к странице и делать переадресацию с подменой.
2) Тут важно не IP, оно может быть динамичным.
3) Реально сделать клоакинг, если заранее знать какой USER_AGENT прописывается при обращении к странице.
К примеру:


Вот такая статистика. В вашем случае вам также надо знать так сказать "инициалы" паука.
Что могу сказать по этой чёрной SEO-оптимизации, ей надо пользоваться с умом, иначе можно улететь надолго!

ну...пользоваться конечно можно,но дело в том, что это еще одна "дыра" на сайте. Если кто заметит, или конкурент отследит, то вам не вылезти из бана месяц-два. Причем страшнее будет по стуку. Плюс: смотря что вы делаете,если сат, то можно этим пользоватся,а потом постоянно боятся, если СДЛ, то НИКОГДА. По всем причинам. в конце концов это СДЛ.
  • 0

#4 nomer8

nomer8
    Topic Starter
  • Пользователь
  • 276 сообщений
  • Репутация: 0

Отправлено 11 Октябрь 2008 - 21:10

1) Вам надо написать скрипт, который будет искать не по IP, а по $_SERVER['HTTP_USER_AGENT'] при обращении к странице и делать переадресацию с подменой.

Извините, но как написать такой скрипт? на чём его писать?

3) Реально сделать клоакинг, если заранее знать какой USER_AGENT прописывается при обращении к странице.

А можно узнать какой USER_AGENT был у зашедшего паука? пример: на сайте некого нету кроме мну(сателит)
Я добавляю сайт в каталог не установив перед этим обратку. Приходит паук, не видит и уходит. Как мне узнать его USER_AGENT и что мне с этим делать?
  • 0

#5 ZiTosS

ZiTosS
  • Пользователь
  • 5 148 сообщений
  • Репутация: 8

Отправлено 11 Октябрь 2008 - 22:20

Писать на PHP подобный код.
$user = $_SERVER['HTTP_USER_AGENT'];
$filename = "filename.txt";
	if (!$file = fopen($filename, 'a')) {
		 echo "Не могу открыть файл ($filename)";
		 exit;
	}

	// Записываем $user в наш открытый файл.
	if (fwrite($file, $user) === FALSE) {
		echo "Не могу произвести запись в файл ($filename)";
		exit;
	}

Затем можно сделать проверку при заходе, если это сходится с user_agent бота, кидаем его на нужную страницу :)
  • 0


Оформление форума – IPBSkins.ru