Завтра сегодня станет вчера.

15 ноября 2005, 22:35

Завтра сегодня станет вчера.

Данный пост будет интересен лишь вебмастерам, и притом продвинутым. Стремящиеся тоже могут ещё почитать, а у остальных скулы сведёт, о чём сразу же в приступе гуманности и предупреждаю.

Основная задача вебмастера, как известно, состоит не столько в ваянии сайта, сколько в его раскрутке. Боюсь показаться неадекватным (и дальнейшее утверждение полностью на моей совести), но полагаю, что раскрученность ресурса проявляется в первую очередь именно в структуре трафика: если половина заходов происходит с поисковиков, то вебмастер крут неимоверно, и не зря коптит небо.

Однако очевидно, что в большинстве случаев задача решается вовсе не оптимизацией контента, юзанием мета-тегов, и прочими прописными приёмами. Если бы всё было так просто, не было бы столь весело.

А веселье проистекает оттого, что наиболее продвинутые поисковики типа Гугла пессимизируют хрестоматийно оптимизированные страницы, зачастую помещая на первые места документы, где в плане собственно оптимизации и конь не валялся, и слова, вбитые в поле запроса, встречаются по одному разу, а их удельный вес вообще ноль целых хрен десятых. Как иначе объяснить, что при запросе «как сделать погремушку из бутылки» Гугл, наплевав на всех производителей и продавцов погремушек и бутылированной продукции, равно как и сайты категории «сделай сам», выдаёт один из постов этого блога, в котором погремушки и бутылки упоминаются исключительно по причине привычки автора цветасто выражаться. И так сплошь и рядом.

Ну так давайте делать из этого выводы, и буквально на ровном месте создавать нужный нам функционал. Интересный вебмастеру в плане работы с трафиком, основным источником которого будут поисковики.

Поскольку всякое наукообразие требует системного подхода, мы тоже будем с гордостью и деловым видом юзать что-нибудь заумное. Например, итерационные процессы. Это ничуть не страшно, а очень даже просто.

  1. Прежде всего, для запуска итерационного процесса нам потребуется так называемое начальное приближение- база ключевых слов и фраз, по которым мы будем рады видеть визитёров у себя на сайте. Но, забегая вперед, могу Вас «порадовать»: ничто так Вас не расстроит, как оторванность базы от реального контента сайта- ну не будут находиться в поиске странички по «левым» ключевым словам, хоть тресни вдоль и поперёк.

    Посему не выпендриваемся, звёзд с неба не хватаем, а просто протоколируем статистику захода серферов с поисковиков, и складываем все реально набираемые юзером запросы (по которым и отыскиваются Ваши документы) в долгий ящик. Не грех потратить на это месяц-другой.

  2. Далее перед нами стоит цель повышения значимости страниц ресурса в глазах поисковиков по тем запросам, по которым они уже поставляют нам трафик. С этой целью весьма целесообразно акцентировать внимание на фразах, попавших в базу начального приближения.

    Делать это можно по-разному. Но было бы неправильным тупо подстраивать контент имеющихся документов под ключевые слова, увеличивая их вес. Вообще-то, гуру именно так и велят делать, но мы их ослушаемся. Потому как само занятие откровенно муторное и неблагодарное- про пессимизацию мы уже говорили. Но и это не главное- элементарно не хочется ковырять контент в угоду поисковикам. Я в курсе, что и Лев Толстой десять раз свой эпохальный труд переписывал. Но он оттачивал стиль и фактуру, а не коверкал текст до уровня «однако, моя не понимай твоя русская языка. Бери палка, пиши палка на снегу. Читать буду, однако. Писать уметь? Да ну? Однако!»

    Посему творим простенькую систему поиска по сайту, килобайт на пять кода, которая выдаёт подборочку предложений с ключевыми словами, входящими в базу начального приближения, и встречающимися в документах сайта. Тут желательно нестрогое соответствие запросу (обработка словоформ, порождённых правилами грамматики русского языка, с его падежами и прочими казнями египетскими на погибель иностранцам), поскольку поисковые системы также правильно понимают эти словоформы.

    Понятно, что порождённая нами страничка о сути своей есть не что иное, как дорвей, за наличие которого в данном конкретном случае никто Вас ругать не будет, ибо это часть сервиса (собственный поиск по сайту).

    Что важно, это дорвей сразу к нескольким документам, список которых ещё и упорядочен по степени соответствия запросу.

  3. Далее делаем очень важную вещь: замыкаем контур, организовав связь между ключевыми фразами из базы начального приближения, и соответствующими им дорвеями. Обычный статичный линк с якорем ссылки в виде ключевого слова или фразы.

Теперь посмотрим, как это всё работает.

Поисковики регулярно засылают ботов на разведку. Боты, конечно, видят среди прочего некий набор ссылок на довольно симпатичные им странички, которые не грех и проиндексировать. Поскольку тематически эти дорвейчики довольно однобоки, впоследствии именно они будут получать трафик по примерно конгруэнтным запросам. Эти запросы порождают новые строчки в базе начального приближения, которые снабжаются ссылками на новые же дорвейчики. Понятно, что далеко не всякий запрос будет нам полезен, и снабжать ссылочкой мы будем только то, что воспримется автоматикой как полезное и нужное.

В результате этой возни у нас накапливается целый сонм абсолютно уместных дорвейчиков, подстраивающихся под контент сайта, и ссылающихся на конкретные документы, стопроцентно им соответствующие. Причём вебмастеру не нужно предпринимать ровным счётом никаких действий, чтобы поддерживать систему в работоспособном состоянии. Контур замкнут, и в результате взаимодействия сайта с поисковиками просто не может появиться дорвейчиков с «левым» содержанием, абстрагированных от материалов ресурса (за что ресурс и наказывается отлучением от титьки). А потому все документы контекстно уместны, тематически соответствуют друг другу, и в глазах поисковиков выглядят как единый, сильно структурированный большой движковый сайт.

После нескольких переиндексаций сайта итерационный процесс породит такое содержимое базы начального приближения, которое, с одной стороны, соответствует наполнению ресурса, а с другой стороны, удовлетворяет вектору интересов пользователей поисковых систем. Нам же нужно лишь позаботиться о стековом характере базы начального приближения (приняли запрос, похранили его, удалили). Тут стек организуется либо по объёму, либо по времени.

Конечно, никто Вам не запрещает творить и архив вообще всех запросов. Главное, всё это правильно залинковать между собой- боты не должны спотыкаться.

Насколько понимаю, это вообще самодостаточная и предельно честная система дорвеев, подстраивающихся под контент, и по совместительству сама исполняющая роль контентообразующих документов (с точки зрения ботов, разумеется). Причём, обратите внимание, не вызывающая недоумения, недовольства или отторжения у серфера- тот прекрасно понимает, что это такое нарисовалось у него на экране, и знает, что делать дальше.

По сути дела, мы все безобразия, которые вебмастер обычно проделывает в угоду поисковикам прямо над контентом, сотворяем над безобидными дорвеями, не уродуя сам сайт. И это замечательно.

Поскольку ничего подобного в Рунете мне на глаза пока не попадалось, давайте полгодика понаблюдаем за динамикой поисковых запросов в шпионском досье, а также глобальной базе запросов, и посмотрим, справедливы ли окажутся наши домыслы. Экспириенс, так сказать.

Комменты не требуются. Но если решите что написать, убедитесь сначала, что правильно поняли высказанную в посте мысль. Она там точно есть.

20 ноября 2005, 01:33

№ 1Правильно понял?

Мысль понятна, даже подозреваю, что эмулятор сайта имеет к этому непосредственное отношение.
Алексей
02 марта 2006, 22:05

№ 3Ну вот! Опять придется влезать "в авантюру"!

Вадим, как всегда, гениален и невозможно противостоять вирусам его идей!
Теперь я неистово хочу эмулятор-B, так как уже испытал первый!
Борис
09 августа 2006, 18:32

№ 4Не прошло и полгодика.

Что было замечено, да и наблюдается по сейчас.
Кто то очень настойчиво пытается у меня скачать
'Систему тотального подчинения женщины', причем совершенно бесплатно.
Этот поисковый запрос встречается в досье по нескольку раз на день.
Неужто меня посещает некий маньяк?
Павел
06 апреля 2010, 01:43

№ 5А для профанов в PHP?

Не уверен что все понял правильно, но основную мысль понял точно.
Вот только для меня, равно как и для, пожалуй, подавляющего числа манимейкерсвтующих юзеров, "сотворить простенькую систему поиска по сайту, килобайт на пять кода" не многим проще чем прочитать Анну Каренину на китайском языке. Ибо познания в ПХП ограничиваются применением функции include.
Отсюда один вопрос и одно предположение:
Планируется ли создание готового решения - типа скрипта этого самого поиска, с возможностью интеграции в любой сайт.
Я обдумывал нечто подобное с созданием вполне статичной карты сайта в виде FAQ, созданной как из поисковых запросов, так и из ключевых слов определенных страниц. Каждый ответ в Факе - с сылка на релевантную страницу с подробной, информацией. Но побаивался, что же о таком линк-листе подумают искалки. Теперь буду думать, как совместить это с каким-нить скриптом поиска по сайту доступным в паблике...
P.S. Буду рад авторитетным комментам. :)

Ikar
Комментарии к этой заметке больше не принимаются.