Главная

Интернет
сети
Windows
Linux
Bios
Koding
Hard
VIDEO
Sound
Soft
разное
реестр

карта сайта

фотоальбом

Web мастеру

Гостевая

друзья сайта

о сайте

 

Что такое успешная оптимизаций?

Цель оптимизации сайта — получить максимум целевых посетителей, то есть тех, кто что-то купят, заполнят анкету или заинтересуются темой сайта. Как достичь этого? Давайте думать. Если сайт нацелен на какой-то регион, логично сделать упор на местные поисковики. При этом выбор поисковика резонно делать на основе его посещаемости, которую можно узнать из рейтингов MediaMetrix и Nielsen/NetRatings (рис. 1), а в русскоязычном Интернете — Rambler's ToplOO, Top-List и SpyLog.

Впрочем, и тут не обошлось без подводных камней. Взгляните на рейтинг MediaMet-rix: кажется, что Google — не лучший выбор для раскрутки сайта. Но из таблицы альянсов поисковиков (табл. 1) обнаруживается, что кроме своего сайта движок Google присутствует на Yahoo и Netscape, а это уже сила. Следовательно, выбирая поисковик, нужно смотреть не только на посещаемость, но и на тех, кто использует его механизм поиска. Получается, что для целей оптимизации стоит исследовать максимум 5-7 поисковых механизмов: Google, Inktomi, AltaVista, FAST и др., а среди русскоязычных — «Яндекс», «Рамблер» и «Апорт».

Рис 1. Статистика популярности поисковых машин

Откуда брать информацию?

Если алгоритмы поиска станут известны всем, тут же появятся «идеальные» странички, про которые поисковик подумает «До чего ж хороши!» и поставит их на первые места вместо страниц, которые ожидал найти пользователь. Отсюда ясно, что никогда и нигде ни один поисковик не откроет своих настоящих алгоритмов (за исключением случаев публикации научных статей и хвастливости разработчиков движка).

Таким образом, мы лишь можем вычислить правила, которые будут некоторым приближением реальных алгоритмов. Для всего этого полезно иметь связи с разра-

ботчиками поисковых машин (оптимальный вариант — общение на форумах поисковиков), почаще заглядывать на сайты с аналитикой и следить за официальными пресс-релизами владельцев лицензий на поисковые механизмы. Несколько отличается от всего выше сказанного метод проб и ошибок, то есть собственных экспериментов. Впрочем, об этом чуть позже.

А мне недавно сказали...

Когда кто-то говорит о новом факторе ранжирования, часто следует вопрос: правда это или нет? Чтобы ответить на него, нужно знать, к чему стремятся алгоритмы поиска, какая у них цель и какие проблемы.

Эффективность поиска принято оценивать по двум основным критериям: полноте и точности. Чем больше процент релевантных (соответствующих запросу) документов среди всех найденных, тем выше точность. И чем больше найдено релевантных документов среди всех, что хранятся в базе поисковика, тем лучше полнота. Основная проблема сточки зрения владельцев поисковиков — ресурсоемкость поиска (нужно хранить много данных и долго их обрабатывать).

Следовательно, если «новый фактор ранжирования» может улучшить показатели точности или полноты, не вызвав резкого увеличения потребности в ресурсах, он правдоподобен. Например, именно из-за затрат времени не индексируются JavaScript-код и Flash, хотя технически реализовать и то и другое не так уж сложно.

Источник: журнал CHIP 01/2002г.

С вопросами, пожеланиями и предложениями обращайтесь по адресу

E-mail

ICQ: 262309330

13.08.2003

Идея и реализация: Астахов Николай

Свои статьи подходящие под общую тематику сайта можете присылать сюда.

Наиболее интересные из них будут помещены на сайте с обязательным указанием авторства.

Hosted by uCoz