Что
такое успешная оптимизаций?
Цель оптимизации сайта —
получить максимум целевых
посетителей, то есть тех, кто что-то
купят, заполнят анкету или
заинтересуются темой сайта. Как
достичь этого? Давайте думать. Если
сайт нацелен на какой-то регион,
логично сделать упор на местные
поисковики. При этом выбор поисковика
резонно делать на основе его
посещаемости, которую можно узнать из
рейтингов MediaMetrix и Nielsen/NetRatings
(рис. 1), а в
русскоязычном Интернете — Rambler's
ToplOO, Top-List и SpyLog.
Впрочем , и
тут не обошлось без подводных камней.
Взгляните на рейтинг MediaMet-rix: кажется,
что Google — не
лучший выбор для раскрутки сайта. Но
из таблицы альянсов поисковиков (табл.
1) обнаруживается, что кроме своего
сайта движок Google присутствует
на Yahoo и Netscape, а
это уже сила. Следовательно, выбирая
поисковик, нужно смотреть не только на
посещаемость, но и на тех, кто
использует его механизм поиска.
Получается, что для целей оптимизации
стоит исследовать максимум 5-7
поисковых механизмов: Google, Inktomi,
AltaVista, FAST и др., а среди
русскоязычных — «Яндекс», «Рамблер» и
«Апорт».
Рис 1. Статистика популярности поисковых
машин
Откуда
брать информацию?
Если алгоритмы
поиска станут известны всем, тут же
появятся «идеальные» странички, про
которые поисковик подумает «До чего ж
хороши!» и поставит их на первые места
вместо страниц, которые ожидал найти
пользователь. Отсюда ясно, что никогда
и нигде ни один поисковик не откроет
своих настоящих алгоритмов (за
исключением случаев публикации
научных статей и хвастливости
разработчиков движка).
Таким образом,
мы лишь можем вычислить правила,
которые будут некоторым приближением
реальных алгоритмов. Для всего этого
полезно иметь связи с разра-
ботчиками
поисковых машин (оптимальный вариант
— общение на форумах поисковиков),
почаще заглядывать на сайты с
аналитикой и следить за официальными
пресс-релизами владельцев лицензий на
поисковые механизмы. Несколько
отличается от всего выше сказанного
метод проб и ошибок, то есть
собственных экспериментов. Впрочем,
об этом чуть позже.
А мне
недавно сказали...
Когда кто-то
говорит о новом факторе ранжирования,
часто следует вопрос: правда это или
нет? Чтобы ответить на него, нужно
знать, к чему стремятся алгоритмы
поиска, какая у них цель и какие
проблемы.
Эффективность
поиска принято оценивать по двум
основным критериям: полноте и
точности. Чем больше процент
релевантных (соответствующих запросу)
документов среди всех найденных, тем
выше точность. И чем больше найдено
релевантных документов среди всех,
что хранятся в базе поисковика, тем
лучше полнота. Основная проблема
сточки зрения владельцев поисковиков
— ресурсоемкость поиска (нужно
хранить много данных и долго их
обрабатывать).
Следовательно,
если «новый фактор ранжирования»
может улучшить показатели точности
или полноты, не вызвав резкого
увеличения потребности в ресурсах, он
правдоподобен. Например, именно из-за
затрат времени не индексируются
JavaScript-код и Flash, хотя технически
реализовать и то и другое не так уж
сложно.
Источник: журнал CHIP
01/2002г.
|