Общие принципы работы поисковых систем.
- Первые поисковые системы были крайне просты и даже примитивны: они оценивали только прямые вхождения текста и выдавали результаты без каких-либо других фильтров и без сортировки по актуальности или важности. С другой стороны, Интернет в те времена был настолько мал, что речь не шла о том, чтобы
не найти: всё было как на ладони и любой сайт был известен в первую очередь из-за своего существования.что-то - Ситуация с раскруткой современных сайтов напоминает во многом напоминает другие сферы рекламного рынка. Основная проблема работы поисковых систем — это улучшение так называемого соотношения сигнал/шум, то есть повышение эффективности работы при показе минимума неподходящих пользователю результатов. Достигается это с помощью многих методик, причём правильная раскрутка сайта позволяет существенно повлиять на результаты поисковой выдачи, используя основные критерии отбора релевантных (то есть соответствующих запросам пользователя) поисковых страниц.
- Поисковые системы действуют следующим образом: как только в базу данных попадает адрес нового сайта, на этот ресурс отправляется поисковый робот — программа, забирающая информацию и включающая её в базу данных. Современные поисковые системы имеют множество различных роботов — от стандартных «краулеров», до ищущих новые страницы и проверяющих сайты на соответствие лицензии. Отдельной строкой стоит отметить особо быстрых роботов, индексирующих новостные сайты и блоги: правильная раскрутка по актуальной теме способна буквально за несколько дней принести вам огромный поток посещений.
- Основная задача робота — это в несколько проходов загрузить ваш сайт, пройдя по всем ссылкам. Разумеется, робот сможет пройти только там, где есть эти самые ссылки — то есть слишком сложная система навигации, размещение части страниц под паролем, техническая недоступность ключевых страниц и другие сложности практически всегда означают проблемы с индексацией. В общем случае за первый проход (точнее, в несколько совмещённых этапов) робот забирает ваш сайт в базу, но не присваивает ему никаких факторов, влияющих на места в выдаче — то есть после первой индексации ваш сайт может быть найден только по прямым включениям. Далее поисковая машина оценивать множество внутренних факторов: ищет узловые страницы (чаще всего это бывает главная и основные разделы), оценивает «авторитетность» каждой из них, строит семантическую базу, классифицирует контент по специфическим словам и присваивает ему определённую оценку. В это же время составляется (точнее, дополняется) обратный словарь поисковой базы: каждому слову (а их в базе — миллионы) «дописывается», то есть ставится в соответствие одна или несколько страниц вашего сайта: каждая страница означает столько записей в обратном словаре поисковой системы, сколько на ней слов.
- Раскрутка сайта на данном этапе называется оптимизацией, то есть созданием максимально доступных условий для индексации, чёткое выделение главных разделов, подбор семантического ядра и воплощение его в текстах сайта. На этом этапе следует также обращать внимание на html-код, а также работу хостинга и отсутствие «битых» ссылок.
- Следующая часть работы поисковой системы — это оценка внешних факторов сайта, то есть всех установленных на него ссылок из различных источников, просчёт динамик их расстановки, оценка доверия каждому ресурсу, оценка «веса» каждой ссылки и оценка их тематичности. В итоге получается картина, охарактеризовывающая раскрутку сайта снаружи, без «заглядывания» на сам ресурс. Совмещение внешних факторов и внутренних факторов и является итогом работы по раскрутке сайта, ведущим к выводу вашего ресурса на первые места.
- Затем поисковая система начинает регулярно обходить новый сайт (как и миллиарды других) и искать новые ссылки на другие ресурсы (а на сторонних ресурсах — ссылки на ваш), оценивать добавление новых материалов и частоту обновления вашего ресурса.