Как работают поисковые системы

Еще каких-то 10-15 лет назад для того, чтобы найти нужный товар или услугу, люди листали справочник «Желтые страницы». В крайнем случае, газету «Из рук в руки». Сегодня практически любая информация легко ищется и находится через поисковые системы интернета, а компании конкурируют между собой не только на рынке, но и в выдаче поисковых систем. Важность нахождения вашего сайта в заветной десятке поисковой выдачи по нужным запросам сложно переоценить. Иногда разница между 10 и 11 местом – это разница между доходностью или убыточностью вашего бизнеса.

Поисковое продвижение, оно же SEO (Search Engine Optimization), окутано дымкой тайны и окружено таким количеством мифов, что никаким древним грекам и не снилось. В глазах простого человека SEO – это темный лес, а поисковые оптимизаторы – что-то вроде магов, которые по мановению волшебной палочки поднимают сайты из темной бездны небытия к вершинам поисковой выдачи. Последним такой имидж, разумеется, выгоден и они успешно им пользуются, обещая клиентам волшебные чудеса. Лучше всего об этом феномене написал в своей книге «Жизнь внутри пузыря» Игорь Ашманов.

Методы магов везде примерно одинаковы. Они объясняют владельцам, что имеющийся персонал, конечно, что-то там делает, возится, но:

а) они делают всё неправильно, что очевидно всякому магу,

б) они же не маги, следовательно, ждать волшебных результатов от них в любом случае не приходится. А между тем, вот каких волшебных чудес можно достигнуть…

При этом сотрудникам маг рассказывает другую сказку: что сотрудники, мол, хорошие, делают всё правильно, стараются, но для полного успеха не хватает щепотки волшебного порошка, который как раз у мага с собой. Этим порошком он посыплет клиентов и партнёров, и те превратятся в добрых фей.

Справедливости ради нужно сказать, что этот феномен существует практически во всех областях, где исполнитель обладает недоступными заказчику узкими знаниями – начиная от компьютерной помощи и заканчивая автосервисами.

Для того чтобы не плодить мифов и расставить точки над i в вопросе поискового продвижения, необходимо немного углубиться в историю и принципы работы поисковых систем. У нас к вам убедительная просьба – пожалуйста, прочитайте этот текст внимательно и от начала до конца. Если после этого вы решите заказать у нас продвижение своего сайта в поисковых системах, это сильно упростит наше взаимопонимание и ускорит рабочий процесс. Если выберете другого исполнителя, поможет распознать мошенников от поисковой оптимизации.

Принцип работы поисковых систем

Принцип работы поисковых систем довольно прост. Программа-паук (crawler) регулярно обходит весь интернет и сохраняет сайты в свою базу данных. Программа-индексатор анализирует их и структурирует собранную информацию. Когда пользователь вводит свой запрос, поисковая система ищет соответствия и извлекает информацию из базы данных, ранжируя ее в соответствии с определенными алгоритмами. Главная задача оптимизатора – разобраться в том, как работают алгоритмы ранжирования, и сделать так, чтобы продвигаемый сайт максимально им соответствовал. Главная задача поисковой системы – сделать так, что пользователю выдавалась именно та информация, которую он ищет.

На сегодняшний день существует четыре фундаментальных фактора, влияющих на позиции сайта в поисковой системе по тем или иным запросам.

1. Релевантность страницы сайта поисковому запросу пользователя. Здесь все просто. Для того чтобы ваш сайт выдавался в поиске по запросу «розовые слоны», необходимо чтобы на нем была страница, рассказывающая про розовых слонов.

2. Внешние факторы. Когда поисковые системы только начинали делать свои первые шаги, перед их создателями встал простой и естественный вопрос. В базе данных есть 1000 сайтов про розовых слонов – в каком порядке их ранжировать? Решение было позаимствовано из научного мира, в котором существует такое понятие, как индекс цитирования научных работ.

Индекс цитирования научных статей (ИЦ) — реферативная база данных научных публикаций, индексирующая ссылки, указанные в пристатейных списках этих публикаций и предоставляющая количественные показатели этих ссылок (такие как суммарный объём цитирования, индекс Хирша и др.)

Выражаясь простым языком, чем чаще научная работа цитируется в других публикациях, тем более значимой она считается. Разработчики поисковых алгоритмов поступили аналогичным образом и решили – чем чаще на сайт ссылаются другие сайты, тем он авторитетнее и интереснее для пользователей, а значит тем выше он должен находится в поиске.

На заре развития поисковых систем других факторов, влияющих на позиции сайта в поисковых системах, не существовало, и это было поистине золотое время для оптимизаторов. Достаточно было закупить побольше ссылок на продвигаемый сайт, и он влетал в десятку, как ракета. Конкуренция была проста, как апельсин, — кто купил больше ссылок, тот и занимает ведущие позиции в поиске. Однако долго так продолжаться не могло.

Во-первых, поисковые системы были заинтересованы в том, чтобы поиск был максимально качественным, и чтобы на вершине находились те сайты, которые полезны для пользователя, а не те, у которых самый большой ссылочный бюджет. Во-вторых, оптимизаторы стали прямыми конкурентами для поисковых систем – ведь для того, чтобы оказаться в топе, можно не только продвигать сайт в естественной выдаче, но и купить контекстную рекламу напрямую у поисковой системы.

Так началась война поисковых систем с оптимизаторами, которой предстояло проходить на двух фронтах. Во-первых, поисковые системы начали учиться отличать покупные ссылки от естественных, поставленных пользователями добровольно. Покупные ссылки перестали влиять на ранжирование, а в последнее время за их использование даже вводятся санкции в виде понижения в поисковой выдаче. Оптимизаторы, в свою очередь, стали в лучших традициях гонки вооружений маскировать покупные ссылки под естественные. Целиком отказаться от влияния ссылок на выдачу поисковые системы не смогли и вряд ли когда-нибудь смогут, т.к. это один из немногих объективных измеряемых показателей качества сайта, поэтому вторым фронтом стало изобретение дополнительных факторов ранжирования.

Так сумеречный гений разработчиков поисковых систем изобрел поведенческие факторы. Идея заключается в следующем – поведение пользователей на полезных для них сайтах отличается от поведения на сайтах бесполезных. Например, если пользователь, едва зайдя на сайт, сразу закрыл вкладку браузера, значит сайт ему не понравился. Кроме того подоспели социальные сети со своими лайками, по которым также стало возможно определять реакцию пользователей на тот или иной сайт. Таким образом, поведение посетителей сайта стало влиять на его позиции.

Вероятно, план разработчиков заключался в том, что владельцы сайтов начнут улучшать свои детища и делать их более полезными и удобными для посетителей. Не можем их за это упрекать – вероятно, в зарубежном сегменте интернета так и произошло. А вот отечественные оптимизаторы просто сделали очередной ход в гонке вооружений. Сперва появились сервисы, в которых можно было за деньги купить лайки в социальных сетях, а затем и программы, которые заходили на продвигаемый сайт и имитировали «правильное» поведение пользователя.

Трудно представить себе, каких глубин разочарования в человечестве достигли создатели Google и Яндекс, столкнувшись с таким коварством оптимизаторов, однако следующим их шагом стало введение института асессоров – живых людей, вручную оценивающих качество сайтов в поисковой выдаче и подсказывающих искусственному интеллекту, в каком порядке их нужно ранжировать. Сперва этот шаг сделал Google, а затем и Яндекс. На данный момент это последний виток холодной войны между поисковыми системами и оптимизаторами. Что будет дальше – покажет время.

Для того чтобы успешно продвигать сайт в поисковых системах, необходима комплексная работа над всеми вышеперечисленными факторами.