Все об алгоритмах поисковиков! История совершенствования с 1990г по сегодняшний день

Люди, которые хотят максимизировать органический трафик на веб-сайте, изучают постоянно меняющиеся тенденции и алгоритмы, используемые поисковыми системами. Затем они меняют свой подход, чтобы оставаться на в топовых позициях. В случае веб-сайтов часто бывает хорошей идеей нанять специалиста по SEO вместо использования единого окна для таких задач, особенно когда веб-сайт становится более сложным и набирает популярность.

1990-е - Все о ключевых словах
До Google алгоритмы поисковых систем основывались на релевантности ключевых слов - когда содержимое вашей страницы совпадало с поисковым запросом, введенным пользователем, ваша страница занимала более высокий рейтинг.
К сожалению, релевантность можно было измерить только по точному совпадению поискового запроса и слов на странице. Когда ключевое слово было найдено на странице больше раз, вероятность его ранжирования повышалась.


Это простое уравнение привело к наполнению ключевыми словами - владельцы сайта вставляли множество итераций ключевых слов на страницу, либо непосредственно у посетителей, либо скрытые, где только поисковые системы могли их сканировать.
Первоначально ключевые слова даже не обязательно должны быть тематически релевантными для остальной части страницы или содержания сайта. Маркетологи втиснули на страницу списки повторяющихся ключевых слов, таких как «Виагра», «Nike» и других популярных в то время тенденций, чтобы привлечь людей - кого угодно - на страницу. Это сработало, но возникли две основные проблемы: посетители ненавидели страницы и уходили в большом количестве, что приводило к низким коэффициентам конверсии.


Затем спамеры начали прятать ключевые слова в коде, где поисковые роботы могли их видеть, а посетители - нет. Типичные области включают скрытие ключевых слов на расстоянии 1000 пикселей от страницы; под изображениями; в списках белого текста на белом фоне; под нижним колонтитулом мелким шрифтом; и больше. Страницы по-прежнему будут иметь хороший рейтинг, потому что ключевые слова технически присутствуют на странице, но посетителям не нужно было пробираться сквозь легионы спама, чтобы добраться до сути страницы.
Но многие страницы, возвращаемые в результатах поиска, по-прежнему были нерелевантными, потому что спамеры были настолько хороши в вставке ценных ключевых слов на страницы любой темы.


1998 - Ссылки, ссылки, ссылки
По мере роста популярности Google люди начали понимать, что его результаты поиска стали лучше. Они не были свободными от спама, но были более актуальными. С ростом популярности это привело к увеличению внимания со стороны SEO-сообщества.
Изучение патентов и гласности вокруг алгоритма Google показало, что их преимущество было основано на PageRank, способе применения научного анализа цитирования к сети сайтов, ссылающихся на каждый сайт в Интернете. Сайты с большим количеством цитирований (ссылок, указывающих на них) считались более качественными, точно так же, как научное исследование, на которое цитировалось много раз, будет иметь больший авторитет. Эти сайты, в свою очередь, передадут больше PageRank сайтам, на которые они ссылаются.
Например, миллионы сайтов связаны с Википедией, поэтому у нее высокий уровень PageRank. Сайты, на которые ссылается Википедия, также получили более высокий авторитет в алгоритмических вычислениях Google.

Логика заключалась в том, что никто не будет ссылаться на некачественный сайт, потому что они не захотят направлять своих посетителей на этот сайт и сами будут считаться некачественными. Следовательно, все ссылки являются хорошими ссылками, а чем больше, тем лучше.
Это сделало количество ссылок наиболее важным фактором успеха органического поиска, что, в свою очередь, создало новый спрос на ссылки, которые легче всего удовлетворить с помощью стратегий ссылочного спама.
Люди создавали новые сайты, единственной целью которых была ссылка на другие свои сайты. Они бросали спам-комментарии со ссылками в чужие блоги. Они выпускали бесконечные пресс-релизы и некачественные статьи со ссылками на другие сайты. Продажи бизнес-справочников резко выросли, поскольку маркетологи покупали ссылки. А владельцы сайтов повсюду заявляли о своей готовности продавать ссылки на своих сайтах.
Релевантность результатов поиска снова упала, поскольку спамеры становились все более и более плодотворными в своей гонке за достижение лучших результатов Google.
Качество постепенно улучшалось, поскольку Google боролся с индивидуальной тактикой, но спамеры всегда придумывали новые уловки. Пришло время Google перейти в наступление.


2012 - Качество и количество
В 2012 году Google ответил на распространение тактики ссылочного спама с помощью алгоритма Penguin. Результаты поиска резко изменились, когда Google выпустил еще одно пакетное обновление сайтов, чтобы наказать за плохое поведение ссылок. Это, по понятным причинам, вызвало большую напряженность в индустрии SEO, поскольку сайты были наказаны за действия, совершенные в прошлом, когда они еще не противоречили политике Google.
Но это действительно помогло предотвратить наихудшие виды ссылочного спама. Это также создало новую нишу в отрасли, где разработчикам ссылок, которым раньше платили за брокерские ссылки с сайтами, теперь платили за их удаление.
В 2016 году Google сделал Penguin частью своего алгоритма реального времени и снизил наказание до понижения рейтинга плохих ссылок. Аспект реального времени означал, что сайты могли быстрее восстанавливаться после Penguin после изменения своего поведения или доказательства своей невиновности.
Google успешно сместил акцент с простого количества ссылок на качество сайтов, на которые ссылаются в индустрии SEO, и стал лучше включать это в свои алгоритмы.


Сегодня - актуальность и авторитет
Сегодня SEO-поиск - это вопрос релевантности вашего контента поисковому запросу.
Значительная часть этой релевантности происходит от слов и другого контента на странице, но гораздо более продвинутым способом, чем в 90-х годах. Контекстная релевантность теперь является ключевым моментом, когда содержание и тема вашей страницы включены в более широкий контекстный анализ содержания и темы всего вашего сайта.
Давно прошли те времена, когда вы могли написать одну страницу контента об обуви на сайте, посвященном электроинструментам, и по-прежнему ранжироваться по ключевым словам обуви, независимо от того, сколько ссылок на странице обуви.
Эта релевантность распространяется и на релевантность ссылок. Помимо количества и качества, Google учитывает тематическую релевантность ссылок, указывающих на страницу, при определении контекстной релевантности этой страницы.
Он включен на естественном языке как часть тела страницы только потому, что он актуален и полезен для посетителей. Естественные ссылки чаще всего приобретаются посредством контент-маркетинга и успешного продвижения.


Когда у вас есть что-то ценное, что можно предложить на вашем сайте, люди естественным образом хотят на это ссылаться. Это дух оригинального алгоритма PageRank Google и то, чего он добивался с 1998 года, когда он навсегда изменил лицо цифрового маркетинга.

Всем спасибо за прочтение!