На сегодняшний день такие крупные поисковые системы как Яндекс и Google выглядят не однородным продуктом, а являются симбиозом сложных механизмов. Алгоритмов, роботов и прочих элементов, которые формируют целостное представление о поисковой системе.
В данной статье мы затронем современные алгоритмы поисковой системы Google, их назначение и последствия воздействия на сайт. На текущий момент известно чуть более 30 алгоритмов, наиболее крупных можно пересчитать по пальцам. Но существует теория о существовании еще большего количества алгоритмов, их назначение нам неизвестно и Google старается умалчивать о них.
Алгоритмы поисковых систем (ПС) – это особые математические формулы, по которым поисковые системы решают задачу выдачи сайтов в результат поиска. Как известно, поисковая машина ищет сайты по определённым ключевым словам, либо фразам, словосочетаниям. Алгоритмы поисковых систем позволяют найти сайт, наиболее точно соответствующий запросу, отсекая при этом площадки, ненужные пользователю или использующие запрещенные методы оптимизации.
Поисковая машина, руководствуясь алгоритмом, анализирует сайт, выясняет наличие в составе контента ключевой фразы или его синонима и принимает решение о том, насколько сайт соответствует запросу пользователя. В зависимости от степени соответствия страницы присваивают сайту ту или иную позицию в выдаче – выше или ниже.
Алгоритм Панда
Алгоритм Гугл Панда борется с неуникальным контентом на сайте, наводненным ключевыми запросами и лишенного смысла. Так же данный алгоритм борется со спамом и автоматически сгенерированным контентом. В приоритете работы данного алгоритма считается все, что касается контента: его наличие, уникальность, объем, качество вот небольшой список того, что отслеживает Панда. Если был обнаружен сайт или страница с некачественным по усмотрению алгоритма контентом, то к данному источнику применяются санкции в виде понижения в выдаче.
Историческое развитие данного алгоритма начинается с января 2016 г, и теперь он работает в режиме реального времени, постоянно анализируя качество контента. Таким образом апдейты (обновление выдачи) Google стали намного частыми и менее предсказуемыми.
Рекомендация к владельцам сайтов:
За какие ошибки наказывает Панда?
Как защитить свой сайт от посягательств Панда?
Достаточно часто можно встретить сайты с одним описанием вложенностей категорий при пагинации страниц. Или, одна и та же страница может быть доступна под разными url-адресами. К сожалению, владелец сайта может даже не подозревать о таких подводных камнях в структуре своего ресурса. Обнаружить подобные страницы вам поможет специализированное ПО, например Screaming Frog SEO Spider. В Google Search Console также присутствует инструмент позволяющий обнаруживать страницы с дублирующимся мета-тегом title, description или H1, именно они - потенциальные кандидаты на поиск дублирующего контента.
В случае обнаружения страниц с дублирующим контентом требуется либо закрыть от роботов поисковых систем — возможно использование тега canonical, 301 редиректа либо мета тега noindex.
Пройдитесь по страницам и посмотрите какое количество исходящих ссылок присутствует. Наличие большого числа исходящих ссылок говорит о необходимости расширения контента, для снижения привлекательности алгоритму Панда».
Пингвин (Google Penguin)
Появление Пингвина стала концом целой эпохи поискового продвижения методом максимального приобретения ссылок со сторонних ресурсов. Данный алгоритм занимается поиском неестественных внешних ссылок, с целью применения понижающих санкций, вплоть до исключения сайта из поиска.
За что можно получить Пингвин?
Как защититься от Пингвина
С помощью распространенных сервисов (например Яндекс.Вебмастер) можно отслеживать появление источников таких ссылок. Важно отметить, что незначительный рост внешних ссылок вряд ли призовет Пингвин, но значительный рост однозначно не заставит его ждать.
Если в ходе анализа вы обнаружили спамные ссылки, то необходимо задуматься, что делать дальше. Идеальный вариант избавления будет непосредственная связь с владельцем спамного ресурса для удаления такой ссылки. Если же такой вариант не возможен, то можно рассмотреть инструмент отклонения ссылок Google's Disavow tool. Гугл будет игнорировать те ссылки которые вы укажите и формировать ваш рейтинг в поиске без их участия.
Антипиратский апдейт (Google's Pirate Update)
Данный алгоритм создан для борьбы с ресурсами содержащие пиратский контент: видео, фото, книги и прочее. Работа такого алгоритма основана на прямые жалобы пользователей на ресурсы содержащие пиратский контент. Основываясь на полученной жалобе Гугл принимает решение понизить сайт в выдаче или закрыть его от глаз вообще.
Работа данного продукта официально не объяснялась, но уже сегодня понятно, что качество его работы далеко от желаемого, очень часто многие сайты успешно ранжируются в ТОп-3 несмотря на наличие пиратского содержания.
Что необходимо сделать для избегания санкций?
Самое главное это отсутствие какого либо пиратского контента на сайте. Старайтесь избегать размещения подобного контента у себя на сайте. Если правообладатели будут жаловаться ссылаясь на пиратство, то избежать санкций практически нереально.
Колибри (Hummingbird)
Наверное самый масштабный алгоритм Google, который объединил сразу несколько функций. В нем присутствует и Панда, Пингвин, Фред, RankBrain и все это в одном флаконе. Колибри, как самостоятельная единица представляет пользователю страницы с максимально схожим ответом на запрос, учитывая при этом смысл и принимая во внимание синтаксис, синонимы поисковой фразы и прочее.
Что делать с Колибри?
Все просто, пишите тексты для людей, хватит ориентироваться на роботов, подбирая словосочетания и вхождения в тексте. Не надо рушить смысловую нагрузку, контент должен достигать разнообразия в изложении и включать больше синонимов касающихся тематики запроса.
Голубь (Pigeon)
Сравнительно молодой алгоритм направленный на анализ местонахождения пользователя. Основываясь на полученных данных пользователь получает выдачу с наиболее приближенными географическими данными. Т.е. если требуется найти ближайшую аптеку, Google основываясь на данных вашей локации предложит наиболее близкие к вам объекты. Такой принцип соответствует и прочим вариантам запросов, где в приоритете будут предложены наиболее приближенные к вам источники в рамках населенного пункта, региона, страны.
Для качественного локального ранжирования сайтов Google привлекает асессоров - именно человек оценивает качество ресурса и определяет наиболее популярную локальную выдачу. Задача асессора в ходе анализа сайта исключить те ресурсы, которые не соответствуют заданному местоположению, а значит заданным требованиям.
Для улучшения ранжирования сайта в конкретной локации, рекомендуется использовать имеющиеся инструменты поисковых систем: Google Мой бизнес, а также Яндекс. Справочник. Старайтесь указывать местоположение в тегах и текстах, это ощутимо увеличит релевантность сайта по региону.
Mobile Friendly Update
Поисковая система Google одна из первых стала отдавать предпочтения сайтам адаптированных под мобильные устройства. Таким образом создав привилегии для сайтов отвечающим интересам мобильных пользователей. Во-первых отдав приоритет в мобильной выдаче mobile-friendly сайтам. Во-вторых исходя из постоянного роста поисковых запросов с мобильных устройств увеличил частоту индексирования сайтов с мобильной адаптацией.
Для проверки является ли ваш сайт адаптированным под мобильные устройства и соответствует ли он требованиям Google, можно воспользоваться сервисом проверки мобильных страниц.
Фред (Fred)
Алгоритм Фред нацелен прежде всего на поиск малополезных сайтов. Контент которых содержит большой объем рекламного характера, или просто спамного материала. Такие сайты как правило нацелены на трафик за счет большого объема ненужной информации, Google пессимизирует такие сайты.
Как не получить Фред?
Прежде всего не следует перегружать свой сайт медийной, баннерной и прочей рекламой. Сокращайте большого количество исходящих ссылок с одной страницы, желательно не превышать показатель внешних ссылок более 4-х.
Вот небольшой список современных алгоритмов Google, которые прежде всего нацелены на улучшение поиска нужных сайтов и страниц. Таким образом предоставляя пользователю удобство в работе с поисковой системой.