Google опубликовал новый справочный документ под названием «Руководство по алгоритмам поискового ранжирования», где описываются все значимые поисковые технологии: как актуальные, так и те, которые больше не используются в поиске, либо были включены в другие алгоритмы.
Среди действующих алгоритмов значатся:
1. BERT (Bidirectional Encoder Representations from Transformers) – это метод обработки естественного языка, основанный на использовании нейросетей новой архитектуры для работы с последовательностями, известных как «трансформеры». Эта технология помогает Google лучше определять контекст слов в поисковых запросах.
2. Кризисное информирование (Crisis information) – для предоставления пользователям полезной и своевременной информации во время кризисных ситуаций, как личностных, так и объективных – стихийных бедствий, эпидемий и др.
3. Дедупликация (Deduplication) – для очистки результатов поиска от дублирующихся страниц и сниппетов (избранных фрагментов).
4. Ключевые слова в доменах (Exact match domain) – для предотвращения попадания на первые места в выдаче страниц доменов, с точным соответствием запросу.
5. Свежесть контента (Freshness) – для отображения наиболее актуальных результатов по запросам, касающимся недавно произошедших событий/релизов/премьер и других «горячих» тем (новости, обзоры, практически полезная информация).
6. Полезность контента (Helpful content) – для предотвращения попадания на первые места в выдаче неоригинального и низкокачественного контента, созданного исключительно для хорошего ранжирования в поисковой системе, а не для того, чтобы помогать или информировать людей.
7. Анализ ссылок и PageRank (Link analysis systems and PageRank) – для понимания того, как страницы ссылаются друг на друга, и какие из них являются наиболее полезными в ответе на запрос. А также для оценки ссылочного графа сайта и авторитетности ссылающихся страниц.
8. Локальные новости (Local news) – для выявления и показа пользователю новостей из местных источников
9. MUM (Multitask Unified Model) – ИИ-технология для обработки сложных поисковых запросов. Пока не используется в общем поисковом ранжировании, а только для улучшения некоторых функций поиска – например, в мультипоиске и создании избранных фрагментов (Featured Snippet).
10. Нейронное сопоставление (Neural Matching, NM) – ИИ-технология, используемая для лучшего связывания слов с концептами – сопоставление поисковых запросов и веб-страниц без учета других факторов.
11. Уникальный контент (Original content) – для поиска и лучшего ранжирования первоисточников.
12. Пессимизация на основе удаления (Removal-based demotion)– понижение в ранжировании ресурсов, содержащих большой объем контента, подлежащего удалению – нарушающего авторские права, либо содержащего персональную информацию.
13. Удобство страницы (Page Experience) – для выявления и более высокого ранжирования страниц, обеспечивающих отличный пользовательский опыт – быстро загружаются, адаптированы для мобильных устройств, не содержат навязчивой рекламы и т.д.
14. Ранжирование фрагментов (Passage Ranking) – ИИ-технология для лучшего понимания страниц с хорошим, но плохо структурированным контентом. Умеет понимать содержание фрагментов текста и сортировать их по релевантности.
15. Ранжирование отзывов (Product reviews) – для приоритетного ранжирования развернутых, экспертных и достоверных отзывов о товарах или услугах.
16. RankBrain – ИИ-технология, помогающая поиску понимать связь слов и концепций, позволяя предоставлять релевантный контент по запросу, даже если он не содержит точного вхождения ключевых слов.
17. Достоверность информации (Reliable information) – для показа в результатах поиска максимально достоверной информации, путем выявления наиболее авторитетных страниц и понижения некачественного контента.
18. Разнообразие доменов (Site diversity)– позволяет не показывать больше двух результатов c одного и того же домена в топе поисковой выдачи по запросу. Исключением являются случаи, когда большее количество результатов с одного домена обеспечивает большую релевантность по определенному запросу.
19. Обнаружение спама (Spam detection)– включает ряд технологий, направленных на обнаружение спама в интернете, в том числе и SpamBrain, основанную на искусственном интеллекте.
В Google отметили, что все актуальные алгоритмы ранжирования регулярно совершенствуются путем тщательного тестирования и оценки. Об особенно значимых обновлениях алгоритмов поисковик уведомляет на специальной странице, когда считает, что они могут быть полезны создателям контента и другим лицам.
Также представитель Google Дэнни Салливан сообщил, что в будущем поисковик перестанет называть алгоритмы ранжирования «обновлениями» (update), чтобы не вводить никого в заблуждение:
«В будущем мы будем более точны с нашими формулировками, отличая алгоритмы от обновлений. Да, у нас все еще будут такие вещи, как «полезное обновление контента» или «обновление обзоров продуктов», но по возможности, мы будем объяснять, что это обновления соответствующих алгоритмов, таких как «полезность контента» и «ранжирование отзывов». Мы также внесем соответствующие изменения в нашу справочную информацию, чтобы отразить это изменение терминологии».
Сведения об алгоритмах, которые больше не используются поиском, либо стали частью других технологий, приводятся исключительно в качестве «исторически значимой» информации:
- Колибри – был выпущен в 2013 году и больше не используется.
- Mobile friendly – был запущен в 2015 году, а затем стал частью алгоритма Page Experience.
- Page Speed – заработал в 2018 году, теперь является частью алгоритма Page Experience.
- Панда – был запущен в 2011 году, с тех пор эволюционировал и в 2015 году стал частью основного алгоритма ранжирования Google.
- Пингвин – заработал в 2012 году, в 2016-м стал частью основного алгоритма ранжирования Google.