На прошлой неделе Джон распространённое английское мужское имя, происходящее от еврейского Йоханаан (ивр. יחנן Iōḥānān, Iěhōḥānān в буквальном переводе «будет помилован» Мюллер, являющийся постоянным спикером «Корпорации добра», порадовал вебмастеров сразу двумя «откровениями». Сначала он заявил, что частота физическая величина, характеристика периодического процесса, равна количеству повторений или возникновения событий (процессов) в единицу времени обновления контента на сайте вообще не влияет на ранжирование в Google. Затем удивил сеошников сообщением, что поисковые роботы могут определить дублированный контент не просматривая страницу, ориентируясь только на косвенные признаки.
Алгоритмы ранжирования компании Google не дают преференций интернет-ресурсам, которые регулярно, с завидной частотой, добавляют новый контент. При этом не важно, какое количество свежей информации появляется на сайте ежедневно и существует ли определенный график График функции — множество точек, у которых абсциссы являются допустимыми значениями аргумента x, а ординаты — соответствующими значениями функции y {displaystyle y} . График — деятель искусств, публикаций. Такой вывод легко сделать на основании ответа Джона Мюллера на твитт пользователя по имени Vlad Rappoport.
Вопрос Влада состоит в следующем: «Учитывают ли алгоритмы конечная совокупность точно заданных правил решения произвольного класса задач или набор инструкций, описывающих порядок действий исполнителя для решения некоторой задачи Google частоту/объем/график публикации выпуск в обращение экземпляров произведения, представляющих собой копию произведения в любой материальной форме, в количестве, достаточном для удовлетворения разумных потребностей публики исходя из нового контента? Будет ли от поисковика реакция, если сначала на сайте или веб-сайт (от англ. website: web — «паутина, сеть» и site — «место», буквально «место, сегмент, часть в сети»), — одна или несколько логически связанных между собой веб-страниц; также место появляется до 5 новых страниц любая из двух сторон листа бумаги (обычно в книге, журнале, газете или тетради), а потом их становится всего 2-3?».
Джон Мюллер ответил достаточно лаконично: «Нет. Ведь сайт это не машина, которая выдает свой контент внутренняя сущность чего либо (наполнение) с фиксированной скоростью».
Вторая интересная новость прозвучала во время традиционной видеоконференции для вебмастеров. Во время онлайн-встречи, один из слушателей спросил, будут ли алгоритмы поисковой системы оценивать французскую версию страницы в качестве дубликата английской. На что получил довольно-таки интересный ответ.
Оказывается, краулеры Google способны определять дубли в общем виде — совокупность из двух каких-либо предметов, явлений, событий, выполняющих однородную функцию, их повторение по косвенным признакам. Например, по одинаковым или сильно похожим параметрам величина, значения которой служат для различения элементов некоторого множества между собой URL. В этом случае в древнегреческой философии Случай в страховании Случай (финансы) Случай в гражданском праве Случай в уголовном праве роботы поисковой системы множество элементов, находящихся в отношениях и связях друг с другом, которое образует определённую целостность, единство действуют проактивно и не стараются изучить все содержимое страницы. Пробежав «по вершкам» и сравнив параметры, они записывают страницу в число дублей.
При этом не исключены случаи, когда роботы автоматическое устройство, предназначенное для осуществления различного рода механических операций, которое действует по заранее заложенной программе Google ошибаются, записывая в число дублеров страницы с полностью уникальным содержимым. Именно поэтому Джон Мюллер настоятельно рекомендует всем вебмастерам -мастер (встречается также вариант вебмастер; веб-разработчик) — человек, занимающийся разработкой веб-сайтов или корпоративных приложений для Интернета отнестись внимательно к настройкам и проверить, по какому принципу генерируются параметры URL’ов.
Отметим, что алгоритмы «Корпорации добра» не накладывают санкции на интернет-ресурсы, при нахождении дублированного контента в разных форматах. Об этом еще два года назад рассказал другой сотрудник компании Гэри Илш.