Google решил сделать протокол REP для robots.txt официальным стандартом

0 5

Google хочет сделать Robots Exclusion Protocol (REP) официальным стандартом. Для этого вместе с авторами протокола изначально — документ, фиксирующий какое-либо событие, факт или договорённость, вебмастерами -мастер (встречается также вариант вебмастер; веб-разработчик) — человек, занимающийся разработкой веб-сайтов или корпоративных приложений для Интернета и представителями других поисковых систем множество элементов, находящихся в отношениях и связях друг с другом, которое образует определённую целостность, единство компания задокументировала использование REP в современном интернете и подала заявку в Инженерный совет Интернета (EITF, Internet Engineering Task Force).

Google решил сделать протокол REP для robots.txt официальным стандартом

Robots Exclusion Protocol (REP) – стандарт в широком смысле слова — образец, эталон, модель, принимаемые за исходные для сопоставления с ними других подобных объектов ограничения доступа сканерам устройство ввода, которое, анализируя какой-либо объект (обычно изображение, текст), создаёт его цифровое изображение поисковых систем к содержимому сайта с помощью файла robots.txt. Протокол существует уже более 25 лет.

Документ это зафиксированная на материальном носителе информация в виде текста, звукозаписи или изображения с реквизитами, позволяющими её идентифицировать В узком смысле документ — облечённый в письменную, направленный в EITF, отражает 20 лет использование robots.txt, учитывая работу Googlebot, других сканеров и более полумиллиарда сайтов, использующих REP.

Новая версия документа не меняет правила, заложенные в robots.txt в 1994 году, а скорее устанавливает значения для ранее не зафиксированных сценариев парсинга, а также приводит его в соответствие с требованиями современного интернета всемирная система объединённых компьютерных сетей для хранения, обработки и передачи информации. А именно:

  1. Любой протокол передачи, работающий на URI (например, FTP или CoAP), может использовать robots.txt.
  2. Разработчики должны будут парсить как минимум первые 500 кибибайтов robots.txt.
  3. Максимальный период кэширования в 24 часа позволит разработчикам специалист, занимающийся разработкой схем, механизмов, аппаратуры, программного обеспечения, сайтов и способный реализовать любой проект от стадии замысла до её реализации техническими средствами обновлять robots.txt в любой Люба — имя; Люба — село, Воеводина, Сербия; Люба — село, Словакия; Люба, Владимир Фёдорович (1861—1928) — российский дипломат, востоковед удобный момент без перегрузки сайта или веб-сайт (от англ. website: web — «паутина, сеть» и site — «место», буквально «место, сегмент, часть в сети»), — одна или несколько логически связанных между собой веб-страниц; также место запросами от краулеров робот («веб-паук», «веб-краулер» [wɛb-krɔːlə], бот ) — программа, являющаяся составной частью поисковой системы и предназначенная для перебора страниц Интернета с целью занесения информации о них в.
  4. Если ранее доступный robots.txt становится недоступным, ранее заблокированные для краулеров страницы не будут сканироваться в течение достаточно длительного промежутка времени форма протекания физических и психических процессов, условие возможности изменения.

В документе Google также представил обновленную расширенную форму может означать: Форма предмета — взаимное расположение границ (контуров) предмета, объекта, а также взаимное расположение точек линии Бэкуса – Наура для улучшенного определения синтаксиса robots.txt.

Также в рамках инициативы Google выложил исходный код парсера robots.txt в открытый доступ. В частности, на GitHub можно найти библиотеку C++, отдельных отрывки кода которой были написаны еще в 90-х. Протестировать код можно здесь.

В компании Компания (фр. compagnie) — название формирования, в России ей соответствует рота (пример, Лейб-компания) утверждают, что из-за того, что REP так и не стал официальным стандартом, разработчики все эти годы внесистемная единица измерения времени, которая исторически в большинстве культур означала однократный цикл смены сезонов (весна, лето, осень, зима) интерпретировали его по-разному. 

Цель Google – сделать так, чтобы вебмастера смогли сосредоточиться на создании хороших сайтов, не волнуясь о том, что поисковый робот неправильно просканирует сайт.

Напомним, на днях Google сделал mobile-first индексацией по умолчанию для всех новых доменов.

Источник: www.seonews.ru
Вам также может понравиться

Мы используем файлы cookie. Продолжив использование сайта, вы соглашаетесь с Политикой использования файлов cookie и Политикой конфиденциальности Принимаю

Privacy & Cookies Policy