Курс SEO-практик. Управление индексацией сайта. Дубли и служебные страницы

Содержание

Слайд 2

bit.ly/2JKmiS0

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

bit.ly/2JKmiS0 Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 3

Задание для самостоятельного выполнения

Самостоятельно разобраться с программой Xenu или другой на выбор.
http://stalnik.by/
проверить

Задание для самостоятельного выполнения Самостоятельно разобраться с программой Xenu или другой на
на наличие «битых» ссылок и редиректов с помощью выбранной программой
разобраться в возможной причине
постараться дать рекомендации по исправлению

Модуль 6. Базовая техническая оптимизация

Слайд 4

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 5

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 6

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 7

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 8

Разбор

На мой взгляд, указанные на листе "404 ошибки" очень похожи на ошибки

Разбор На мой взгляд, указанные на листе "404 ошибки" очень похожи на
разработчиков, т.к. они почти все достаточно типовые.
Однако, как мне кажется, тут может быть вопрос с их возникновением, т.к. такие ошибки могли появится вследствие изменения структуры сайта (к примеру часто встретилась ошибка в ссылках формата /buyer/buyer)
Т.е. теоретически, они могли появится из-за того, что был раздел+подраздел, а затем подраздел был удален.
Я дал рекомендации исходя из первого предположения (ошибок разработчиков). Следовательно исходил из того, что таких же внешних ссылок, ведущих на 404, быть не должно.
Как я понимаю, в любом случае этот момент нужно уточнять с разработчиками, т.к. если ошибки связаны с изменением структуры, то тогда необходимо в тех пунктах, где указано удаление и исправление ссылок, делать 301 редирект.

Модуль 6. Базовая техническая оптимизация

Слайд 9

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 10

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 11

Разбор

Ошибка 301 редиректа решается путем подключения к сайту по протоколу FTP, затем

Разбор Ошибка 301 редиректа решается путем подключения к сайту по протоколу FTP,
в корневой категории сайта найти файл .htaccess. И добавить в файл следующий код:
RewriteRule ^aksessuary/powerbank$ /gadzhety-aksessuary/powerbank [R=301,L]

Модуль 6. Базовая техническая оптимизация

Слайд 12

Разбор

Модуль 6. Базовая техническая оптимизация

Разбор Модуль 6. Базовая техническая оптимизация

Слайд 13

Управление индексацией сайта.
Дубли и служебные страницы

Курс SEO-практик

Модуль 7

Управление индексацией сайта. Дубли и служебные страницы Курс SEO-практик Модуль 7

Слайд 14

Sitemap.xml для чего необходим и как создать

Sitemap.xml

Модуль 7. Управление индексацией сайта. Дубли

Sitemap.xml для чего необходим и как создать Sitemap.xml Модуль 7. Управление индексацией
и служебные страницы

Слайд 15

Sitemap.xml для чего необходим и как создать

Sitemap.xml
– карта сайта в формате

Sitemap.xml для чего необходим и как создать Sitemap.xml – карта сайта в
XML, которая содержит ссылки на все разделы и страницы сайта подлежащие индексации.
Альтернативное название: XML карта сайта
Файл Sitemap.xml позволяет сообщить поисковым системам о том, как организован контент на вашем сайте. Поисковые роботы просматривают этот файл, чтобы более точно индексировать ваши страницы.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 16

Sitemap.xml для чего необходим и как создать

Нужен ли файл Sitemap.xml?
Если страницы файла

Sitemap.xml для чего необходим и как создать Нужен ли файл Sitemap.xml? Если
корректно связаны друг с другом, поисковые роботы могут обнаружить большую часть материалов. Тем не менее, с помощью файла Sitemap можно оптимизировать сканирование сайта, особенно в следующих случаях:
Размер сайта очень велик. 
Сайт содержит большой архив страниц, которые не связаны друг с другом. Чтобы они были успешно просканированы, их можно перечислить в файле Sitemap.
Сайт создан недавно, и на него указывает мало ссылок. Робот Googlebot и другие поисковые роботы сканируют Интернет, переходя по ссылкам с одной страницы на другую. Если на ваш сайт указывает мало ссылок, его будет сложного найти.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 17

Sitemap.xml для чего необходим и как создать

Как создать Sitemap.xml
Генерация средствами CMS
Генерация сторонними

Sitemap.xml для чего необходим и как создать Как создать Sitemap.xml Генерация средствами
сервисами\программами
http://www.mysitemapgenerator.com/ (до 500 страниц бесплатно)
Xenu
Screaming Frog SEO Spider

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 18

Sitemap.xml для чего необходим и как создать

Модуль 7. Управление индексацией сайта. Дубли

Sitemap.xml для чего необходим и как создать Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
и служебные страницы

Слайд 19

Sitemap.xml для чего необходим и как создать

Синтаксис для Sitemap.xml
Яндекс и Google поддерживают

Sitemap.xml для чего необходим и как создать Синтаксис для Sitemap.xml Яндекс и
стандартный протокол Sitemap
https://www.sitemaps.org/ru/protocol.html

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 20

Sitemap.xml для чего необходим и как создать

Обязательные атрибуты:
- определяет стандарт протокола

Sitemap.xml для чего необходим и как создать Обязательные атрибуты: - определяет стандарт
и инкапсулирует этот файл.
- Родительский тег для каждой записи URL-адреса. Остальные теги являются дочерними для этого тега.
- URL-адрес страницы. Этот URL-адрес должен начинаться с префикса (например, HTTP) и заканчиваться косой чертой, если Ваш веб-сервер требует этого. Длина этого значения не должна превышать 2048 символов.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 21

Sitemap.xml для чего необходим и как создать

Необязательные атрибуты:
- Дата последнего изменения

Sitemap.xml для чего необходим и как создать Необязательные атрибуты: - Дата последнего
файла.
- Вероятная частота изменения этой страницы. Это значение предоставляет общую информацию для поисковых систем и может не соответствовать точно частоте сканирования этой страницы.
- Приоритетность URL относительно других URL на Вашем сайте. Допустимый диапазон значений — от 0,0 до 1,0.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 22

Sitemap.xml для чего необходим и как создать
Пример sitemap.xml
https://www.termebel.by/sitemap.xml (1)

Модуль 7. Управление индексацией

Sitemap.xml для чего необходим и как создать Пример sitemap.xml https://www.termebel.by/sitemap.xml (1) Модуль
сайта. Дубли и служебные страницы

Слайд 23

Sitemap.xml наиболее частые ошибки

Основные требования Google и Яндекса:
Используйте кодировку UTF-8.
Максимальное количество ссылок —

Sitemap.xml наиболее частые ошибки Основные требования Google и Яндекса: Используйте кодировку UTF-8.
50 000. Вы можете разделить Sitemap на несколько отдельных файлов и указать их в файле индекса Sitemap.
Указывайте ссылки на страницы только того домена, на котором будет расположен файл.
Разместите файл на том же домене, что и сайт, для которого он составлен.
При обращении к файлу сервер должен возвращать HTTP-код 200.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 24

Sitemap.xml наиболее частые ошибки

Пример: https://wilmax24.by/sitemap.xml (2)

Модуль 7. Управление индексацией сайта. Дубли

Sitemap.xml наиболее частые ошибки Пример: https://wilmax24.by/sitemap.xml (2) Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
и служебные страницы

Слайд 25

Sitemap.xml наиболее частые ошибки

Отличия:
Рекомендации Яндекса к файлу:
Поддерживает кириллические URL.
Рекомендации Google:
Поддерживает только цифры

Sitemap.xml наиболее частые ошибки Отличия: Рекомендации Яндекса к файлу: Поддерживает кириллические URL.
и латинские буквы.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 26

Sitemap.xml наиболее частые ошибки

Как сообщить поисковым системам о Sitemap.xml:
Укажите ссылку на файл

Sitemap.xml наиболее частые ошибки Как сообщить поисковым системам о Sitemap.xml: Укажите ссылку
в robots.txt
Добавить Sitemap.xml через Яндекс.Вебмастер и Google Search Console
Важно! Можно выбрать 1 из способов.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 27

Sitemap.xml наиболее частые ошибки

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Sitemap.xml наиболее частые ошибки Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 28

Sitemap.xml наиболее частые ошибки

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Sitemap.xml наиболее частые ошибки Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 29

Sitemap.xml наиболее частые ошибки

Наиболее частые ошибки:
Нет регулярной актуализации Sitemap.xml;
Содержит ссылки на 404

Sitemap.xml наиболее частые ошибки Наиболее частые ошибки: Нет регулярной актуализации Sitemap.xml; Содержит
и 301 страницы;
Содержит ссылки на страницы с ответом сервера 200, которые не подлежат индексации;
Google и Яндекс не знают о существовании sitemap.xml.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 30

Sitemap.xml наиболее частые ошибки

Частые заблуждения:
Включение URL-адреса в файл Sitemap.xml гарантирует, что он

Sitemap.xml наиболее частые ошибки Частые заблуждения: Включение URL-адреса в файл Sitemap.xml гарантирует,
будет проиндексирован;
Если удалить URL из Sitemap.xml, он будет удалён из индекса;
Sitemap.xml трудно создавать и поддерживать.
Sitemap.xml должен быть только по URL domen.by/sitemap.xml

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 31

Sitemap.xml наиболее частые ошибки

Google и Яндекс поддерживают не только формат XML для

Sitemap.xml наиболее частые ошибки Google и Яндекс поддерживают не только формат XML
Sitemap:
https://support.google.com/webmasters/answer/183668?hl=ru
https://yandex.ru/support/webmaster/controlling-robot/sitemap.html#sitemap__yandex-supported-formats

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 32

Sitemap.xml наиболее частые ошибки

Проверить корректность Sitemap.xml (синтаксис):
Если нет доступа к панелям вебмастеров

Sitemap.xml наиболее частые ошибки Проверить корректность Sitemap.xml (синтаксис): Если нет доступа к
(например, сайт еще там не зарегистрирован, либо нет к ним доступа), то можно использовать:
https://webmaster.yandex.ru/tools/sitemap/ (3) (не требует регистрации в Яндекс.Вебмастере)

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 33

Robots.txt директивы и их использование

robots.txt

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование robots.txt Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 34

Robots.txt директивы и их использование

Robots.txt 
- текстовый файл, который содержит параметры индексирования сайта

Robots.txt директивы и их использование Robots.txt - текстовый файл, который содержит параметры
для роботов поисковых систем.
Файл должен располагаться в корневом каталоге в виде обычного текстового документа и быть доступен по адресу: https://site.by/robots.txt.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 35

Robots.txt директивы и их использование

Зачем нужен файл robots.txt
Например, мы не хотим, чтобы

Robots.txt директивы и их использование Зачем нужен файл robots.txt Например, мы не
роботы поисковых систем посещали:
страницы с личной информацией пользователей на сайте;
страницы с разнообразными формами отправки информации;
страницы с результатами поиска.
Важно понимать, что закрытие страницы не является 100% гарантией того, что робот ее не проиндексирует!

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 36

Robots.txt директивы и их использование

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 37

Robots.txt директивы и их использование

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 38

Robots.txt директивы и их использование

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 39

Robots.txt директивы и их использование

Директива robots.txt
– это инструкция, которая обрабатывается роботами

Robots.txt директивы и их использование Директива robots.txt – это инструкция, которая обрабатывается
поисковых систем.
Какие директивы бывают:
User-agent
Disallow и Allow
Sitemap
Host (уже неактуальна, но часто встречается до сих пор)
Crawl-delay
Clean-param

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 40

Robots.txt директивы и их использование

User-agent 
- правило о том, каким роботам необходимо просмотреть

Robots.txt директивы и их использование User-agent - правило о том, каким роботам
инструкции, описанные в файле robots.txt.
User-agent: *
User-agent: Googlebot
User-agent: Yandex

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 41

Robots.txt директивы и их использование

Disallow: - чтобы запретить доступ робота к сайту,

Robots.txt директивы и их использование Disallow: - чтобы запретить доступ робота к
некоторым его разделам или страницам
User-agent: *
Disallow: / # блокирует доступ ко всему сайту
User-agent: *
Disallow: /bin # блокирует доступ к страницам, #начинающимся с '/bin'

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 42

Robots.txt директивы и их использование

Allow: - чтобы разрешить доступ робота к сайту,

Robots.txt директивы и их использование Allow: - чтобы разрешить доступ робота к
некоторым его разделам или страницам
User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц, начинающихся с '/cgi-bin'

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 43

Robots.txt директивы и их использование

Директивы Allow и Disallow из соответствующего User-agent блока

Robots.txt директивы и их использование Директивы Allow и Disallow из соответствующего User-agent
сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то робот выбирает последнюю в порядке появления в сортированном списке. Таким образом, порядок следования директив в файле robots.txt не влияет на использование их роботом.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 44

Robots.txt директивы и их использование

# Исходный robots.txt:
User-agent: Yandex
Allow: /
Allow: /catalog/auto
Disallow: /catalog
# Сортированный

Robots.txt директивы и их использование # Исходный robots.txt: User-agent: Yandex Allow: /
robots.txt:
User-agent: Yandex
Allow: /
Disallow: /catalog
Allow: /catalog/auto
# запрещает скачивать страницы, начинающиеся с '/catalog', но разрешает #скачивать страницы, начинающиеся с '/catalog/auto‘ и остальные.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 45

Robots.txt директивы и их использование

Директивы Allow и Disallow без параметров
User-agent: *
Disallow: #

Robots.txt директивы и их использование Директивы Allow и Disallow без параметров User-agent:
то же, что и Allow: /
User-agent: *
Allow: # не учитывается роботом

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 46

Robots.txt директивы и их использование

При указании путей директив Allow и Disallow можно

Robots.txt директивы и их использование При указании путей директив Allow и Disallow
использовать спецсимволы * и $, задавая, таким образом, определенные регулярные выражения. Спецсимвол * означает любую (в том числе и отсутствие) последовательность символов.
User-agent: *
Disallow: /cgi-bin/*.aspx # запрещает '/cgi-bin/example.aspx'
# и '/cgi-bin/private/test.aspx'
Disallow: /*private # запрещает не только '/private',
# но и '/cgi-bin/private'

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 47

Robots.txt директивы и их использование

User-agent: *
Disallow: /catalog/*.html
site.by/catalog/tv/
site.by/catalog/tv/Samsung.html
Disallow: /*tv
site.by/catalog/Tv/
site.by/catalog/tv/
site.by/catalog/smart-tv/Samsung.html

Модуль 7. Управление индексацией сайта.

Robots.txt директивы и их использование User-agent: * Disallow: /catalog/*.html site.by/catalog/tv/ site.by/catalog/tv/Samsung.html Disallow:
Дубли и служебные страницы

Слайд 48

Robots.txt директивы и их использование

По умолчанию к концу каждого правила, описанного в

Robots.txt директивы и их использование По умолчанию к концу каждого правила, описанного
файле robots.txt, приписывается спецсимвол *. Пример:
User-agent: *
Disallow: /catalog* #блокирует доступ к страницам, #начинающимся с '/catalog'
Disallow: /catalog #то же самое

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 49

Robots.txt директивы и их использование

Чтобы отменить * на конце правила, можно использовать

Robots.txt директивы и их использование Чтобы отменить * на конце правила, можно
спецсимвол $, например:
User-agent: Yandex
Disallow: /tv/$
site.by/tv/
site.by/tv/Samsung.html

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 50

Robots.txt директивы и их использование

Использование кириллицы запрещено
Для указания имен доменов используйте Punycode https://ru.wikipedia.org/wiki/Punycode
#Неверно:
User-agent:

Robots.txt директивы и их использование Использование кириллицы запрещено Для указания имен доменов
Yandex
Disallow: /корзина
#Верно:
User-agent: Yandex
Disallow: /%D0%BA%D0%BE%D1%80%D0%B7%D0%B8%D0%BD%D0%B0

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 51

Robots.txt директивы и их использование

Директива Sitemap
User-agent: *
Sitemap: http://www.example.com/sitemap.xml
Важно указывать полный путь с

Robots.txt директивы и их использование Директива Sitemap User-agent: * Sitemap: http://www.example.com/sitemap.xml Важно
указанием протокола!

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 52

Robots.txt директивы и их использование

Директива Host: ранее использовалась для указания главного зеркала

Robots.txt директивы и их использование Директива Host: ранее использовалась для указания главного
сайта, учитывалась только Яндексом. Теперь и он ее не учитывает.
User-Agent: *
Host: https://site.by

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 53

Robots.txt директивы и их использование

Директива Crawl-delay - Если сервер сильно нагружен и

Robots.txt директивы и их использование Директива Crawl-delay - Если сервер сильно нагружен
не успевает отрабатывать запросы на загрузку. Она позволяет задать поисковому роботу минимальный период времени (в секундах) между окончанием загрузки одной страницы и началом загрузки следующей.
User-agent: Yandex
Crawl-delay: 2.0 # задает таймаут в 2 секунды
Google не учитывает!

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 54

Robots.txt директивы и их использование

Директива Clean-param
- Если адреса страниц сайта содержат

Robots.txt директивы и их использование Директива Clean-param - Если адреса страниц сайта
динамические параметры, которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т. п.), вы можете описать их с помощью директивы Clean-param.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 55

Robots.txt директивы и их использование

https://webmaster.yandex.ru/tools/robotstxt/ (4)- проверка robots.txt

Модуль 7. Управление индексацией сайта.

Robots.txt директивы и их использование https://webmaster.yandex.ru/tools/robotstxt/ (4)- проверка robots.txt Модуль 7. Управление
Дубли и служебные страницы

Слайд 56

Robots.txt директивы и их использование

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 57

Robots.txt директивы и их использование

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 58

Robots.txt директивы и их использование

Модуль 7. Управление индексацией сайта. Дубли и служебные

Robots.txt директивы и их использование Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 59

Robots.txt директивы и их использование

Практическое задание

Модуль 7. Управление индексацией сайта. Дубли и

Robots.txt директивы и их использование Практическое задание Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 60

Robots.txt директивы и их использование

Для сайта https://linenmill.by (5) доработать текущий robots.txt с

Robots.txt директивы и их использование Для сайта https://linenmill.by (5) доработать текущий robots.txt
учетом необходимости закрытия следующих страниц от индексации ПС Яндекс.
https://linenmill.by/kontraktnyj-zakaz/ (a)
https://linenmill.by/author/vova/ (b)
https://linenmill.by/author/zenya/ (c)
Проверить корректность в https://webmaster.yandex.ru/tools/robotstxt/

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 61

Robots.txt директивы и их использование

Добавили в блок «User-agent: Yandex» следующие директивы:
Disallow: /kontraktnyj-zakaz/$
Disallow:

Robots.txt директивы и их использование Добавили в блок «User-agent: Yandex» следующие директивы:
/author/vova/$
Disallow: /author/zenya/$
Получили:

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 62

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 63

Базовые условия индексации документа, проверка индексации

Страница должна отдавать код ответа сервера 200

Базовые условия индексации документа, проверка индексации Страница должна отдавать код ответа сервера
ОК;
Страница не запрещена для индексирования в файле robots.txt;
Страница не является дублем другой страницы в рамках сайта;
Страница содержит полезный контент, и может быть полезна пользователям;

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 64

Базовые условия индексации документа, проверка индексации

Проверка индексации:
Информация в панелях вебсмастеров Яндекса и

Базовые условия индексации документа, проверка индексации Проверка индексации: Информация в панелях вебсмастеров
Google
Запросы с использованием операторов
url:site.by/catalog/page1.html - Яндекс для страницы
url:site.by/* - Яндекс для сайта
info:https://site.by/catalog/page1.html – Google для страницы
site:site.by – Google для сайта
Плагины для браузера, например, RDS bar

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 65

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 66

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 67

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 68

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 69

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 70

Базовые условия индексации документа, проверка индексации

Ускоряем индексацию:
Индексирование -> Переобход страниц (в Яндекс.Вебмастер)
Сканирование

Базовые условия индексации документа, проверка индексации Ускоряем индексацию: Индексирование -> Переобход страниц
-> Просмотреть как Googlebot (в Google Search Console)

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 71

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 72

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 73

Базовые условия индексации документа, проверка индексации

Модуль 7. Управление индексацией сайта. Дубли и

Базовые условия индексации документа, проверка индексации Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 74

Сохраненная копия

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Сохраненная копия Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 75

Сохраненная копия

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Сохраненная копия Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 76

Полные и частичные дубли: методы борьбы

Модуль 7. Управление индексацией сайта. Дубли и

Полные и частичные дубли: методы борьбы Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 77

Полные и частичные дубли: методы борьбы

Дубли 
-это отдельные страницы сайта, контент которых полностью

Полные и частичные дубли: методы борьбы Дубли -это отдельные страницы сайта, контент
или частично совпадает. По сути, это копии всей страницы или ее определенной части, доступные по уникальным URL-адресам.
Дубли страниц очень опасны с точки зрения SEO. Они критично воспринимаются поисковыми системами и могут привести к серьезным потерям. Чтобы этого избежать, важно вовремя находить и удалять такие дубли.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 78

Полные и частичные дубли: методы борьбы

Откуда могут появляться дубли:
Автоматическая генерация дублирующих страниц

Полные и частичные дубли: методы борьбы Откуда могут появляться дубли: Автоматическая генерация
движком системой управления содержимым сайта (CMS) веб-ресурса (технические дубли).
Ошибки, допущенные вебмастерами. Например, когда один и тот же товар представлен в нескольких категориях и доступен по разным URL.
Изменение структуры сайта, когда уже существующим страницам присваиваются новые адреса, но при этом сохраняются их дубли со старыми адресами. 

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 79

Полные и частичные дубли: методы борьбы

Полные дубли - это страницы с идентичным

Полные и частичные дубли: методы борьбы Полные дубли - это страницы с
содержимым, доступны по уникальным, неодинаковым адресам.
URL-адреса страниц со слешами («/», «//», «///») и без них
site.by/catalog/page, site.by/catalog///page, site.by/catalog/page/
HTTP и HTTPS страницы
https//site.by и http//site.by
URL-адреса с «www» и без «www»
http//www.site.net и http//site.net.
Метод борьбы: 301 редиректы

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 80

Полные и частичные дубли: методы борьбы

http://satelit.by/catalogs/asus (6)
http://satelit.by/catalogs/asus/
http://satelit.by/catalogs////asus (7)

Модуль 7. Управление индексацией

Полные и частичные дубли: методы борьбы http://satelit.by/catalogs/asus (6) http://satelit.by/catalogs/asus/ http://satelit.by/catalogs////asus (7) Модуль
сайта. Дубли и служебные страницы

Слайд 81

Полные и частичные дубли: методы борьбы

URL-адреса страниц с index.php, index.html, default.asp, default.aspx,

Полные и частичные дубли: методы борьбы URL-адреса страниц с index.php, index.html, default.asp,
home, home.php, main.php и т.д.:
http://site.by/index.html
http://site.by/index.php
http://site.by/home
http://site.by/catalog/index.html
http://site.by/main.php
http://site.by/index.php/category
Метод борьбы: 301 редиректы или закрытие в robots.txt

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 82

Полные и частичные дубли: методы борьбы

http://satelit.by/index.php/catalogs/asus/ (8)

Модуль 7. Управление индексацией сайта. Дубли

Полные и частичные дубли: методы борьбы http://satelit.by/index.php/catalogs/asus/ (8) Модуль 7. Управление индексацией
и служебные страницы

Слайд 83

Полные и частичные дубли: методы борьбы

URL-адреса страниц в верхнем и нижнем регистрах:
http://site.net/example/
http://site.net/EXAMPLE/
http://site.net/Example/
Метод

Полные и частичные дубли: методы борьбы URL-адреса страниц в верхнем и нижнем
борьбы: 301 редиректы
http://satelit.by/catalogs/ASUS (9)

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 84

Полные и частичные дубли: методы борьбы

Изменения в иерархической структуре URL. Например, если

Полные и частичные дубли: методы борьбы Изменения в иерархической структуре URL. Например,
товар доступен по нескольким разным URL:
http://site.by/catalog/podcatalog/tovar
http://site.by/catalog/tovar
http://site.by/tovar
http://site.by/dir/tovar
Метод борьбы: ТЗ программисту – товар должен быть доступен только по 1 URL!
301 редирект для уже проиндексированных дублей (если готовы найти)

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 85

Полные и частичные дубли: методы борьбы

https://www.mitsubishielectric.kz/catalog/wall-conditioning/wall-type/series-premium/1085-premium-inverter-msz-ln60vgw/ (10)
https://www.mitsubishielectric.kz/catalog/wall-conditioning/wall-type/1085-premium-inverter-msz-ln60vgw/

Модуль 7. Управление индексацией сайта.

Полные и частичные дубли: методы борьбы https://www.mitsubishielectric.kz/catalog/wall-conditioning/wall-type/series-premium/1085-premium-inverter-msz-ln60vgw/ (10) https://www.mitsubishielectric.kz/catalog/wall-conditioning/wall-type/1085-premium-inverter-msz-ln60vgw/ Модуль 7. Управление
Дубли и служебные страницы

Слайд 86

Полные и частичные дубли: методы борьбы

Дополнительные параметры и метки в URL.
Наличие меток

Полные и частичные дубли: методы борьбы Дополнительные параметры и метки в URL.
utm, gclid, yclid и любых других динамических параметров.
http://site.by/?gclid=CjwKCAjw75HW
http://site.by/catalog/?utm_source=yandex&utm_medium=cpc
Метод борьбы: закрытие в robots.txt

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 87

Полные и частичные дубли: методы борьбы

Первая страница пагинации каталога товаров интернет-магазина или

Полные и частичные дубли: методы борьбы Первая страница пагинации каталога товаров интернет-магазина
доски объявлений, блога. Она зачастую соответствует странице категории или общей странице раздела pageall:
http://site.net/catalog
http://site.net/catalog/page1
http://site.net/catalog/?page=1
https://fd-mebel.by/gostinye/ (11)
https://fd-mebel.by/gostinye/?page=1
Метод борьбы: 301 редирект или закрытие в robots.txt

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 88

Полные и частичные дубли: методы борьбы

Неправильные настройки 404 ошибки
http://site.net/catalog
http://site.net/catalog/asdasdadkjnwefhblsdkfmkldf
Метод борьбы: ТЗ программистам

Полные и частичные дубли: методы борьбы Неправильные настройки 404 ошибки http://site.net/catalog http://site.net/catalog/asdasdadkjnwefhblsdkfmkldf
на корректную обработку несуществующих URL
http://sumki-opt.by/catalog/ (12)
http://sumki-opt.by/catalog/asdasd

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 89

Полные и частичные дубли: методы борьбы

Частичные дубли - в частично дублирующихся страницах

Полные и частичные дубли: методы борьбы Частичные дубли - в частично дублирующихся
контент одинаковый, но есть небольшие отличия в элементах.
Дубли на страницах фильтров, сортировок, где есть похожее содержимое и меняется только порядок размещения. При этом текст описания и заголовки не меняются.
https://kemping.by/catalog/turizm/palatki/ (13)
https://kemping.by/catalog/turizm/palatki/?sort=PRICE&order=desc
Метод борьбы: закрытие в robots.txt

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 90

Полные и частичные дубли: методы борьбы

Дубли на страницах для печати или для

Полные и частичные дубли: методы борьбы Дубли на страницах для печати или
скачивания, основные данные которых полностью соответствуют основным страницам.
Метод борьбы: закрытие в robots.txt
https://www.21vek.by/washing_machines/iwsb51051by_indesit.html (14)
https://www.21vek.by/washing_machines/iwsb51051by_indesit.html?print

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 91

Полные и частичные дубли: методы борьбы

Страницы пагинации (кроме первой)
ТЗ программистам: Уникализация title,

Полные и частичные дубли: методы борьбы Страницы пагинации (кроме первой) ТЗ программистам:
description по шаблону, текст описания для категории должен выводиться только на первой странице (категорийная страница).
https://fd-mebel.by/gostinye/ (15)
https://fd-mebel.by/gostinye/?page=2

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 92

Полные и частичные дубли: методы борьбы

Часто решение проблемы кроется в настройке самого

Полные и частичные дубли: методы борьбы Часто решение проблемы кроется в настройке
движка, а потому основной задачей оптимизатора является не столько устранение, сколько выявление полного списка частичных и полных дублей и постановке грамотного ТЗ исполнителю.
https://2ip.ru/cms/ - определение CMS

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 93

Служебные (мусорные) страницы

Служебные (мусорные) страницы:

Модуль 7. Управление индексацией сайта. Дубли и служебные

Служебные (мусорные) страницы Служебные (мусорные) страницы: Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
страницы

Слайд 94

Служебные\мусорные страницы

Служебные страницы:
Корзина
Регистрация
Личный кабинет
Вход в администраторскую часть
Результаты поиска по сайту
Технические страницы
Тестовые страницы

Служебные\мусорные страницы Служебные страницы: Корзина Регистрация Личный кабинет Вход в администраторскую часть
и т.д.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы

Слайд 95

Служебные (мусорные) страницы
Что с ними делаем?

Модуль 7. Управление индексацией сайта. Дубли и

Служебные (мусорные) страницы Что с ними делаем? Модуль 7. Управление индексацией сайта. Дубли и служебные страницы
служебные страницы

Слайд 96

Задание для самостоятельного выполнения

Проанализируйте сайт http://it-m.by
найдите дубли, определите их тип – полные

Задание для самостоятельного выполнения Проанализируйте сайт http://it-m.by найдите дубли, определите их тип
или частичные;
найдите служебные\мусорные страницы;
составьте файл robots.txt в котором найденные дубли и служебные\мусорные страницы будут закрыты от индексации.

Модуль 7. Управление индексацией сайта. Дубли и служебные страницы