Содержание
- 2. Что такое robots.txt Файл robots.txt – основной инструмент, с помощью которого вебмастер может управлять индексацией сайта
- 3. Зачем запрещать индексацию? Как правило, запрещают индексацию неинформативных и служебных страниц Версии для печати Формы регистрации,
- 4. История протокола исключений В начале 90-х годов участились случаи, когда роботы вызывали сбои в работе веб-серверов
- 5. Выбор имени файла Имя файла должно соответствовать основным критериям к именованиям файлов в большинстве операционных систем.
- 6. Формат файла robots.txt Файл robots.txt должен находиться в корневой директории домена или поддомена Имя файла регистрозависимое
- 7. Пример файла robots.txt # Start User-agent: Googlebot User-agent: StackRambler Disallow: /dir Disallow: /file.htm User-agent: * Disallow:
- 8. Нестандартные директивы Директива Crawl-delay (Yahoo и MSN) – время в секундах между запросами робота. Директива Allow
- 9. Пример файла robots.txt User-agent: msnbot-media User-agent: Googlebot-Image User-agent: Yahoo-MMCrawler Disallow: / User-agent: Yandex Disallow: /Messages.asp?sort= Host:
- 10. Резюме Создавать robots.txt для каждого домен и поддомена сайта Создавать запись для всех остальных роботов (User-agent:
- 12. Скачать презентацию