09.00 до 20.00 7 дней в неделю
Москва и другие+7 (499) 110-43-51
Новости и статьи по созданию, раскрутке, продвижению, оптимизации сайтов в поисковых системах, а так же полезные советы и раскрутка в социальных сетях.
By accepting you will be accessing a service provided by a third-party external to https://krutim-all.ru/
Robots.txt файл который лежит в корне сайта и указывает поисковым роботам какие разделы сайта запрещены к индексации. Полное описание что такое robot.txt вы уже узнали из нашей статьи и по этому мы перейдем к его настройке для того, что бы Вы могли понимать как это делается и для чего это нужно.
В первую очередь перед открытием сайта необходимо произвести его seo оптимизацию и одним пунктом из оптимизации является настройка файла robots.txt. Файл robots.txt содержит определенные правила:
Пример правильного файла robot.txt:
{jllikelock}
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /links/
User-agent: Yandex
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /links/
Host: krutim-all.ru
Sitemap: http://krutim-all.ru/sitemap.xml
{/jllikelock}
Обратите внимание, что данный текст пример правильной настройки и это не значит что он подойдет для Вашего сайта. В примере вы можете рассмотреть как правильно заполняется данный файл, где нужны пробелы и пустые строки и т.п. а так же можете скачать данный файл что бы редактировать уже по готовому. Настройки Вашего собственного файла robots.txt Вы легко можете определить самостоятельно просмотрев весь сайт и закрыть к индексации ненужные страницы и каталоги. Для примера Вы можете прочитать нашу статью "Дубли страниц сайта" и понять почему нужно закрывать к индексации страницы сайта и какие из них нужно закрывать.
Имена роботов поисковых систем:
Если Вам необходима индексация всеми поисковыми системами просто укажите «*»:
С помощью специальных символов можно использовать регулярные выражения.
Символ * означает любую последовательность (так же пустую).
Символ $ ставиться для отмены символа *, идущего по умолчанию.
Запрещаем к индексации на сайте файлы с расширением .rar:
User-Agent: *
Disallow: *.rar$
Теперь запрещаем к индексации картинки форматов .png и .ico в разделе /katalog, и страницу /files/:
User-Agent: *
Disallow: /katalog*.png
Disallow: /katalog*.ico
Disallow: /files/$
Дерективы будут работать для всех поисковых роботов. Если, нужно запретить к индексации картинки с сайта роботом Яндекса и разрешить индексировать текст, то в этом случае нужно для отдельных поисковых роботов одной поисковой системы писать свои правила.
На этом закончим статью и теперь Вы самостоятельно сможете настроить файл robots.txt, а если у Вас остались вопросы или Вы в замешательстве, что закрывать, а что не нужно напишите нам и мы с радостью поможем Вам абсолютно бесплатно!
Помните, что грамотная настройка файла robots.txt напрямую влияет на последующие продвижение сайта.