Правильный robots.txt для LibArea
Nikita
23 Октября 2023
Кто использует данный движок для сайтов, поделитесь кто как настраивает robots.txt.
Хотелось бы увидить наилучший вариант.
Сандартный из коробки выглядит следующим обазом:
User-agent: *
Disallow: /search
Disallow: /oauth
Disallow: /recover
Disallow: /top
Disallow: /all
Disallow: /s/*/top*
Disallow: /s/flud/*
Disallow: /page/*
Disallow: /*/page/*
Disallow: /page
Disallow: /web/edit/*
Disallow: /web/github/*
Disallow: /web/forum/*
Disallow: /web/portal/*
Disallow: /web/reference/*
Disallow: /web/blog/*
Disallow: /rss-feed/*
Disallow: /*?*
Тут конечно многое убрать нужно, то что косается web, ну тут уже конечно все индивидуально под каждый проект.
У меня же вопрос по:
Disallow: /top
Disallow: /all
Так понимаю мы их закрывам от индексации, чтобы небыло дублей в поиске?
4
282
Чуток пост подправил, кодом выделил. По поводу
/top
и/all
: вы можете открыть у себя, это не особо критично. Просто на этом сайте у меня политика такая: минимально давать в поиск. Эти страницы не нужны, они дублируют контент.Если вы убираете каталог, то и строчки с
/web
можно удалить.Не ну если они будут дублировать контент, то конечно нужно закрывать, я вот про это и спрашивал! Знаю что дубли плохо влияют на сайты, еще с тех пор, когда на WP метками баловался и не закрывал от индексации их!
Насчет каталога, то думаю его стоит закрывать, так как в нем имеются ссылки, хотя посмотрел и ссылки как я понимаю обернуты в
nofollow noreferrer ugc
.