12 / 12 / 1
Регистрация: 16.07.2012
Сообщений: 710
|
|
1 | |
Как закрыть доступ поисковых роботов к папке сайта?26.10.2019, 14:40. Показов 2165. Ответов 9
Добрый день.
Еще несколько лет назад меня предупреждали, что робот может заходить в папки на хостинге, не смотря на запрет в robots.txt. Сейчас на это есть реальные доказательства. Вебмастер Гугла напрямую пишет, что проиндексировал страницу, несмотря на запрет индексации. Мне необходимо закрыть папку с .css для роботов. Как закрыть для роботов доступ в папку /css, но чтобы при просмотре страницы через браузер её содержимое корректно отображалось? Заранее благодарен за помощь.
__________________
Помощь в написании контрольных, курсовых и дипломных работ, диссертаций здесь
0
|
|
26.10.2019, 14:40 | |
Ответы с готовыми решениями:
9
как в ВИНД 2003 энтерпрайз эдишен закрыть доступ к общей папке что бы заходили только локально
Как закрыть доступ к дублям корня сайта? Отслеживание поисковых роботов |
![]() ![]() 12379 / 7219 / 757
Регистрация: 09.09.2009
Сообщений: 28,176
|
|
26.10.2019, 15:01 | 2 |
0
|
12 / 12 / 1
Регистрация: 16.07.2012
Сообщений: 710
|
||||||
26.10.2019, 15:14 [ТС] | 3 | |||||
Эта статья показывает, как заблокировать доступ, когда известны IP или кто (в данном случае робот) заходит.
Может быть есть возможность сделать так, чтобы со страницы вводился автоматически пароль для доступа к папке? Например на странице написано:
Так возможно?
0
|
12 / 12 / 1
Регистрация: 16.07.2012
Сообщений: 710
|
|
01.11.2019, 20:10 [ТС] | 5 |
робот может заходить в папки на хостинге, не смотря на запрет в robots.txt - в этом и суть темы
0
|
![]() ![]() 12379 / 7219 / 757
Регистрация: 09.09.2009
Сообщений: 28,176
|
|
01.11.2019, 20:26 | 6 |
код из файла .htaccess
Код
SetEnvIfNoCase User-Agent "^libwww-perl" bad_user SetEnvIfNoCase User-Agent "^python-requests" bad_user Deny from env=bad_user Код
185.53.88.92 - - [28/Oct/2019:06:40:37 +0200] "GET //admin/config.php HTTP/1.1" 403 457 "-" "libwww-perl/6.39" 185.53.88.92 - - [27/Oct/2019:13:25:41 +0200] "GET /about.php HTTP/1.1" 403 3770 "-" "python-requests/2.6.0 CPython/2.7.5 Linux/3.10.0-1062.1.2.el7.x86_64" зы. а "суть темы" в том, что некоторым не помогает "просто пинок в направлении", им нужно, чтобы за них все сделал кто-то другой...
0
|
12 / 12 / 1
Регистрация: 16.07.2012
Сообщений: 710
|
|
01.11.2019, 21:19 [ТС] | 7 |
Правильно ли я понимаю: если, например, гугловский бот "назовётся" по-другому, а не явно, что он гугловский, то и деректива не сработает?
0
|
12 / 12 / 1
Регистрация: 16.07.2012
Сообщений: 710
|
|
02.11.2019, 18:46 [ТС] | 9 |
0
|
![]() ![]() 12379 / 7219 / 757
Регистрация: 09.09.2009
Сообщений: 28,176
|
|
02.11.2019, 18:56 | 10 |
перечислить ботов, обозвать их бед-юзерами, и запретить им доступ. всех делов
если же бот с какого-то горяча начнет называться не своим родным юзерагентом, то он получит доступ правда, человеческие боты кэгэбистскими заморочками не страдают обычно, и как керенский в женские платья не переодеваются
0
|
02.11.2019, 18:56 | |
Помогаю со студенческими работами здесь
10
Закрыть доступ к расшаренной папке Windows 2000 закрыть доступ к папке... Открыть\закрыть доступ к папке файлу Язык для разработки поисковых роботов Искать еще темы с ответами Или воспользуйтесь поиском по форуму: |