duvott
1

Стоит ли запретить в robots.txt индексацию тегов?

27.10.2010, 21:49. Показов 4769. Ответов 4
Метки нет (Все метки)

Author24 — интернет-сервис помощи студентам
Занялся внутренней оптимизацией своего сайта. Сайт на Друпале. В структуре сайта много страниц (ок. 10%) это страницы тегов, или терминов таксономии, как они в Друпале называются. Поскольку каждой странице контента присваивается несколько тегов, страницы тегов плодятся со страшной силой.

Стоит ли запретить в robots.txt индексацию тегов? Ведь ПС могут воспринимать их как дубли контента. Действительно ли теги серьезно негативно сказываются на сайте в плане SEO? Правда, есть сомнения: теги и вообще таксономия в Друпале это же и перелинковка.

Как скажется запрет индексации тегов? Станет ли сайт «лучше» с точки зрения ПС? Или не стоит этого делать?
Programming
Эксперт
94731 / 64177 / 26122
Регистрация: 12.04.2006
Сообщений: 116,782
27.10.2010, 21:49
Ответы с готовыми решениями:

Как запретить в robots индексацию поисковиками страниц каталога кроме первой, чтобы не индексировало 2,3,4. страницы?
Как запретить в robots индексацию поисковиками страниц каталога кроме первой, чтобы не...

Robots.txt запрет на индексацию
Hi! Как запретить индексировать ПС весь сайт за исключением некоторых отдельных страниц/разделов?...

Как в robots.txt запретить индексацию страниц
Уважаемые специалисты! Подскажите, как в robots.txt запретить индексацию страниц, к примеру,...

Запретить 2 страницы от индексации Яндесам в robots.txt
Подскажите как в файле robots.txt запретить уже проиндексированные страницы яндексам? Сейчас в...

4
Регистрация: 11.12.2005
Сообщений: 4,924
27.10.2010, 23:25 2
обязательно
0
duvott
27.10.2010, 23:40 3
Вы так категорично и односложно ответили, спасибо. Если можно, поясните. Стоит ли ждать реального положительного эффекта от запрета индексации тегов? Просто сайт живет и с ними, но хотим жить лучше.
И страшновато: не обвалимся, разом убрав из индекса того же Яндекса (кормильца-поильца) сразу так много страниц?
Регистрация: 10.09.2005
Сообщений: 3,427
27.10.2010, 23:54 4
Закройте, подождите 2 месяца, следите за результатом.
0
бухголдир
29.10.2010, 00:08 5
Можно и не запрещать.
29.10.2010, 00:08
IT_Exp
Эксперт
87844 / 49110 / 22898
Регистрация: 17.06.2006
Сообщений: 92,604
29.10.2010, 00:08
Помогаю со студенческими работами здесь

Стоит ли скрывать robots txt или нет? Если стоит, то как это надо правильно сделать?
Ребят, если стоит скрывать роботс, то скажите как это сделать, особо толком ничего не нашел в...

Robots.txt стоит ли закрывать от индексации файлы js?
Привет всем! Тема наверняка избита, но тем не менее. На сколько я в курсе, js скрывать от...

Запрет тегов в robots
Здравствуйте. Не пойму, в чем косяк. У меня вот такой роботс для гугла User-Agent: * Disallow:...

как запретить индексацию страниц?
заранее прошу прошения что не нашол на форуме уверен ответы уже есть просто очень срочно ...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
5
Ответ Создать тему
Опции темы

КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2024, CyberForum.ru