Форум программистов, компьютерный форум, киберфорум
C#: Web, ASP.NET
Войти
Регистрация
Восстановить пароль
Карта форума Темы раздела Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.56/9: Рейтинг темы: голосов - 9, средняя оценка - 4.56
0 / 2 / 3
Регистрация: 27.03.2012
1

Убийство оффлайн-браузеров

06.05.2007, 13:56. Показов 1728. Ответов 9
Метки нет (Все метки)

Author24 — интернет-сервис помощи студентам
Кто-нибудь занимался проблемой 'убийства юзеров', которые пытаются скачать сайт при помощи, например, TeleportPro и прочих гадких штучек? Поделитесь, плз, дельным советом!
0
Programming
Эксперт
94731 / 64177 / 26122
Регистрация: 12.04.2006
Сообщений: 116,782
06.05.2007, 13:56
Ответы с готовыми решениями:

Скрытые процессы браузеров в диспетчере. Все ярлыки браузеров с ссылками на запуск скриптов
И снова добрый день! Всех с праздниками. Отчет прилагаю: Помогите разобраться, заранее спасибо!)

Убийство
Мужчину находят убитым в его кабинете. Тело мужчины наклонено над письменным столом, в руке зажат...

Убийство процессов
Всем привет. Возник воппрос - как убивать процесс? Запускать-то Process.start а убивать как?

Совершали ли вы убийство ?
Если честно - то вы совершали убийство? Кошки, собаки и прочая дрянь не в счет.

9
Sergik
06.05.2007, 14:48 2
Я этим не занимался, но мне кажется, что когда такая программа запрашивает очередную страницу, то в заголовке HTTP-User-Agent должно содержаться ее имя
0 / 0 / 0
Регистрация: 03.05.2007
Сообщений: 15
06.05.2007, 15:17 3
Заголовок USER AGENT не обязательно содержит имя программы, некоторые (забыл название, но одна программулина делала это при мне) в юзер агенте пишет стандартную Мозиллу. Есть еще один способ - через HTTP_REFERER, то есть отлавливать те заходы на страницы, которые были сделаны не с главной (или еще какой-то, где есть линк на данную) страницы. Но тут тоже есть противоречие - если кто-то решил добавить в Bookmarks или просто запомнил URL страницы, то поле HTTP_REFERER также будет пусто.
P.S. А вообще почему такая неприязнь к оффлайн-браузингу?
0
0 / 2 / 3
Регистрация: 27.03.2012
06.05.2007, 17:21 4
> то в заголовке HTTP-User-Agent должно
> содержаться ее имя

> в юзер агенте пишет стандартную Мозиллу

Как раз Teleport и позволяет так сделать

> те заходы на страницы, которые были сделаны не
> с главной (или еще какой-то, где есть линк на
> данную) страницы.

это не подходит, хотя может быть и есть в этом изюминка пусть пользователь сходит на первую страницу, а потом сам добирается до нужной? :-)

> P.S. А вообще почему такая неприязнь к
> оффлайн-браузингу?

Грузят сервер беспричинными запросами, потому и неприязнь.

Еще есть идеи?
0
0 / 0 / 0
Регистрация: 03.05.2007
Сообщений: 15
06.05.2007, 18:38 5
Есть еще один радикальный выход - через яваскриптовский onclick, т.е. вместо обычных ссылок сделать яваскриптовские. Но те, у кого яваскрипт отключен, дальше стартовой страницы не уйдут
0
0 / 0 / 0
Регистрация: 03.03.2007
Сообщений: 140
07.05.2007, 16:52 6
Учти, что при этом ты можешь запретить и работу всех поисковых роботов (которые действуют аналогичным образом) и твои страницы не будут искаться на поисковых сайтах (или не будут обновляться)
0
Sergik
07.05.2007, 17:43 7
Чисто теоретически:
1) пользователь не может почти одновременно запрашивать около десятка страниц, если он это делает, значит это офф-лайн браузер
2) можно сделать в начале страницы 'невидимую' ссылку (под цвет фона или пустую), если пользователь по ней перешел - значит это офф-лайн браузер; тем более, если запретить роботам индексировать эту страницу
0 / 2 / 3
Регистрация: 27.03.2012
07.05.2007, 17:56 8
Теория, конечно, штука полезная, только меня интересует практическая сторона данного вопроса и желательно уже проверенная ;-)
0
Sergik
07.05.2007, 18:51 9
Насчет проверенного сказать ничего не могу..
Чисто практически ;-)
Делаешь в самом начале страницы невидимую ссылку;
Если кто-то обратился к этой странице (надо сделать так, что в течении, например, одной минуты ему не давать доступ к сайту):
1) запоминаешь IP и время,
2) обрубаешь сессию,
3) в global.asa на сессион_старт вешаешь проверку:
3.1. если IP засвеченный и если минута не прошла, то обрубаешь сессию, иначе пускаешь дальше
4) в корне сайта делаешь файл robot.txt
5) в нем запрещаешь роботам индексировать 'спрятанную' страницу (можно и через META, но тогда проверять обращение к странице придется по-хитрому, например, спрятать внутри 'спрятанной' страницы 'спрятанное' изображение и уже на его запрос начинать принимать меры :-))
Ну вот! Осталось одна проблема: где хранить запомненное время и IP, несколько вариантов: в Application хранить массив, в БД, не обрубать ему сессию, а всегда редиректить на www.disney.com (например, опираясь на флаг в той же сессии), возвращать ему статус не-200, отправить его на страницу с бесконечным редиректом, закачать ему вирус по почте и т.п. ;-)
0 / 2 / 3
Регистрация: 27.03.2012
07.05.2007, 20:00 10
Ладно, идея довольно интересная, особенно 'вирус по почте', но я остановился пока на проверке 'Агента' в Session_OnStart... - так менее навороченно.
0
07.05.2007, 20:00
IT_Exp
Эксперт
87844 / 49110 / 22898
Регистрация: 17.06.2006
Сообщений: 92,604
07.05.2007, 20:00
Помогаю со студенческими работами здесь

Убийство дескриптора
Всем доброго времени суток. Перейду к делу. В общем столкнулся с следующей проблемой. ...

Убийство процесса
Как убить (закрыть) процесс программы/игры по Caption?

Убийство потоков
for (int j = 0; j < 10; j++) Task.Factory.StartNew(() => Start()); ...

Удалённое убийство процесса
Помогите выполнить данную команду удалённо. --- taskkill /f /fi "windowtitle eq All-CS 1.6 Final"...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
10
Ответ Создать тему
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2024, CyberForum.ru