Форум программистов, компьютерный форум, киберфорум
Наши страницы
SETI25
Войти
Регистрация
Восстановить пароль
Оценить эту запись

Ускорение обработки данных в boinc-проектах

Запись от SETI25 размещена 15.02.2020 в 07:43

Ускорение обработки данных в boinc-проектах
Как известно, пожалуй, главной особенностью boinc-проектов, да и грид-систем в целом, остается малая связанность обрабатываемых задач и сильная их зависимость от режимов работы удаленных компьютеров, на которых по различным причинам обрабатываемые задания могут "зависать" на длительное время. В результате замедляется и общий ход вычислений проекта (пока пройдет время дедлайна, пока новая копия недообработанного задания отошлется новому расчетчику, пока оно посчитается и вернется ...). В общем, при многих сотнях или тысячах компьютеров это может оказаться серьезной проблемой.
Одним из способов решения часто предлагается учитывать надежность хостов. Т.е. тем хостам, которые более стабильно и быстро просчитывают и возвращают задания отсылать новые порции в первую очередь и в большем количестве. Мне помнится, что эту тему обсуждали и даже в каком-то (вроде бы полу ручном) виде реализовывали толи в SAT, то ли в Герасиме.
Вот на подобное обсуждение наткнулся на форуме проекта SETI@home beta. И было это еще в 2013-м году.
Можно ли учесть при отправке повторных заданий репутацию хоста (например, репутацию выдающего действительного результата и скорость, с которой он обычно отправляет результаты), а также повторную отправку осуществлять, прежде всего, хостам с самой высокой репутацией?
Часто в базе данных висят результаты на многие недели или даже месяцы, ожидая хостов, которые никогда не отсылают результат. Затем он истекает и отправляется снова, и часто снова отправляется хосту, который в лучшем случае отправит его обратно через пару недель, или, в худшем случае, никогда больше не услышит. Тогда цикл начинается сначала ...
Наличие хостов с высокой репутацией надежности в качестве первичных хостов повторной отправки, вероятно, уменьшит спрос на базу данных, а также размер базы данных, поскольку не будет слишком много задач одновременно.
Тема почему-то не получила особого развития, там всего один ответ:
Я должен согласиться с вами в этом. Это следует использовать здесь, в бета-версии и на основной SETI. Это определенно помогло бы постоянно растущей проблеме с таблицами базы данных, которая у них была нередко.
Еще одна вещь, которая помогла бы решить проблемы с базой данных, заключалась бы в сокращении времени первоначального оборота (крайнего срока) до 14 дней для новых задач и 7 дней для всех повторных отправлений. Я не знаю ни одного другого проекта с таким длительным сроком, как SETI.
Я знаю, что BoincSIMAP использовал надежные хосты для повторной отправки. Повторно отправленные задачи отправляются как высокоприоритетные, поэтому они передаются на передний план для обработки.
Тут упоминается реализация подобного алгоритма в проекте SIMAP. Кто-то в курсе как это работало и где еще применяется подобный подход? Или он по каким-то причинам неэффективен и не нашел своей реализации?
Могу сказать следующее:
1. Когда все результаты приходят быстро, без задержек - то это облечает работу с ними: позволяет раньше "закрыть" очередной диапазон, начать постобработку, меньше потребляется места на томе и т.д. Это действительно очень удобно;
2. Но теория вероятности потому и работает, что из 16000 workunit-ов с хотя бы одним заданием у штук 200-300 - что-нибудь да произойдёт. Участник может добавить новый проект, из-за чего BOINC начнёт первые несколько дней отдавать его заданиям наибольший приоритет, а когда статистика по времени работы разных проектов - выравняется и дело дойдёт до ранее полученных заданий - компьютер окажется выключенным на пару-тройку дней. Или пропадёт сеть, или сломается HDD и т.д.;
3. Все перечисленные выше проблемы - могут быть абсолютно внезапными, у компьютеров, которые ранее демонстрировали огромную надёжность. Например - как с первыми 3 узлами Shmya Cluster, которые просто оказались отключенными от сети. Поэтому, на мой взгляд, вводить коэффициенты надёжности и т.п. - не имеет особого смысла, так как всё можно сделать проще;
4. Насколько мы видели в RakeSearch - основная проблема не в том, что кто-то не вернул результат, а в том, что в некоторых workunit-ах не возвращается не один, а два, три, четыре и даже больше результатов. Вероятность того, что отдельно взятый workunit станет таким невезучим - очень мала, но даже среди 16000 - таких наибрается около 10-15 штук. И именно от того, насколько быстро будут обработаны результаты к вот таким "невезучим" workunit-ам и зависит то, насколько быстро будет закрыт очередной диапазон;
5. Ну а коли так, что всё просто - после того, как выпускается первая партия заданий к workunit-у (т.е. initial quorum), атрибут delay_bound для такого, workunit-а - меняется с 7 дней на 3 и всё - все дополнительные задания будут уже выпускаться с маленьким deadline-ом и обрабатываться намного быстрее (как только на BOINC-клиенте появляется задание с deadline-ом в 3 дня, то, как правило, он сразу же начинает его считать). Делается это просто, буквально одним sh+SQL скриптом. Так как workunit-ов, к которым требуется выпускать дополнительные задания - немного, что такие "экспресс-задания" будут растворяться в общей массе и не будут как-то ощутимо нарушать порядок вычисления других заданий на компьютере. Подобный эксперимент мы некорое время проводили в RakeSearch, во время поиска R9, когда хотели навести некоторый порядок в ещё незакрытых диапазонах. Возможно, что мы ещё вернёмся к этой практике, благо уже есть некоторая статистика уже именно в рамках поиска R10 и будет с чем сравнить.

Нажмите на изображение для увеличения
Название: boinc.png
Просмотров: 148
Размер:	32.6 Кб
ID:	5922

Название: boinc_ru_logo.gif
Просмотров: 24

Размер: 3.7 Кб
Размещено в Без категории
Просмотров 60 Комментарии 0
Всего комментариев 0
Комментарии
 
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2020, vBulletin Solutions, Inc.