0 / 0 / 0
Регистрация: 21.06.2014
Сообщений: 90
|
|
1 | |
Обьем исторических данных для генетического алгоритма02.09.2014, 00:11. Показов 568. Ответов 1
Метки нет (Все метки)
Здравствуйте!
Возникла пара вопросов: 1. Как успешно настроить мат-модель с помощью генетического алгоритма, если исторических данных мало, обычно для ГА требуется чем больше данных тем лучше, но если нет такой возможности, есть мало данных, зато самые последние и актуальные. Делить выборку на: тестовую, проверочную получается, но объем данных небольшой, как быть в этом случае? 2. Нужно ли проводить предобработку данных, перед подачей на ГА, нужно ли их фильтровать? Если да, то каким образом лучше всего это делать? 3. Какой процент настройки для ГА по историческим данным будет оптимальный чтобы мат-модель не переобучилась? Спасибо за ответы.
0
|
02.09.2014, 00:11 | |
Ответы с готовыми решениями:
1
Обучение генетического алгоритма Правильная организация хранения исторических данных для существующей БД Минимизировать функцию с использованием генетического алгоритма Визуализация генетического алгоритма движения к цели |
1487 / 1414 / 240
Регистрация: 19.02.2010
Сообщений: 3,918
|
|
07.09.2014, 21:55 | 2 |
Всё зависит от модели (от её сложности или от сложности аппроксимируемой моделью зависимости), а не от ГА.
ГА - это просто некоторый возможный способ подбора значений коэффициентов. Можно искусственно расширить выборку - каждый исходный пример продублировать, добавив в него (в его независимые признаки) небольшие случайные искажения. Т.е. к точке (вектору в многомерном пространстве) добавить ещё и сколько-то там точек, лежащих не далее чем на некоторое малое расстояние от исходного. Другой вариант - включить мозги и посмотреть, насколько можно размножить примеры "зеркалированием" или подобными способами генерации "подсказок" (hints - буржуинский термин для этого дела, а конкретнее см докторскую диссертацию Ясера Абу-Мостафы "Learning from hints" (ну или докторская называлась как-то похоже, а указанной фразой называлась его журнальная статья)). Ещё вариант - посмотреть препринт Хинтона сотоварищи двухлетней давности, про метод dropout (статья называется "Improving neural networks by preventing co-adaptation of feature detectors"). Там за счёт зашумления нейросетки и/или её данных прямо внутри одной сетки формировался коллектив нейронок, усредняющих свои прогнозы и за счёт этого улучшающих точность итогового решения (если какая-то "внутренняя" сетка переобучилась бы в "одну сторону", то другая - в другую, и они ошибки друг друга взаимно компенсировали бы). Но тут уже надо будет не ГА применять для обучения. В общем, вариантов (в т.ч. тех, которых я не назвал) имеется много. Для разных моделей (для нейросетей или нет) и для разных способов идентификации моделей.
0
|
07.09.2014, 21:55 | |
07.09.2014, 21:55 | |
Помогаю со студенческими работами здесь
2
Задача коммивояжера методом Генетического алгоритма Нужны коды генетического алгоритма и нейросети Написать программу, демонстрирующую применение генетического алгоритма Разработка генетического алгоритма составления расписания ВУЗа Искать еще темы с ответами Или воспользуйтесь поиском по форуму: |