Форум программистов, компьютерный форум, киберфорум
Наши страницы
Искусственный интеллект
Войти
Регистрация
Восстановить пароль
 
Рейтинг 4.67/3: Рейтинг темы: голосов - 3, средняя оценка - 4.67
Tanya933
1 / 1 / 0
Регистрация: 28.08.2015
Сообщений: 112
1

Алгоритм обратного распространения ошибки

03.08.2016, 14:29. Просмотров 461. Ответов 3
Метки нет (Все метки)

Заметила такую вещь. В разной литературе пишут по-разному, и я не могу понять почему некоторые приписывают минус к изменению весов, некоторые нет. https://ru.wikipedia.org/wiki/%D0%9C...B1%D0%BA%D0%B8
Вот тут, например, сначала пишут -эта*производная. Внизу же, где алгоритм, минус пропадает (у меня в программе альфа=0). В программе пробовала ставить -, но ошибка росла. Не могу понять, в чем же дело!
0
Similar
Эксперт
41792 / 34177 / 6122
Регистрация: 12.04.2006
Сообщений: 57,940
03.08.2016, 14:29
Ответы с готовыми решениями:

Определение адаптивного шага обучения алгоритм обратного распространения ошибки
Доброго времени суток. В ходе изучения теории по алгоритму обратного распространения ошибки возник...

Метод обратного распространения ошибки
Умные люди, подскажите: есть нейронная сеть, 20 входных нейронов, 10 в скрытом слое и 3 выходных...

Алгоритм обратного распространения ошибки
Добрый день. Пытаюсь реализовать многослойный перцептрон и обучить его с помощью указанного...

Алгоритм обратного распространения ошибки. Нейронные сети
Прошу помощи с реализацией алгоритма обратного распространения ошибки. Написал программу...

Нейронные сети "Многослойный персептрон и алгоритм обратного распространения ошибки"
Помогите, пожалуйста! Очень и срочно нужно создать многослойную нейронную сеть и обучить для...

3
сахатый
36 / 16 / 4
Регистрация: 12.10.2015
Сообщений: 94
Завершенные тесты: 2
04.08.2016, 14:35 2
Если я Вас правильно понял разговор об антиградиенте, тут как бы всё логично, градиентный спуск, если на пальцах к примеру в R1 есть искомое число 5 и утекшая точка 3, градиент тобиш ошибка в один шаг будет 3 -5 = -2, но чтобы “шагнуть” один раз от 3 к 5 очевидно нужно прибавить не -2 а 2, то есть отрицательный градиент.

Код лучше покажите, так будет понятнее в чем проблема.
1
woodbox
24 / 10 / 0
Регистрация: 21.10.2014
Сообщений: 319
04.08.2016, 14:39 3
Покажите код
0
VTsaregorodtsev
578 / 531 / 77
Регистрация: 19.02.2010
Сообщений: 1,934
07.08.2016, 21:23 4
Цитата Сообщение от Tanya933 Посмотреть сообщение
В разной литературе пишут по-разному, и я не могу понять почему некоторые приписывают минус к изменению весов, некоторые нет.
Потому, что у одних в качестве целевой функции выступает (t-y)^2, а у других - (y-t)^2, где у - выход сети, t - эталонное значение. При дифференцировании первого варианта - появляется минус, который ликвидирует тот минус, который возникает из-за шага по антиградиенту. При втором варианте - минус шага по антиградиенту остаётся нескомпенсированным.
0
MoreAnswers
Эксперт
37091 / 29110 / 5898
Регистрация: 17.06.2006
Сообщений: 43,301
07.08.2016, 21:23

Метод обратного распространения ошибки
Всем доброго времени суток. Прошу не удалять тему, она больше к теории относится, нежели к...

Метод обратного распространения ошибки
Здравствуйте! Решил попробовать свои силы по программированию нейронных сетей и столкнулся с...

Нейронные сети. Алгоритм обратного распространения
Ребят помогите мне срочно нужно реализовать на C++ алгоритма обратного распространения. Кто с таким...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
4
Ответ Создать тему
Опции темы

КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2019, vBulletin Solutions, Inc.
Рейтинг@Mail.ru