0 / 0 / 0
Регистрация: 28.06.2018
Сообщений: 32
1

Нормализация входных значений и функция активации

08.04.2019, 19:47. Показов 4353. Ответов 2
Метки нет (Все метки)

Читая в разных местах про основные компоненты нейронных сетей возник вопрос.
Какая разница в результатах работы сети будет, если в одном случае проводить нормализацию входных значений до подачи в сеть, а потом в ней пропускать через функцию активации, а в другом случае оставить нормализацию на функцию активации и пустить данные сразу в сеть.
__________________
Помощь в написании контрольных, курсовых и дипломных работ здесь
0
Лучшие ответы (1)
Programming
Эксперт
94731 / 64177 / 26122
Регистрация: 12.04.2006
Сообщений: 116,782
08.04.2019, 19:47
Ответы с готовыми решениями:

Нормализация значений поля таблицы
Добрый день. Столкнулся с проблемой: Имеется таблица, для ввода данных пользователем....

Проверка входных значений
добрый день! интересует несколько вопросов связанных с web разработкой на perl: 1. как проверить...

Контроль входных значений на TXT файл
В общем дело такое, пытаюсь сделать контроль входных данных при открытии TXT файла. begin if...

Радиально-симметричная функция активации
Здравствуйте! Объясните пожалуйста, как интерпретировать результат радиально-симметричной функции...

2
489 / 386 / 52
Регистрация: 20.09.2014
Сообщений: 2,318
08.04.2019, 20:06 2
Лучший ответ Сообщение было отмечено Donat0 как решение

Решение

Скалярное произведение и нормализация - это линейные операции, значит справедлив ассоциативный закон, т.е. от перемены операций местами результат не меняется. Изменятся значения весов и начальные приближения весов придется задавать немного по-другому.
1
1145 / 1071 / 171
Регистрация: 19.02.2010
Сообщений: 3,222
10.04.2019, 22:57 3
Цитата Сообщение от Mikhaylo Посмотреть сообщение
Скалярное произведение и нормализация - это линейные операции
Это только в простых/плохих учебниках.

Пропустить отдельный вход через логарифм для ликвидации=подтягивания правого хвоста закона распределения переменной, или пропустить вход через сигмоиду (с настраиваемыми=управляемыми вручную крутизной и смещением) для подтягивания обоих хвостов закона распределения - это у меня среди списка вариантов нормализации уже с начала века присутствует. Рулишь настройками - и тут же гистограмма закона распределения преобразованного входа пересчитывается-перерисовывается.

Аналогично и с сумматорами нейронов. Я не виноват, что все кроме меня забыли, что нейроны с полиномиальными сумматорами назывались в числе "стандартных" нейронов ещё в середине 1980ых.
0
IT_Exp
Эксперт
87844 / 49110 / 22898
Регистрация: 17.06.2006
Сообщений: 92,604
10.04.2019, 22:57

Функция активации для нейросети
Пожалуйста, покажите мне каким образом можно сделать функцию активации для нейросети... Вот это ...

Многослойный персептрон. Функция активации
Доброго времени суток! Создаю однослойный персептрон с обратным распространением ошибки. Суть его...

Поиск минимальной суммы троек входных значений
Имеется набор данных, состоящий из троек положительных целых чисел. Необходимо выбрать из каждой...

Сигмоидная функция активации нейронной сети
Доброго времени суток! Начал изучать нейронные сети. Возник следующий вопрос: предположим, что я...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
3
Ответ Создать тему
Опции темы

КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2021, vBulletin Solutions, Inc.