Форум программистов, компьютерный форум, киберфорум
Комментарии
Войти
Регистрация
Восстановить пароль
  1. Старый комментарий
    Аватар для Usaga
    95,5 процентов аккуратности с помощью тонкой настройки нейронной сети
    Я бы не стал серьёзно воспринимать видосы, где уже в самом названии автор умудрился ошибку сделать (лишняя запятая).
    Запись от Usaga размещена 01.06.2018 в 06:04 Usaga на форуме
  2. Старый комментарий
    Запись от jvf размещена 28.05.2018 в 20:27 jvf вне форума
  3. Старый комментарий
    Аватар для Avazart
    28.05.27 Тренажёр интеллекта для кошки на основе нейронных сетей
    Видео неправильно вставил:

    https://www.youtube.com/watch?v=38iGggnbbsQ

    Правильно так:
    [YOU TUBE]38iGggnbbsQ[/YOU TUBE] (без пробелов)
    Запись от Avazart размещена 28.05.2018 в 13:31 Avazart вне форума
  4. Старый комментарий
    2018.05.26 Новый метод как быстро набрать новые данные для кошки
    Цитата:
    momentum=0.9
    Прикольно смотреть на устойчивость мифов (или с потолка взятых констант), когда ровно 2 года назад (в мае 2016) люди из Стэнфорда показали, что оптимальный (с точки зрения скорости сходимости) коэффициент может быть даже отрицательным в случае обучения нейронки на асинхронной системе (хоть на многоядернике, хоть на кластере, хоть где ещё - но именно при асинхронных апдейтах весов).
    Хотя, если у Вас всё только на видюхе считается - можете в меньшей степени задумываться над выбором значения этой константы.
    Запись от VTsaregorodtsev размещена 27.05.2018 в 22:12 VTsaregorodtsev вне форума
  5. Старый комментарий
    Запись от jvf размещена 26.05.2018 в 15:33 jvf вне форума
  6. Старый комментарий
    2018.05.25 Дообучение нейронной сети VGG16 для различения кошки
    Цитата:
    У нас очень мало данных
    Добавление зеркально отражённых снимков легко и просто удвоит объём данных.
    Запись от VTsaregorodtsev размещена 25.05.2018 в 20:42 VTsaregorodtsev вне форума
  7. Старый комментарий
    28.05.23 Алгоритм машинного обучения для предсказания по нашей таблице
    Цитата:
    стандартную нейронную сеть: Conv2D, Conv2D, MaxPool2D, Dropout, Conv2D, Conv2D, MaxPool2D,...
    Ну какую стандартную? 2 последовательных свёрточных слоя - это фишка 2014го года, в сетке VGG16/19. Т.е. достаточно поздняя модификация.

    Цитата:
    Автор выбрал RMSprop, потому что он работает быстрее, чем стандартный оптимизатор SGD.
    Ага, и при этом даёт ошибку обобщения хуже, чем SGD.
    Причём это особенность не только РМСПропа - но и вообще почти всех "продвинутых" методов обучения.
    Хотя, дропаут может и помочь убрать этот негатив.

    Ну да ладно - не будем обсуждать посторонние работы.
    Запись от VTsaregorodtsev размещена 24.05.2018 в 21:28 VTsaregorodtsev вне форума
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2024, CyberForum.ru