Форум программистов, компьютерный форум, киберфорум
ИИ, нейросети, LLM, ML, ИИ-агенты
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.94/18: Рейтинг темы: голосов - 18, средняя оценка - 4.94
0 / 0 / 0
Регистрация: 26.02.2013
Сообщений: 21

Сверточная Нейронная Сеть, Карта признаков

12.07.2015, 16:49. Показов 3493. Ответов 3
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Здравствуйте!

Можно ли спросить, какие начальные значения должны быть в ядре (матрице свертки) для построения карты признаков в операции конволюции ? В диаграмме 2, данная матрица свертки содержит значения для выделения краев. Существуют много подобных типов матриц сверток (выделение краев, фильр Гаусса, размытие, и т.д.). Нигде не описано какие значения должно содержать ядро (матрица сверток) для построения 6 карт признаков на слое C1. Может быть изначально она должна содержать нули? Если мы рассматриваем слой C1, то изначально для построения 6 карт признаков нам нужно иметь окно размером 5*5 для его сдвига на один шаг слева направо по исходному изображению, диаграмма 3 (то есть применяем операцию конволюции читаем с окна значения в исходной картинке и умножаем на матрицу свертки (всего должно быть 6 матриц сверток для построения 6 карт признаков)), диаграмма 3 . То есть, то окно размером 5*5, это 25 нейронов с сигмойдной функцией, а их веса это окончательный результат операции конволюции? Не могли бы вы сказать правильно ли я нарисоавл структура окна 5*5, которым мы обходим исходную картинку, диаграмма 5 (считываем значения находящиеся в окне исходной картинке, затем умножаем на веса в матрице свертки, далее суммируем, далее подставляем результат в сигмоидальную функцию) ? Операция Subsampling, диаграмма 4 уменьшает исходные карты признаков, то есть опять проходим окном и из четвертей окна выбираем максимальный элемент, как показано на диаграмме 4. Только мне кажется что в слоях Subsampling (S2,S4) нейроны не нужны, так ли это? В итоге повторяем эти процедуры итерративно до S4. Мне не понятно на диаграмме в C5 нужно построить 120 карт признаков, почему этот слой называется Full Connections? Для чего нужны слои F6, Output? Не могли бы Вы сказать где можно посмотреть полную архитектуру сверточной нейронной сети для распознования символов, то есть я бы хотел увидеть где именно требуется классическая нейронная сеть с суммированием весов входов и сигмоидальной функцией? Заранее Вам спасибо!

Диаграмма 1


Диаграмма 2



Диаграмма 3



Диаграмма 4


Диаграмма 5

0
Лучшие ответы (1)
IT_Exp
Эксперт
34794 / 4073 / 2104
Регистрация: 17.06.2006
Сообщений: 32,602
Блог
12.07.2015, 16:49
Ответы с готовыми решениями:

Сверточная нейронная сеть
Здравствуйте, я хотел бы реализовать сверточную нейронную сеть, чтобы она определяла что изображено на картинке. Посоветуйте, пожалуйста,...

Сверточная нейронная сеть
День добрый! Вопрос касается связей между слоями (3 и 4) сверточной части и между свёрткой и персептроном. 1))) Я прочитала две...

Сверточная Нейронная Сеть, Слой C3 (от слоя субдискретизации до слоя сверкти)
Здравствуйте! Построение слоев C1, S2,S4 идет в итерративном режиме. Сначала строим слой C1, проходим слева направо на 1 сдвиг (байс)...

3
2615 / 1627 / 265
Регистрация: 19.02.2010
Сообщений: 4,323
12.07.2015, 22:05
Лучший ответ Сообщение было отмечено Clipper_701 как решение

Решение

Чего-то приаттаченные картинки не показываются - поэтому чисто по тексту:

Цитата Сообщение от Clipper_701 Посмотреть сообщение
Нигде не описано какие значения должно содержать ядро (матрица сверток) для построения 6 карт признаков на слое C1.
Любые рандомные, как и веса остальных слоёв сети.

Цитата Сообщение от Clipper_701 Посмотреть сообщение
Может быть изначально она должна содержать нули?
Для C1 может прокатить, для С2 уже нет (фиг тогда обучите С1 - для него обратным распространением посчитаются нулевые компоненты вектора градиента (правда, после первой же коррекции сети веса С2 станут ненулевыми, и всё станет нормально считаться и для С1 - но всё же зачем занулять?)).

Цитата Сообщение от Clipper_701 Посмотреть сообщение
То есть, то окно размером 5*5, это 25 нейронов с сигмойдной функцией
Нет, это один единственный нейрон с 25входами и, соответственно, 25 весами (плюс вес у смещения).
Каждая карта признаков - это один нейрон, "продублированный" на все позиции карты.
(есть, правда, вариант, где дублирования нет и для каждой позиции используется свой нейрон - статья "Tiled convolutional neural networks" 2010г, например)

Цитата Сообщение от Clipper_701 Посмотреть сообщение
Только мне кажется что в слоях Subsampling (S2,S4) нейроны не нужны, так ли это?
Запросто можно и субсэмплинг делать адаптивным нейроном. Я себе чисто ради экспериментов такое сделал.
Естественно, такой нейрон тоже должен быть продублирован по всей карте.
В оригинале - да, действительно, нейроном операцию взятия максимума (или усреднения) в окне назвать сложно.

Цитата Сообщение от Clipper_701 Посмотреть сообщение
Мне не понятно на диаграмме в C5 нужно построить 120 карт признаков, почему этот слой называется Full Connections?
Потому, что каждая карта там соединена со всеми 16ю картами S4. В отличие от С3, где каждая карта получает сигналы не со всех карт слоя S2. Правда, сейчас в основном уже не используют лекуновскую идею о нужности ликвидации возможной симметрии в сети - и C3 чаще всего получает сигналы со всех S2 (иди даже с С1, если слоёв ресэмплинга нет).

Цитата Сообщение от Clipper_701 Посмотреть сообщение
Для чего нужны слои F6, Output?
Это обычный "многослойный персептрон", пришитый к концу сети. Т.е. универсальный (по своим возможностям) классификатор, обрабатывающий выходы с последнего (самого абстрактного) уровня признаков.

Цитата Сообщение от Clipper_701 Посмотреть сообщение
Не могли бы Вы сказать где можно посмотреть полную архитектуру сверточной нейронной сети для распознования символов
Детальнее архитектуру СС обычно не расписывают. Это ЛеКун сотоварищи в статье 98г постарались текстом всё более-менее нормально объяснить - а последующие авторы считают, что читатель разбирается.
Тем более, что затем появилась куча вариантов СС. Начиная от статьи "Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis", где отдельных слоёв субсэмплинга нет (он делается на свёрточных слоях, путём шага не через 1 пиксел/сигнал, а через 2), и заканчивая прошлогодней гугловской нейросеткой Inception (которую недавно научили рисовать картинки) совсем иной структуры.
Так что сейчас под свёрточными сетками понимаются просто отдельные принципы организации их архитектуры, а не какое-то заранее предписанное число слоёв и набор типов слоёв.
Читайте кучу работ, вникайте в различные варианты.
1
25 / 25 / 11
Регистрация: 07.12.2012
Сообщений: 169
27.09.2015, 11:21
VTsaregorodtsev, не подскажете какие статьи стоит почитать для понимания архитектуры ConvNet?
И такой глупый вопрос..
Например сделали захват видео с веб камеры, ну и соответственно сделали захват изображения (снимок).
У нас есть input изображение большой размерности. До какого масштаба стоит изменить масштаб?
0
2615 / 1627 / 265
Регистрация: 19.02.2010
Сообщений: 4,323
27.09.2015, 21:56
xEmpire, ConvNet сейчас - это не какая-то отдельная архитектура, а набор принципов конструирования "глубоких" нейросетей для задач распознавания изображений.

Начинать лучше с самого начала - с препринта ЛеКуна "Generalization and network design strategies" 1989г.
У ЛеКуна на сайте есть - yann.lecun.com и далее см в разделе публикаций.

Затем там же обязательно статью “Gradient-based learning applied to document recognition” 1998 года.
Хотя под ConvNet чаще всего имеют в виду архитектуру из этой статьи (ибо наиболее часто цитируемая) - там эта нейросетка называется LeNet-5.
Читать, фактически, только часть этой статьи - ибо многое там посвящено и другим темам.

Далее - "Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis" 2006г как немного упрощённый-альтернативный вариант (вместо отдельных слоёв ресэмплинга делается перемещение свёрточных окон с шагом в 2 пиксела-сигнала).
Её уже надо искать в инете - по названию должна нагуглиться pdfка.

Ну а затем - снова на сайте ЛеКуна взять "What is the best multi-stage architecture for object recognition?" - там про предобучаемые-формируемые карты признаков.

Ещё кое-что из современной литературы по разным вариантам-модификациям я называл в http://neuropro.ru/memo333.shtml и в других заметках там.
В общем, дофига и больше вариантов, как у ЛеКуна с его соавторами, так и у других людей/команд. Поэтому и говорю - нет какой-то единственной конструкции, есть эволюционирующий-развивающийся набор принципов конструирования таких нейросистем.


Теперь по вопросу масштабирования.
Смотря на чём будете нейронку гонять. Видеокарта или обычный процессор (ну или насколько программа для процессора оптимизирована (на моём опыте - разница скоростей работы оптимизированной и неоптимизированной прог чисто под процессор может составлять 2 порядка, т.е. примерно 100 раз)).
Ну и смотря какие объекты на картинке распознаются. Может, там нужен совсем другой алгоритм - а не свёрточная сетка.
Наугад ничего сказать нельзя - надо видеть особенности Ваших распознаваемых изображений и объектов на них, ну и знать точную постановку задачи.
Но, думаю, до 320*200 (или до 160*100), в общем, до первого-второго самого мелкого разрешения вебки, уменьшать можно всегда. (я просто до сих пор сижу на мониках с пропорцией 4*3 и таких же вебках - поэтому и перечисляю тут варианты "неузкоглазого" разрешения). Может, и ещё сильнее - надо на задачу глядеть.
1
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
BasicMan
Эксперт
29316 / 5623 / 2384
Регистрация: 17.02.2009
Сообщений: 30,364
Блог
27.09.2015, 21:56
Помогаю со студенческими работами здесь

Нейронная сеть
Приветствую всех форумчан, возник вопрос по архитектуре нейронной сети. Нужно сделать нейронную сеть, чтобы в зависимости от разных...

Нейронная сеть
Имеется скрипт нейросети на python. Единственное но: не понимаю, как её правильно обучать. Читал про метод обратного распространения...

Нейронная сеть. XOR
Вообщем такой вопрос, вот допустим я научил нейронную сеть при заданных 1 и 1 выводить 0 (XOR), то есть подогнал оптимальные веса и занес в...

Нейронная сеть
Не поможет ли мне кто-нибудь? Может ли алгоритмист написать алгоритм по которому работает нейронная сеть после обучения ? Спасибо .

Нейронная сеть
Зачем здесь нужны w01 , w02, w03, w04 ? где они участвуют?


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
4
Ответ Создать тему
Новые блоги и статьи
Новый ноутбук
volvo 07.12.2025
Всем привет. По скидке в "черную пятницу" взял себе новый ноутбук Lenovo ThinkBook 16 G7 на Амазоне: Ryzen 5 7533HS 64 Gb DDR5 1Tb NVMe 16" Full HD Display Win11 Pro
Музыка, написанная Искусственным Интеллектом
volvo 04.12.2025
Всем привет. Некоторое время назад меня заинтересовало, что уже умеет ИИ в плане написания музыки для песен, и, собственно, исполнения этих самых песен. Стихов у нас много, уже вышли 4 книги, еще 3. . .
От async/await к виртуальным потокам в Python
IndentationError 23.11.2025
Армин Ронахер поставил под сомнение async/ await. Создатель Flask заявляет: цветные функции - провал, виртуальные потоки - решение. Не threading-динозавры, а новое поколение лёгких потоков. Откат?. . .
Поиск "дружественных имён" СОМ портов
Argus19 22.11.2025
Поиск "дружественных имён" СОМ портов На странице: https:/ / norseev. ru/ 2018/ 01/ 04/ comportlist_windows/ нашёл схожую тему. Там приведён код на С++, который показывает только имена СОМ портов, типа,. . .
Сколько Государство потратило денег на меня, обеспечивая инсулином.
Programma_Boinc 20.11.2025
Сколько Государство потратило денег на меня, обеспечивая инсулином. Вот решила сделать интересный приблизительный подсчет, сколько государство потратило на меня денег на покупку инсулинов. . . .
Ломающие изменения в C#.NStar Alpha
Etyuhibosecyu 20.11.2025
Уже можно не только тестировать, но и пользоваться C#. NStar - писать оконные приложения, содержащие надписи, кнопки, текстовые поля и даже изображения, например, моя игра "Три в ряд" написана на этом. . .
Мысли в слух
kumehtar 18.11.2025
Кстати, совсем недавно имел разговор на тему медитаций с людьми. И обнаружил, что они вообще не понимают что такое медитация и зачем она нужна. Самые базовые вещи. Для них это - когда просто люди. . .
Создание Single Page Application на фреймах
krapotkin 16.11.2025
Статья исключительно для начинающих. Подходы оригинальностью не блещут. В век Веб все очень привыкли к дизайну Single-Page-Application . Быстренько разберем подход "на фреймах". Мы делаем одну. . .
Фото: Daniel Greenwood
kumehtar 13.11.2025
Расскажи мне о Мире, бродяга
kumehtar 12.11.2025
— Расскажи мне о Мире, бродяга, Ты же видел моря и метели. Как сменялись короны и стяги, Как эпохи стрелою летели. - Этот мир — это крылья и горы, Снег и пламя, любовь и тревоги, И бескрайние. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2025, CyberForum.ru