Форум программистов, компьютерный форум, киберфорум
C++: ИИ, нейросети, ML, агенты
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.55/11: Рейтинг темы: голосов - 11, средняя оценка - 4.55
290 / 193 / 23
Регистрация: 03.08.2011
Сообщений: 2,824
Записей в блоге: 12

Обучение нейронной сети - алгоритм обратного распространения ошибки(learning_tree)

16.01.2013, 13:31. Показов 2161. Ответов 1
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
struct SAcson
{
    int l,c; // строка, столбец
    float x; // заряд
};
struct SSinapc
{
    int l,c; // строка, столбец
};
struct SNeiron
{
    float w; // весы
    float c; // заряд
    vector <SAcson> a; // аксон
    vector <SSinapc> s; // синапс
    inline bool operator== (SNeiron * n) {return (n == this) ? true : false;}
};
class SNetAI
{
protected:
    float cw;
    float cx;
    vector<vector <SNeiron>> neirons; //  нейроны
    vector <bool> r; // реле ответов
    void initSinaps();
    void void_charge();
    void bypass(vector<SAcson* > &ns,  vector<SNeiron* > &nw ,vector <SNeiron> :: iterator n);
    void delete_duplicate_neiron(vector<SNeiron* > &nw, unsigned int size_not_delete);
public:
    friend SNeiron;
    SNetAI ();
    void create(char *с);
    void launc_signal(vector <unsigned int> m);
    vector <bool> & get_result();
    void learning(bool err);
    void learning_tree(vector <bool> &r, unsigned int type_l);
    void save(char *с);
 
};
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
void  SNetAI::delete_duplicate_neiron(vector<SNeiron* > &nw, unsigned int size_not_delete)
 {
    for (unsigned int i = size_not_delete; i < nw.size() ; i++)
    {
        for (unsigned int j = size_not_delete; j < nw.size() ; j++)
        {
            if(i == j)
                continue;
            if( nw[i] == nw[j])
            {
                vector<SNeiron* > ::iterator del_nw = nw.begin() + j;
                nw.erase(del_nw);
                j--;
            }
        }
 
    }
 };
 void SNetAI::learning_tree(vector <bool> &r , unsigned int type_l)
     {
         vector <SAcson*> nsp;
         vector <SAcson*> nsm;
         vector <SNeiron*> nwp;
         vector <SNeiron*> nwm;
 
         vector <vector <SNeiron>> :: iterator i2 = neirons.end() - 1;
         for (vector <SNeiron> :: iterator i =  i2->begin() ; i < i2->end() ; i++)
         {
             int size_nwp = nwp.size();
             int size_nwm = nwm.size();
             if (r[distance(i2->begin(), i)])
             {
 
                 bypass(nsp, nwp,i);
                 delete_duplicate_neiron(nwp, size_nwp);
             }
             else
             {
                 bypass(nsm, nwm,i);
                 delete_duplicate_neiron(nwm, size_nwm);
             }
         }
         switch(type_l)
         {
         case 1:
             for ( unsigned int i = 0; i < nsp.size(); i ++)
             {
                 nsp[i]->x += cx;
             }
             for ( unsigned int i = 0; i < nsm.size(); i ++)
             {
                 nsm[i]->x -= cx;
             }
             break;
 
         case 2:
             for ( unsigned int i = 0; i < nwp.size(); i ++)
             {
                 nwp[i]->w += cw;
             }
             for ( unsigned int i = 0; i < nwm.size(); i ++)
             {
                 nwm[i]->w -= cw;
             }
             break;
 
         case 3:
             for ( unsigned int i = 0; i < nsp.size(); i ++)
             {
                 nsp[i]->x += cx;
             }
             for ( unsigned int i = 0; i < nsm.size(); i ++)
             {
                 nsm[i]->x -= cx;
             }
             for ( unsigned int i = 0; i < nwp.size(); i ++)
             {
                 nwp[i]->w += cw;
             }
             for ( unsigned int i = 0; i < nwm.size(); i ++)
             {
                 nwm[i]->w -= cw;
             }
             break;
         };
 }
 void SNetAI::bypass(vector<SAcson* > &ns,  vector<SNeiron* > &nw ,vector <SNeiron> :: iterator n)
 {
    
    for (vector <SSinapc> ::iterator i = n->s.begin() ; i < n->s.end(); i++)
    {
        for (vector <SAcson> ::iterator j = neirons[i->c][i->l].a.begin(); j < neirons[i->c][i->l].a.end(); j++)
        {
            vector <SNeiron> :: iterator n2 = neirons[j->c].begin() + j->l;
            if (n2 == n)
            {
                ns.push_back(&j[0]);
                nw.push_back(&n2[0]);
                break;
            }
        }
        vector <SNeiron> :: iterator n2 = neirons[i->c].begin() + i->l;
        bypass(ns, nw,  n2);
    }
            
 }
правильно ли я организовал обучение - алгоритм обратного распространения ошибки(learning_tree)

Добавлено через 33 минуты
форумчане кто нибудь подскажите

Добавлено через 44 минуты
возник вопрос должнен ли присутствовать параметр в аксоне который бы отвечал за то - тормозящие или возбуждающее воздействие он производит?
0
cpp_developer
Эксперт
20123 / 5690 / 1417
Регистрация: 09.04.2010
Сообщений: 22,546
Блог
16.01.2013, 13:31
Ответы с готовыми решениями:

Обучение нейронной сети методом обратного распространения ошибки
пишу нейронную сеть типа многослойный персептрон, для решения задачи аппроксимации функции. Знаю что есть много ресурсов с готовым...

Алгоритм обратного распространения ошибки. Нейронные сети
Прошу помощи с реализацией алгоритма обратного распространения ошибки. Написал программу реализующую многослойный персептрон. Но никак не...

Нейронные сети. Алгоритм обратного распространения
Ребят помогите мне срочно нужно реализовать на C++ алгоритма обратного распространения. Кто с таким сталкивался? Может кто нибудь поможет я...

1
Twilight Parasite
 Аватар для Invader_Zim
154 / 150 / 7
Регистрация: 21.07.2011
Сообщений: 908
16.01.2013, 14:36
Van111,

Не по теме:

Скайнет делаеш, одобряем


А так:
vector <SAcson*> nsp;
vector <SAcson*> nsm;
vector <SNeiron*> nwp;
vector <SNeiron*> nwm;
ониж у тебя локальные.
И еще одно: используй дерево, а не списки локальных обьектов. Память то не бесконечна, да и не работает так нейронная сеть.
1
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
raxper
Эксперт
30234 / 6612 / 1498
Регистрация: 28.12.2010
Сообщений: 21,154
Блог
16.01.2013, 14:36
Помогаю со студенческими работами здесь

Нейронные сети,Метод обратного распространения ошибки
:help:Кто нибудь знает,где взять работающюю программу на C++ по теме: &quot;Метод обратного распространения ошибки&quot; не очень...

Нейронные сети обратного распространения
Здравствуйте. Пытаюсь обучить сеть таблице умножения. Обучает до 1*3, а дальше не получается у него. Подскажите в чем беда. class...

Обучение нейронной сети методом обратного распространения ошибки
При обучении созданной на C# нейронной сети возникли сложности. Используется сигмоидная функция активации и архитектура нейронной сети с...

Нужен совет по задаче "Обучение искусственной нейронной сети методом обратного распространения ошибки"
Всем привет, нужен совет по реализации задания, которое звучит следующим образом (это практическая работа в универе): &quot;Обучение...

Некорректно работает метод обратного распространения ошибки в нейронной сети
Добрый день, пишу нейронную сеть на вход которой подается матрица размеров 504х13, на выходе матрица вектор 504х1. Сама сеть вроде бы...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
2
Ответ Создать тему
Новые блоги и статьи
Семь CDC на одном интерфейсе: 5 U[S]ARTов, 1 CAN и 1 SSI
Eddy_Em 18.02.2026
Постепенно допиливаю свою "многоинтерфейсную плату". Выглядит вот так: https:/ / www. cyberforum. ru/ blog_attachment. php?attachmentid=11617&stc=1&d=1771445347 Основана на STM32F303RBT6. На борту пять. . .
Символьное дифференцирование
igorrr37 13.02.2026
/ * Программа принимает математическое выражение в виде строки и выдаёт его производную в виде строки и вычисляет значение производной при заданном х Логарифм записывается как: (x-2)log(x^2+2) -. . .
Камера Toupcam IUA500KMA
Eddy_Em 12.02.2026
Т. к. у всяких "хикроботов" слишком уж мелкий пиксель, для подсмотра в ESPriF они вообще плохо годятся: уже 14 величину можно рассмотреть еле-еле лишь на экспозициях под 3 секунды (а то и больше),. . .
И ясному Солнцу
zbw 12.02.2026
И ясному Солнцу, и светлой Луне. В мире покоя нет и люди не могут жить в тишине. А жить им немного лет.
«Знание-Сила»
zbw 12.02.2026
«Знание-Сила» «Время-Деньги» «Деньги -Пуля»
SDL3 для Web (WebAssembly): Подключение Box2D v3, физика и отрисовка коллайдеров
8Observer8 12.02.2026
Содержание блога Box2D - это библиотека для 2D физики для анимаций и игр. С её помощью можно определять были ли коллизии между конкретными объектами и вызывать обработчики событий столкновения. . . .
SDL3 для Web (WebAssembly): Загрузка PNG с прозрачным фоном с помощью SDL_LoadPNG (без SDL3_image)
8Observer8 11.02.2026
Содержание блога Библиотека SDL3 содержит встроенные инструменты для базовой работы с изображениями - без использования библиотеки SDL3_image. Пошагово создадим проект для загрузки изображения. . .
SDL3 для Web (WebAssembly): Загрузка PNG с прозрачным фоном с помощью SDL3_image
8Observer8 10.02.2026
Содержание блога Библиотека SDL3_image содержит инструменты для расширенной работы с изображениями. Пошагово создадим проект для загрузки изображения формата PNG с альфа-каналом (с прозрачным. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru