Форум программистов, компьютерный форум, киберфорум
C++: ИИ, нейросети, ML, агенты
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.75/4: Рейтинг темы: голосов - 4, средняя оценка - 4.75
 Аватар для meraxujiep
43 / 44 / 4
Регистрация: 31.01.2013
Сообщений: 196

Такая нейросеть имеет право на жизнь?

07.02.2019, 07:29. Показов 960. Ответов 2
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Приветствую.
Обратился ко мне товарищь с просьбой сделать нейронную сеть, чтобы она обучалась для выбора поставщика (что-то связано с его учебой). В общем есть 11 критериев поставщиков на основании которых нейронная сеть дает ответ подходит поставщик нам или нет. Пришел с составленной им структурой сети (см. фото).

Товарищь обратился, т.к. хоть маленько я изучил программирование когда-то; но мне кажется после армейки уже совсем соображалки не осталось. Сказал, попробуй может получится.
Посидев, почитав подумал, что такую структуру реально реализовать... выбрал для обучения метод обратного распространения ошибки.

Вопросы:
1. Вообще затея имеет право на жизнь?
2. Посмотрите что сделал. Конечно какой-то процесс изменения весов идет. Как проверить идет ли обучение?

double sigmoid () // Сигмоидальная функция активации
Кликните здесь для просмотра всего текста
C++
1
2
3
double sigmoid (double x){
    return 1/(1+exp(-x));
}


double Predict () // Функция возращает предсказание сети на массив входных сигналов In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
double Predict (double In[11], double W_SecretLayer[4][11], double W_Out[4]){
 
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, In_Layer_2=0, Out_Layer_2=0;
 
    for (int j = 0; j < 4; j++) {
         for (int i = 0; i < 11; i++) {
           In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
         }
     Out_Layer_1[j] = sigmoid(Out_Layer_1[j]);
    }
 
    for ( int i = 0; i < 4; i++) {
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
 
    Out_Layer_2 = sigmoid(In_Layer_2);
 
    return Out_Layer_2;
}


void NeurTraining () // Функция обучения
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
 void NeurTraining (double In[11], double W_SecretLayer[4][11],double W_Out[4], double Our_Expected){
    double Learning_Rate=0.10;
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, In_Layer_2=0, Out_Layer_2=0;
 
    for (int j = 0; j < 4; j++) {                // Вычисление   In_Layer_1[4] и   Out_Layer_1[4]
        for (int i = 0; i < 11; i++) {
          In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
        }
     Out_Layer_1[j] = sigmoid(Out_Layer_1[j]);
    }
    for ( int i = 0; i < 4; i++) {               // Вычисление   In_Layer_1[4]
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
 
    double Actual = sigmoid(In_Layer_2);         // Вычисление актуального решения сети
    double Error_Layer_2 = Actual-Our_Expected;  // Ошибка на выходного слое, как разница актуального решения сети и нашего
    double Gradient_Layer_2 = Actual * (1 - Actual);
    double Weigths_Delta_2 = Error_Layer_2 * Gradient_Layer_2;
 
    for ( int i = 0; i < 4; i++) {    // коррекция весов 2го слоя
       W_Out[i] = W_Out[i]- Out_Layer_1[i] * Weigths_Delta_2 * Learning_Rate;
    }
 
    for (int i = 0; i < 4; i++) {
         double Error_Layer_1 = Weigths_Delta_2 * W_Out[i];
         double Gradient_Layer_1 = Out_Layer_1[i] * (1 - Out_Layer_1[i]);
         double Weigths_Delta_1 = Error_Layer_1 * Gradient_Layer_1;
 
         for ( int j  = 0; j < 11; j++) {
            W_SecretLayer[i][j] = W_SecretLayer[i][j]-In[i] * Weigths_Delta_1 * Learning_Rate;
         }
    }
 
 
 
 }


int Condition () // Условия при которых, функция должно принять решение 1 или 0
Кликните здесь для просмотра всего текста
C++
1
2
3
4
int Condition (double In[11]){
  if ((In[3]==1 & In[4]==1)||(In[1]==1 & In[4]==1)) return 1;
        else return 0;
 }


void RandomFilling() // Заполнение массива In[] рандомно
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
 void RandomFilling(double In[11]){
 
   for (int j=0; j < 11; j++) {
    In[j]=random(2);
   }
 }


void PrintNeur // функция вывода массива In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
void PrintNeur (double In[11]){  //, double W_SecretLayer[4][11],double W_Out[4]
   for (int i = 0; i < 6; i++) {
    cout << "In[" << i+1 << "] " << In[i]  << "     In[" << i+5 << "] " << In[i+5] << endl;
   }
   cout << "In[11] " << In[10] << endl;
 }


int _tmain
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
 int _tmain(int argc, _TCHAR* argv[])
{
    randomize();
    double In[11]; // Массив входных сигналов
    double W_SecretLayer[4][11]= {                           // Массив весов скрытого слоя
     {0.47,0.42,0.47,0.16,0.34,0.15,0.85,0.34,0.44,0.5,0.7}, // заполнен случайным образом
     {0.4,0.13,0.3,0.77,0.13,0.4,0.71,0.23,0.56,0.32,0.24},
     {0.64,0.25,0.63,0.5,0.32,0.47,0.6,0.41,0.26,0.32,0.32},
     {0.47,0.6,0.73,0.56,0.52,0.47,0.62,0.23,0.56,0.72,0.42}
    };
    double W_Out[4]={0.45,0.55,0.36,0.65}; // Массив весов выходного слоя заполнен случайным образом
    int Our_Expected;                      // Наше решение
    for (int i = 0; i < 1000000; i++) {    // Цикл обучения
        cout << "#" << i << endl;
        RandomFilling(In);                 // Заполнение массива In
        Our_Expected = Condition (In) ;    // Наше решение на основании входных сигналов In
        PrintNeur (In);
        cout << "Nashe reshenie: " << Our_Expected << endl;
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "Training: " << endl;
        NeurTraining(In, W_SecretLayer, W_Out, Our_Expected);    // вызов функции обучения
//      PrintNero(c,w);
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "------------------------------------------------------------------------" << endl ;
   }
    getchar();
    getchar();
    return 0;
}
Миниатюры
Такая нейросеть имеет право на жизнь?  
Вложения
Тип файла: rar File1.cpp.rar (1.5 Кб, 2 просмотров)
0
cpp_developer
Эксперт
20123 / 5690 / 1417
Регистрация: 09.04.2010
Сообщений: 22,546
Блог
07.02.2019, 07:29
Ответы с готовыми решениями:

Такая сборка имеет право на жизнь ?
Мат. плата MSI B75A-G41 Процессор Intel® Core™ i5-3330 OEM Память DDR3 4Gb (pc-12800) 1600MHz (KVR16N11S8/4) &lt;Retail&gt; ...

Имеет ли право на жизнь такая авторизация?
Приветствую вас, дорогие товарищи форумчане! От вас хотелось бы услышать конструктивной критики и предложений по изменению/доработке...

Имеет ли право на жизнь?
Сделано на CMS Slaed Специфичный ресурс! Коротко - каталог позволяет пользователям добавлять несколько ссылок для каждого из своих...

2
 Аватар для meraxujiep
43 / 44 / 4
Регистрация: 31.01.2013
Сообщений: 196
07.02.2019, 10:31  [ТС]
Товарищи, помогите оценить правильно ли реализовано обучение в функции NeurTraining ()
0
 Аватар для meraxujiep
43 / 44 / 4
Регистрация: 31.01.2013
Сообщений: 196
07.02.2019, 14:03  [ТС]
В общем решил проблемы, как мне кажется. Может кому пригодится.Реализация метода обратного распространения ошибки (11 входов, на внутреннем слое 4 нейрона, на выходе 1, см.фото выше)

// Сигмоидальная функция активации
Кликните здесь для просмотра всего текста
C++
1
2
3
double sigmoid (double x){
    return 1/(1+exp(-x));
}


// Функция возращает предсказание сети на массив входных сигналов In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
double Predict (double In[11], double W_SecretLayer[4][11], double W_Out[4]){
 
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, In_Layer_2=0, Out_Layer_2=0;
 
    for (int j = 0; j < 4; j++) {
         for (int i = 0; i < 11; i++) {
           In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
         }
     Out_Layer_1[j] = sigmoid(In_Layer_1[j]);
    }
 
    for ( int i = 0; i < 4; i++) {
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
 
    Out_Layer_2 = sigmoid(In_Layer_2);
 
    return Out_Layer_2;
}


// Функция обучения
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
void NeurTraining (double In[11], double W_SecretLayer[4][11],double W_Out[4], double Our_Expected){
    double Learning_Rate=0.7;
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, W_Delta_Layer_1[4]={0,0,0,0}, In_Layer_2=0, C=0;
 
    for (int j = 0; j < 4; j++) {                // Вычисление   In_Layer_1[4] и   Out_Layer_1[4]
        for (int i = 0; i < 11; i++) {
          In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
        }
     Out_Layer_1[j] = sigmoid(In_Layer_1[j]);
    }
 
    for ( int i = 0; i < 4; i++) {               // Вычисление   In_Layer_1[4]
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
    double Out_Layer_2=sigmoid(In_Layer_2);
 
    double Actual = sigmoid(In_Layer_2);         // Вычисление актуального решения сети
    double Error = Our_Expected - Actual;  // Ошибка на выходного слое, как разница актуального решения сети и нашего
    for (int i = 0; i < 4; i++) {          // Вычисление ошибки на 1 слое для каждого нейрона
        W_Delta_Layer_1[i]= Error * W_Out[i];
    }
 
        for (int i = 0; i < 4; i++){
            for (int j = 0; j < 11; j++) {
            W_SecretLayer[i][j]= W_SecretLayer[i][j] + W_Delta_Layer_1[i] * sigmoid(In_Layer_1[i]) * (1 - sigmoid(In_Layer_1[i])) * In[j] * Learning_Rate;
            }
        }
 
 
    for (int i = 0; i < 4; i++) {
            W_Out[i]= W_Out[i] + Error * sigmoid(In_Layer_2) * (1 - sigmoid(In_Layer_2)) * Out_Layer_1[i] * Learning_Rate;
    }
 }


// Условия при которых, функция должно принять решение 1 или 0
Кликните здесь для просмотра всего текста
C++
1
2
3
4
int Condition (double In[11]){
  if ((In[3]==1 & In[4]==1 & In[7]==1)||(In[1]==1 & In[4]==1)) return 1;
        else return 0;
 }


// Заполнение массива In[] рандомно
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
void RandomFilling(double In[11]){
 
   for (int j=0; j < 11; j++) {
    In[j]=random(2);
   }
 }


// функция вывода массива In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
void PrintNeur (double In[11]){  //, double W_SecretLayer[4][11],double W_Out[4]
   for (int i = 0; i < 6; i++) {
    cout << "In[" << i+1 << "] " << In[i]  << "     In[" << i+5 << "] " << In[i+5] << endl;
   }
   cout << "In[11] " << In[10] << endl;
 }


// main
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
 int _tmain(int argc, _TCHAR* argv[])
{
    randomize();
    double In[11]; // Массив входных сигналов
    double W_SecretLayer[4][11]= {                           // Массив весов скрытого слоя
     {0.47,0.42,0.47,0.16,0.34,0.15,0.85,0.34,0.44,0.5,0.7}, // заполнен случайным образом
     {0.4,0.13,0.3,0.77,0.13,0.4,0.71,0.23,0.56,0.32,0.24},
     {0.64,0.25,0.63,0.5,0.32,0.47,0.6,0.41,0.26,0.32,0.32},
     {0.47,0.6,0.73,0.56,0.52,0.47,0.62,0.23,0.56,0.72,0.42}
    };
    double W_Out[4]={0.45,0.55,0.36,0.65}; // Массив весов выходного слоя заполнен случайным образом
    int Our_Expected;                      // Наше решение
 
    for (int i = 0; i < 10000; i++) {    // Цикл обучения
        cout << "#" << i << endl;
        RandomFilling(In);                 // Заполнение массива In
        Our_Expected = Condition (In) ;    // Наше решение на основании входных сигналов In
        PrintNeur (In);
        cout << "Nashe reshenie: " << Our_Expected << endl;
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "Training: " << endl;
        NeurTraining(In, W_SecretLayer, W_Out, Our_Expected);    // вызов функции обучения
//      PrintNero(c,w);
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "------------------------------------------------------------------------" << endl ;
   }
 
 
    getchar();
    getchar();
    return 0;
}
Вложения
Тип файла: rar File1.rar (1.5 Кб, 8 просмотров)
1
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
raxper
Эксперт
30234 / 6612 / 1498
Регистрация: 28.12.2010
Сообщений: 21,154
Блог
07.02.2019, 14:03
Помогаю со студенческими работами здесь

Блок схема имеет право на жизнь?
Здравствуйте, уважаемые форумчане. Подскажите, плиз, Данная блок-схема имеет право на жизнь? Вопрос не в логике, а в визуальном...

Имеет ли право на жизнь такой стиль программирования?
Почти никогда не пишу с чистого листа, с нуля, т.е. не создаю программу/процедуру и тд с нуля набирая весь код руками. Всегда есть в...

Generic классы, типы которых, ссылаются друг на друга. Идея имеет право на жизнь?
Здравствуйте, имеются объекты класса Element&lt;S,E&gt;, которые хранятся и обрабатываются в экземплярах класса ElementSystem&lt;S, E&gt;. При...

Кому не лень можете проверить имеет ли этот проект право на "жизнь"
Нужно было разделить фай 450к строчек на файлы по 10к строк .. вот такое решение пришло первое в голову , готов к критике (только с...

Они тоже заслуживают право на жизнь
TtVPHjMau2Y&amp;feature=player_embedded Это не я снимал и это не мой ролик, просто смотрел и задело за живое, котёнок имеет право на жизнь,...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
3
Ответ Создать тему
Новые блоги и статьи
http://iceja.net/ математические сервисы
iceja 20.01.2026
Обновила свой сайт http:/ / iceja. net/ , приделала Fast Fourier Transform экстраполяцию сигналов. Однако предсказывает далеко не каждый сигнал (см ограничения http:/ / iceja. net/ fourier/ docs ). Также. . .
http://iceja.net/ сервер решения полиномов
iceja 18.01.2026
Выкатила http:/ / iceja. net/ сервер решения полиномов (находит действительные корни полиномов методом Штурма). На сайте документация по API, но скажу прямо VPS слабенький и 200 000 полиномов. . .
Расчёт переходных процессов в цепи постоянного тока
igorrr37 16.01.2026
/ * Дана цепь постоянного тока с R, L, C, k(ключ), U, E, J. Программа составляет систему уравнений по 1 и 2 законам Кирхгофа, решает её и находит переходные токи и напряжения на элементах схемы. . . .
Восстановить юзерскрипты Greasemonkey из бэкапа браузера
damix 15.01.2026
Если восстановить из бэкапа профиль Firefox после переустановки винды, то список юзерскриптов в Greasemonkey будет пустым. Но восстановить их можно так. Для этого понадобится консольная утилита. . .
Сукцессия микоризы: основная теория в виде двух уравнений.
anaschu 11.01.2026
https:/ / rutube. ru/ video/ 7a537f578d808e67a3c6fd818a44a5c4/
WordPad для Windows 11
Jel 10.01.2026
WordPad для Windows 11 — это приложение, которое восстанавливает классический текстовый редактор WordPad в операционной системе Windows 11. После того как Microsoft исключила WordPad из. . .
Classic Notepad for Windows 11
Jel 10.01.2026
Old Classic Notepad for Windows 11 Приложение для Windows 11, позволяющее пользователям вернуть классическую версию текстового редактора «Блокнот» из Windows 10. Программа предоставляет более. . .
Почему дизайн решает?
Neotwalker 09.01.2026
В современном мире, где конкуренция за внимание потребителя достигла пика, дизайн становится мощным инструментом для успеха бренда. Это не просто красивый внешний вид продукта или сайта — это. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru