Форум программистов, компьютерный форум, киберфорум
Наши страницы
С++ для начинающих
Войти
Регистрация
Восстановить пароль
 
meraxujiep
43 / 44 / 4
Регистрация: 31.01.2013
Сообщений: 167
1

Такая нейросеть имеет право на жизнь?

07.02.2019, 07:29. Просмотров 246. Ответов 2
Метки нет (Все метки)

Приветствую.
Обратился ко мне товарищь с просьбой сделать нейронную сеть, чтобы она обучалась для выбора поставщика (что-то связано с его учебой). В общем есть 11 критериев поставщиков на основании которых нейронная сеть дает ответ подходит поставщик нам или нет. Пришел с составленной им структурой сети (см. фото).

Товарищь обратился, т.к. хоть маленько я изучил программирование когда-то; но мне кажется после армейки уже совсем соображалки не осталось. Сказал, попробуй может получится.
Посидев, почитав подумал, что такую структуру реально реализовать... выбрал для обучения метод обратного распространения ошибки.

Вопросы:
1. Вообще затея имеет право на жизнь?
2. Посмотрите что сделал. Конечно какой-то процесс изменения весов идет. Как проверить идет ли обучение?

double sigmoid () // Сигмоидальная функция активации
Кликните здесь для просмотра всего текста
C++
1
2
3
double sigmoid (double x){
    return 1/(1+exp(-x));
}


double Predict () // Функция возращает предсказание сети на массив входных сигналов In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
double Predict (double In[11], double W_SecretLayer[4][11], double W_Out[4]){
 
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, In_Layer_2=0, Out_Layer_2=0;
 
    for (int j = 0; j < 4; j++) {
         for (int i = 0; i < 11; i++) {
           In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
         }
     Out_Layer_1[j] = sigmoid(Out_Layer_1[j]);
    }
 
    for ( int i = 0; i < 4; i++) {
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
 
    Out_Layer_2 = sigmoid(In_Layer_2);
 
    return Out_Layer_2;
}


void NeurTraining () // Функция обучения
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
 void NeurTraining (double In[11], double W_SecretLayer[4][11],double W_Out[4], double Our_Expected){
    double Learning_Rate=0.10;
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, In_Layer_2=0, Out_Layer_2=0;
 
    for (int j = 0; j < 4; j++) {                // Вычисление   In_Layer_1[4] и   Out_Layer_1[4]
        for (int i = 0; i < 11; i++) {
          In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
        }
     Out_Layer_1[j] = sigmoid(Out_Layer_1[j]);
    }
    for ( int i = 0; i < 4; i++) {               // Вычисление   In_Layer_1[4]
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
 
    double Actual = sigmoid(In_Layer_2);         // Вычисление актуального решения сети
    double Error_Layer_2 = Actual-Our_Expected;  // Ошибка на выходного слое, как разница актуального решения сети и нашего
    double Gradient_Layer_2 = Actual * (1 - Actual);
    double Weigths_Delta_2 = Error_Layer_2 * Gradient_Layer_2;
 
    for ( int i = 0; i < 4; i++) {    // коррекция весов 2го слоя
       W_Out[i] = W_Out[i]- Out_Layer_1[i] * Weigths_Delta_2 * Learning_Rate;
    }
 
    for (int i = 0; i < 4; i++) {
         double Error_Layer_1 = Weigths_Delta_2 * W_Out[i];
         double Gradient_Layer_1 = Out_Layer_1[i] * (1 - Out_Layer_1[i]);
         double Weigths_Delta_1 = Error_Layer_1 * Gradient_Layer_1;
 
         for ( int j  = 0; j < 11; j++) {
            W_SecretLayer[i][j] = W_SecretLayer[i][j]-In[i] * Weigths_Delta_1 * Learning_Rate;
         }
    }
 
 
 
 }


int Condition () // Условия при которых, функция должно принять решение 1 или 0
Кликните здесь для просмотра всего текста
C++
1
2
3
4
int Condition (double In[11]){
  if ((In[3]==1 & In[4]==1)||(In[1]==1 & In[4]==1)) return 1;
        else return 0;
 }


void RandomFilling() // Заполнение массива In[] рандомно
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
 void RandomFilling(double In[11]){
 
   for (int j=0; j < 11; j++) {
    In[j]=random(2);
   }
 }


void PrintNeur // функция вывода массива In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
void PrintNeur (double In[11]){  //, double W_SecretLayer[4][11],double W_Out[4]
   for (int i = 0; i < 6; i++) {
    cout << "In[" << i+1 << "] " << In[i]  << "     In[" << i+5 << "] " << In[i+5] << endl;
   }
   cout << "In[11] " << In[10] << endl;
 }


int _tmain
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
 int _tmain(int argc, _TCHAR* argv[])
{
    randomize();
    double In[11]; // Массив входных сигналов
    double W_SecretLayer[4][11]= {                           // Массив весов скрытого слоя
     {0.47,0.42,0.47,0.16,0.34,0.15,0.85,0.34,0.44,0.5,0.7}, // заполнен случайным образом
     {0.4,0.13,0.3,0.77,0.13,0.4,0.71,0.23,0.56,0.32,0.24},
     {0.64,0.25,0.63,0.5,0.32,0.47,0.6,0.41,0.26,0.32,0.32},
     {0.47,0.6,0.73,0.56,0.52,0.47,0.62,0.23,0.56,0.72,0.42}
    };
    double W_Out[4]={0.45,0.55,0.36,0.65}; // Массив весов выходного слоя заполнен случайным образом
    int Our_Expected;                      // Наше решение
    for (int i = 0; i < 1000000; i++) {    // Цикл обучения
        cout << "#" << i << endl;
        RandomFilling(In);                 // Заполнение массива In
        Our_Expected = Condition (In) ;    // Наше решение на основании входных сигналов In
        PrintNeur (In);
        cout << "Nashe reshenie: " << Our_Expected << endl;
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "Training: " << endl;
        NeurTraining(In, W_SecretLayer, W_Out, Our_Expected);    // вызов функции обучения
//      PrintNero(c,w);
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "------------------------------------------------------------------------" << endl ;
   }
    getchar();
    getchar();
    return 0;
}
0
Миниатюры
Такая нейросеть имеет право на жизнь?  
Вложения
Тип файла: rar File1.cpp.rar (1.5 Кб, 0 просмотров)
QA
Эксперт
41792 / 34177 / 6122
Регистрация: 12.04.2006
Сообщений: 57,940
07.02.2019, 07:29
Ответы с готовыми решениями:

Такая сборка имеет право на жизнь ?
Мат. плата MSI B75A-G41 Процессор Intel® Core™ i5-3330 OEM Память DDR3 4Gb (pc-12800) 1600MHz ...

Имеет ли право на жизнь такая авторизация?
Приветствую вас, дорогие товарищи форумчане! От вас хотелось бы услышать конструктивной критики и...

Имеет ли право на жизнь?
Сделано на CMS Slaed Специфичный ресурс! Коротко - каталог позволяет пользователям добавлять...

Блок схема имеет право на жизнь?
Здравствуйте, уважаемые форумчане. Подскажите, плиз, Данная блок-схема имеет право на жизнь?...

Имеет ли право на жизнь такой стиль программирования?
Почти никогда не пишу с чистого листа, с нуля, т.е. не создаю программу/процедуру и тд с нуля...

2
meraxujiep
43 / 44 / 4
Регистрация: 31.01.2013
Сообщений: 167
07.02.2019, 10:31  [ТС] 2
Товарищи, помогите оценить правильно ли реализовано обучение в функции NeurTraining ()
0
meraxujiep
43 / 44 / 4
Регистрация: 31.01.2013
Сообщений: 167
07.02.2019, 14:03  [ТС] 3
В общем решил проблемы, как мне кажется. Может кому пригодится.Реализация метода обратного распространения ошибки (11 входов, на внутреннем слое 4 нейрона, на выходе 1, см.фото выше)

// Сигмоидальная функция активации
Кликните здесь для просмотра всего текста
C++
1
2
3
double sigmoid (double x){
    return 1/(1+exp(-x));
}


// Функция возращает предсказание сети на массив входных сигналов In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
double Predict (double In[11], double W_SecretLayer[4][11], double W_Out[4]){
 
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, In_Layer_2=0, Out_Layer_2=0;
 
    for (int j = 0; j < 4; j++) {
         for (int i = 0; i < 11; i++) {
           In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
         }
     Out_Layer_1[j] = sigmoid(In_Layer_1[j]);
    }
 
    for ( int i = 0; i < 4; i++) {
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
 
    Out_Layer_2 = sigmoid(In_Layer_2);
 
    return Out_Layer_2;
}


// Функция обучения
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
void NeurTraining (double In[11], double W_SecretLayer[4][11],double W_Out[4], double Our_Expected){
    double Learning_Rate=0.7;
    double In_Layer_1[4]={0,0,0,0},Out_Layer_1[4]={0,0,0,0}, W_Delta_Layer_1[4]={0,0,0,0}, In_Layer_2=0, C=0;
 
    for (int j = 0; j < 4; j++) {                // Вычисление   In_Layer_1[4] и   Out_Layer_1[4]
        for (int i = 0; i < 11; i++) {
          In_Layer_1[j]+=In[i]* W_SecretLayer[j][i];
        }
     Out_Layer_1[j] = sigmoid(In_Layer_1[j]);
    }
 
    for ( int i = 0; i < 4; i++) {               // Вычисление   In_Layer_1[4]
        In_Layer_2+= Out_Layer_1[i] * W_Out[i];
    }
    double Out_Layer_2=sigmoid(In_Layer_2);
 
    double Actual = sigmoid(In_Layer_2);         // Вычисление актуального решения сети
    double Error = Our_Expected - Actual;  // Ошибка на выходного слое, как разница актуального решения сети и нашего
    for (int i = 0; i < 4; i++) {          // Вычисление ошибки на 1 слое для каждого нейрона
        W_Delta_Layer_1[i]= Error * W_Out[i];
    }
 
        for (int i = 0; i < 4; i++){
            for (int j = 0; j < 11; j++) {
            W_SecretLayer[i][j]= W_SecretLayer[i][j] + W_Delta_Layer_1[i] * sigmoid(In_Layer_1[i]) * (1 - sigmoid(In_Layer_1[i])) * In[j] * Learning_Rate;
            }
        }
 
 
    for (int i = 0; i < 4; i++) {
            W_Out[i]= W_Out[i] + Error * sigmoid(In_Layer_2) * (1 - sigmoid(In_Layer_2)) * Out_Layer_1[i] * Learning_Rate;
    }
 }


// Условия при которых, функция должно принять решение 1 или 0
Кликните здесь для просмотра всего текста
C++
1
2
3
4
int Condition (double In[11]){
  if ((In[3]==1 & In[4]==1 & In[7]==1)||(In[1]==1 & In[4]==1)) return 1;
        else return 0;
 }


// Заполнение массива In[] рандомно
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
void RandomFilling(double In[11]){
 
   for (int j=0; j < 11; j++) {
    In[j]=random(2);
   }
 }


// функция вывода массива In[]
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
void PrintNeur (double In[11]){  //, double W_SecretLayer[4][11],double W_Out[4]
   for (int i = 0; i < 6; i++) {
    cout << "In[" << i+1 << "] " << In[i]  << "     In[" << i+5 << "] " << In[i+5] << endl;
   }
   cout << "In[11] " << In[10] << endl;
 }


// main
Кликните здесь для просмотра всего текста
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
 int _tmain(int argc, _TCHAR* argv[])
{
    randomize();
    double In[11]; // Массив входных сигналов
    double W_SecretLayer[4][11]= {                           // Массив весов скрытого слоя
     {0.47,0.42,0.47,0.16,0.34,0.15,0.85,0.34,0.44,0.5,0.7}, // заполнен случайным образом
     {0.4,0.13,0.3,0.77,0.13,0.4,0.71,0.23,0.56,0.32,0.24},
     {0.64,0.25,0.63,0.5,0.32,0.47,0.6,0.41,0.26,0.32,0.32},
     {0.47,0.6,0.73,0.56,0.52,0.47,0.62,0.23,0.56,0.72,0.42}
    };
    double W_Out[4]={0.45,0.55,0.36,0.65}; // Массив весов выходного слоя заполнен случайным образом
    int Our_Expected;                      // Наше решение
 
    for (int i = 0; i < 10000; i++) {    // Цикл обучения
        cout << "#" << i << endl;
        RandomFilling(In);                 // Заполнение массива In
        Our_Expected = Condition (In) ;    // Наше решение на основании входных сигналов In
        PrintNeur (In);
        cout << "Nashe reshenie: " << Our_Expected << endl;
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "Training: " << endl;
        NeurTraining(In, W_SecretLayer, W_Out, Our_Expected);    // вызов функции обучения
//      PrintNero(c,w);
        cout << "Predskazanie seti: " << Predict (In, W_SecretLayer, W_Out) <<endl;
        cout << "------------------------------------------------------------------------" << endl ;
   }
 
 
    getchar();
    getchar();
    return 0;
}
1
Вложения
Тип файла: rar File1.rar (1.5 Кб, 3 просмотров)
Answers
Эксперт
37091 / 29110 / 5898
Регистрация: 17.06.2006
Сообщений: 43,301
07.02.2019, 14:03

Generic классы, типы которых, ссылаются друг на друга. Идея имеет право на жизнь?
Здравствуйте, имеются объекты класса Element&lt;S,E&gt;, которые хранятся и обрабатываются в экземплярах...

Кому не лень можете проверить имеет ли этот проект право на "жизнь"
Нужно было разделить фай 450к строчек на файлы по 10к строк .. вот такое решение пришло первое в...

Они тоже заслуживают право на жизнь
TtVPHjMau2Y&amp;feature=player_embedded Это не я снимал и это не мой ролик, просто смотрел и задело за...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
3
Ответ Создать тему
Опции темы

КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2019, vBulletin Solutions, Inc.