Форум программистов, компьютерный форум, киберфорум
C++: ИИ, нейросети, ML, агенты
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.54/26: Рейтинг темы: голосов - 26, средняя оценка - 4.54
0 / 0 / 0
Регистрация: 21.03.2011
Сообщений: 8

Нейронные сети. Алгоритм обратного распространения

14.05.2012, 19:56. Показов 5184. Ответов 3
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Ребят помогите мне срочно нужно реализовать на C++ алгоритма обратного распространения. Кто с таким сталкивался? Может кто нибудь поможет я буду очень благодарен. Я просто не очень селен в программировании) Очень надо вопрос жизни и смерти.
0
cpp_developer
Эксперт
20123 / 5690 / 1417
Регистрация: 09.04.2010
Сообщений: 22,546
Блог
14.05.2012, 19:56
Ответы с готовыми решениями:

Обучение нейронной сети методом обратного распространения ошибки
пишу нейронную сеть типа многослойный персептрон, для решения задачи аппроксимации функции. Знаю что есть много ресурсов с готовым...

Алгоритм обратного распространения ошибки. Нейронные сети
Прошу помощи с реализацией алгоритма обратного распространения ошибки. Написал программу реализующую многослойный персептрон. Но никак не...

Нейронные сети "Многослойный персептрон и алгоритм обратного распространения ошибки"
Помогите, пожалуйста! Очень и срочно нужно создать многослойную нейронную сеть и обучить для определенной задачи. Тема «Многослойный...

3
 Аватар для QWIPQ
144 / 123 / 14
Регистрация: 10.10.2011
Сообщений: 366
Записей в блоге: 2
14.05.2012, 20:03
Нейронные сети. Алгоритм обратного распространения
ну на скок знаю эт оч даже хорошо оплачиваемая тема
если писать её с нуля, то данная тема не на тот раздел форума написана, пиши в 'бюро добрый услуг'
если у тебя есть код и есть в нем ошибки выкладывай попробуем помочь...
0
0 / 0 / 0
Регистрация: 21.03.2011
Сообщений: 8
15.05.2012, 03:25  [ТС]
Кот есть, но в нем нет обучения, его нужно добавить я не знаю как)

#include "stdafx.h"
#include <math.h>
#include <iostream>
using namespace std;
const int N=12;
const int N2=8;
const int numlayer=1;
int k1=0, k2=0, l;
float f=0.6,s=0.7;
double X[N]={-1.20,0.80,-1.60,-4.03,1.42,-1.60,0.92,1.03,-1.76,-2.02,1.25,-1.6};
double W[N2][numlayer]=
{
-1.20,0.80,-1.60,-4.03,1.42,-1.60,0.92,1.03
};
const double error=1.5;
const double speed=0.05;
int main()
{ setlocale(0,"rus");
double getnet(double*,double[][numlayer]);
void display(double);
double getout(double);
double geterr(double,double);
double newW(double,double,double);
double out;
do{
cout<<"Start weight: ";
for(int i=0;i<N2;i++)
for(int j=0;j<numlayer;j++)
cout<<W[i][j]<<" ";
cout<<endl;
double net=getnet(X,W);
out=getout(net);
double err=geterr(error,net);
if (out<f)k2=k2+1;
if (out<s)k1=k1+1;
cout<<"Out: ";display(net);

cout<<"Error: ";display(err);
newW(error,speed,out);
for(int i=0;i<N2;i++)
for(int j=0;j<numlayer;j++)
cout<<W[i][j]<<" ";

}while(out>0.60);
if(out>1)

cout<<"\n Won first class"<<endl;

else

cout<<"\n Won second class"<<endl;
cout<<endl;

cout<<"func activation: ";display(out);

cout<<"oshibki 1 klassa: ";display(k1);
cout<<"oshibki 2 klassa: ";display(k2);
system("pause");


return 0;

}
double getnet(double* X,double W[][numlayer])
{ double net=0.0;
for(int i=0;i<N2;i++)
for(int j=0;j<numlayer;j++)
net+=X[i]*W[i][j];
return net;
}
double getout(double net)
{
return (1/(1+exp(-net)));
}
double geterr(double err,double net)
{
return (err-net)*net*(1-net);
}
double newW(double err,double speed,double out)
{
double neww=speed*err*out;
cout<<"Koefficient obnovlenya vesa: "<<neww<<endl;
cout<<"Obnovlennie vesa: ";
for(int i=0;i<N2;i++)
for(int j=0;j<numlayer;j++)
W[i][j]+=neww;
return W[N2][numlayer];
}
void display(double num)
{
cout<<num<<endl;
}
0
103 / 74 / 10
Регистрация: 29.05.2010
Сообщений: 192
17.05.2012, 11:25
Вот писал как-то нейронную сеть, чтоб различала на изображении треугольники и квадраты, бери если разберешься
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
//---------------------------------------------------------------------------
#include <stdio.h>
#include <mem.h>
#include <stdlib.h>
#include <time.h>
#include <math.h>
#include <VCL.h>
#pragma hdrstop
 
//---------------------------------------------------------------------------
class TNet{
public:
  int NL, *NN;   //Number of layers, number of neurons
  float** Neur;  //Neurons
  float** E;     //Error for each neuron
  float*** W;    //Weights
  float LearnRate;
  TNet(int NumLayers, int* NeurPerLayer);
  ~TNet();
  void DoInput(float* Input);
  void GetOut(float* Output);
  void CalcError(float* Desired);
  void PrintState();
  void Learn(float* Input, float* DesiredOut);
  float Sigmoid(float x){
     return 1/(1+exp(-x));
  }
  float LearnError();
};
#pragma argsused
int main(int argc, char* argv[])
{
  int NPL[] = {256, 16, 10, 2};
  int NL = 4;
  #define numberFigures 14
  #define figuresForLearn 12
 
  float InputFigure[numberFigures][256];
  float DesiredOut[figuresForLearn][2] = {
  {.95,0},{0,.95},
  {.95,0},{0,.95},
  {.95,0},{0,.95},
  {.95,0},{0,.95},
  {.95,0},{0,.95},
  {.95,0},{0,.95}};
  float out[3] = {0};
 
  AnsiString files[numberFigures]={
  "square.bmp","triangle.bmp",
  "square1.bmp","triangle1.bmp",
  "square2.bmp","triangle2.bmp",
  "square3.bmp","triangle3.bmp",
  "square4.bmp","triangle4.bmp",
  "square5.bmp","triangle5.bmp",
  "square6.bmp","triangle6.bmp"};
  Graphics::TBitmap* bmp = new Graphics::TBitmap;
  for(int k=0;k<numberFigures;k++){
  bmp->LoadFromFile(files[k]);
  bmp->PixelFormat = pf8bit;
  char* buf;
  for(int i=0; i<16; i++){
    buf = (char*)bmp->ScanLine[i];
    for(int j=0;j<16;j++){
      InputFigure[k][i*16+j] = buf[j]+0.5;
    }
  }
  }
 
  TNet* Net = new TNet(NL, NPL);
  printf("\nstarted...\n");
  //for(int i=0; i<100000; i++){
  int l = 0;
  float err = 0;
  int r = 0;
  do{
    err = 0;
    for(int j=0; j<figuresForLearn; j++){
      //r = random(figuresForLearn);
      r=j;
      Net->Learn(InputFigure[r], DesiredOut[r]);
      err += Net->LearnError();
    }
    l++;
  }while((err>0.0001)&&(l<200000));
  //}
  printf("\n%d\n",l);
  for(int j=0; j<numberFigures; j++){
      Net->DoInput(InputFigure[j]);
      Net->GetOut(out);
      /*printf("\nIn\n");
      for(int i=0;i<NPL[0];i++){
        printf("%f \n", pairs[j][0][i]);
      }
      printf("\nDesired\n");
      for(int i=0;i<NPL[NL-1];i++){
        printf("%f \n", pairs[j][1][i]);
      } */
      printf("\nOut %d\n", j+1);
      for(int i=0;i<NPL[NL-1];i++){
        printf("%f \n", out[i]);
      }
  }
  getchar();
  delete Net;
  delete bmp;
  return 0;
}
//---------------------------------------------------------------------------
 
 
 
TNet::TNet(int NumLayers, int* NeurPerLayer){
  NL = NumLayers;
  NN = new int[NL];
  memcpy(NN, NeurPerLayer, NL*sizeof(int));
  LearnRate = 0.025;
 
  Neur = new float*[NL];
  for(int i=0; i<NL; i++){
    Neur[i] = new float[NN[i]];
  }
 
  E = new float*[NL-1];
  for(int i=0; i<NL-1; i++){
    E[i] = new float[NN[i+1]];
  }
 
  srand(time(NULL));
  W = new float**[NL-1];
  for(int i=0; i<NL-1; i++){
    W[i] = new float*[NN[i]];
    for(int j=0; j<NN[i]; j++){
      W[i][j] = new float[NN[i+1]];
      for(int k=0; k<NN[i+1]; k++){
        W[i][j][k] = float(rand()+1)/(65536*4);
      }
    }
  }
}
TNet::~TNet(){
  for(int i=0; i<NL-1; i++){
    for(int j=0; j<NN[i]; j++){
      delete[] W[i][j];
    }
    delete[] W[i];
  }
  delete[] W;
 
  for(int i=0; i<NL-1; i++){
    delete[] E[i];
  }
  delete[] E;
 
  for(int i=0; i<NL; i++){
    delete[] Neur[i];
  }
  delete[] Neur;
 
  delete[] NN;
}
void TNet::DoInput(float* Input){
  memcpy(Neur[0], Input, NN[0]*sizeof(float));
  for(int i=0; i<NL-1; i++){ //количество слоев
    int Next = NN[i+1];
    for(int j=0; j<Next; j++){ //нейронов следующего слоя
      int Prev = NN[i];
      for(int k=0; k<Prev; k++){//предыдущего
        Neur[i+1][j] += Neur[i][k]*W[i][k][j];
      }
      Neur[i+1][j] = Sigmoid(Neur[i+1][j]);
    }
  }
}
void TNet::GetOut(float* Output){
  memcpy(Output, Neur[NL-1], NN[NL-1]*sizeof(float));
}
void TNet::CalcError(float* Desired){
  float Out = 0;
  int NumNeur = NN[NL-1];
 
  for(int i=0; i<NumNeur; i++){  //errors for out layer
    Out = Neur[NL-1][i];
    E[NL-2][i] =  (Desired[i]-Out)*Out*(1-Out);
  }
 
  for(int i=NL-3; i>=0; i--){ //NL-3 - pre-out error layer
    NumNeur = NN[i+1];        //pre-out neuron layer is i+1
    for(int j=0; j<NumNeur; j++){ //j - neurons prev layer
      Out = Neur[i+1][j];         //k - neurons next layer
      int NumNeurNext = NN[i+2];
      float sum = 0;
      for(int k=0; k<NumNeurNext; k++){
        sum += E[i+1][k]*W[i+1][j][k];
      }
      E[i][j] = Out*(1-Out)*sum;
    }
  }
}
 
void TNet::PrintState(){
  printf("\n\nNumber of layers %d\n\n", NL);
  for(int i=0; i<NL; i++){
    printf("%d neurons on %d layer\n", NN[i], i);
  }
  printf("\n\nNeurons\n");
  for(int i=0; i<NL; i++){
    printf("\n%d layer\n", i);
    for(int j=0; j<NN[i]; j++){
      printf("%f ", Neur[i][j]);
    }
    printf("\n");
  }
  printf("\n\nWeights\n");
  for(int i=0; i<NL-1; i++){
    printf("\n%d layer\n", i);
    for(int j=0; j<NN[i]; j++){
      printf("\n%d neuron\n", j);
      for(int k=0; k<NN[i+1]; k++){
        printf("%f ", W[i][j][k]);
      }
      printf("\n");
    }
    printf("\n");
  }
  printf("\n\nErrors\n");
  for(int i=0; i<NL-1; i++){
    printf("\n%d layer\n", i+1);
    for(int j=0; j<NN[i+1]; j++){
      printf("%f ", E[i][j]);
    }
    printf("\n");
  }
}
void TNet::Learn(float* Input, float* DesiredOut){
  DoInput(Input);
  CalcError(DesiredOut);
  int NumNeur = 0;
  float Out = 0;
  for(int i=NL-2; i>=0; i--){ //NL-2 - out error layer
    NumNeur = NN[i];        //pre-out neuron layer is i
    for(int j=0; j<NumNeur; j++){ //j - neurons prev layer
      Out = Neur[i][j];         //k - neurons next layer
      int NumNeurNext = NN[i+1];
      for(int k=0; k<NumNeurNext; k++){
        W[i][j][k] += LearnRate*E[i][k]*Out;
      }
    }
  }
}
 
float TNet::LearnError(){
  int LastErrorLength = NN[NL-1];
  float SumError = 0;
  for(int i=0; i<LastErrorLength; i++){
    SumError += E[NL-2][i]*E[NL-2][i];
  }
  SumError /= LastErrorLength;
  return SumError;
}
0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
raxper
Эксперт
30234 / 6612 / 1498
Регистрация: 28.12.2010
Сообщений: 21,154
Блог
17.05.2012, 11:25
Помогаю со студенческими работами здесь

Нейронные сети обратного распространения
Здравствуйте. Пытаюсь обучить сеть таблице умножения. Обучает до 1*3, а дальше не получается у него. Подскажите в чем беда. class...

Нейронные сети,Метод обратного распространения ошибки
:help:Кто нибудь знает,где взять работающюю программу на C++ по теме: &quot;Метод обратного распространения ошибки&quot; не очень...

Алгоритм обратного распространения ошибки
Добрый день. Пытаюсь реализовать многослойный перцептрон и обучить его с помощью указанного алгоритма. Не совсем понимаю как обучать, когда...

Алгоритм обратного распространения ошибки
Заметила такую вещь. В разной литературе пишут по-разному, и я не могу понять почему некоторые приписывают минус к изменению весов,...

Алгоритм обратного распространения ошибки
Подскажите как построить алгоритм обратного распространения ошибки с использованием функции активации типа ReLU. Для сигмоидной функции...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
4
Ответ Создать тему
Новые блоги и статьи
SDL3 для Web (WebAssembly): Обработчик клика мыши в браузере ПК и касания экрана в браузере на мобильном устройстве
8Observer8 02.02.2026
Содержание блога Для начала пошагово создадим рабочий пример для подготовки к экспериментам в браузере ПК и в браузере мобильного устройства. Потом напишем обработчик клика мыши и обработчик. . .
Философия технологии
iceja 01.02.2026
На мой взгляд у человека в технических проектах остается роль генерального директора. Все остальное нейронки делают уже лучше человека. Они не могут нести предпринимательские риски, не могут. . .
SDL3 для Web (WebAssembly): Вывод текста со шрифтом TTF с помощью SDL3_ttf
8Observer8 01.02.2026
Содержание блога В этой пошаговой инструкции создадим с нуля веб-приложение, которое выводит текст в окне браузера. Запустим на Android на локальном сервере. Загрузим Release на бесплатный. . .
SDL3 для Web (WebAssembly): Сборка C/C++ проекта из консоли
8Observer8 30.01.2026
Содержание блога Если вы откроете примеры для начинающих на официальном репозитории SDL3 в папке: examples, то вы увидите, что все примеры используют следующие четыре обязательные функции, а. . .
SDL3 для Web (WebAssembly): Установка Emscripten SDK (emsdk) и CMake для сборки C и C++ приложений в Wasm
8Observer8 30.01.2026
Содержание блога Для того чтобы скачать Emscripten SDK (emsdk) необходимо сначало скачать и уставить Git: Install for Windows. Следуйте стандартной процедуре установки Git через установщик. . . .
SDL3 для Android: Подключение Box2D v3, физика и отрисовка коллайдеров
8Observer8 29.01.2026
Содержание блога Box2D - это библиотека для 2D физики для анимаций и игр. С её помощью можно определять были ли коллизии между конкретными объектами. Версия v3 была полностью переписана на Си, в. . .
Инструменты COM: Сохранение данный из VARIANT в файл и загрузка из файла в VARIANT
bedvit 28.01.2026
Сохранение базовых типов COM и массивов (одномерных или двухмерных) любой вложенности (деревья) в файл, с возможностью выбора алгоритмов сжатия и шифрования. Часть библиотеки BedvitCOM Использованы. . .
SDL3 для Android: Загрузка PNG с альфа-каналом с помощью SDL_LoadPNG (без SDL3_image)
8Observer8 28.01.2026
Содержание блога SDL3 имеет собственные средства для загрузки и отображения PNG-файлов с альфа-каналом и базовой работы с ними. В этой инструкции используется функция SDL_LoadPNG(), которая. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru