Форум программистов, компьютерный форум, киберфорум
Наши страницы
Konst2016
Войти
Регистрация
Восстановить пароль
Оценить эту запись

Моя C нейросеть некачественно обучается по сравнению с keras???

Запись от Konst2016 размещена 29.12.2019 в 05:33
Обновил(-а) Konst2016 29.12.2019 в 05:35 (стер лишн.)

Здравствуйте!Показываю код нейросети на Си,где она обучается на 170 рядов рандомного нормального распределения их 28 колонок,и выводит график посредством Python matplotlib и берет данные для обучения со скрипта имя которого я указываю в батнике, то что называется встраивание Python в C/C++ приложение.Сеть делал с адаптивным коэффициентом обучения и так называемом моментумом(не уверен что правильно реализовал его, но без него график обучения получается хуже).Потом укажу код keras и оба графика обучения на этих 170 рядах.Почему-то моя сеть показывает что некачественно обучается по сравнению с keras.Почему это может быть?Ведь код вроде верный?Также покажу графики как моя сеть и keras обучаются на логическом xor.Опять же
график keras лучше(потому что еще смотрю на предыдущий график).
Итак:
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
// хедер henNN.h
#ifndef HEDNN_H
#define HEDNN_H
#ifdef __cplusplus
extern "C" {
#endif
#include <stdio.h>
#include <stdlib.h>
#include <math.h>
#include <stdbool.h>
#include "hedPy.h"
    // Представляет из себя слой
 
    typedef struct {
        int in; // сенсоры данного слоя
        int out; // связи-выходы-данного-слоя-синапсы
        float** matrix; // матрица весов данного слоя
        float *cost_signals; // после матричного умножения
        float* hidden; // что получилось при функции активации
        float* errors; // ошибки данного слоя,их можно сразу наложить на матрицу весо-подправить
    } nnLay;
    //------------------прототипы для обучения-----------------
    float
    sigmoida(float val);
    float
    sigmoidasDerivate(float val);
    void
    backPropagate();
    void
    feedForwarding(bool ok);
    void
    train(float *in, float *targ);
    void
    query(float *in);
    int
    getInCount(nnLay *curLay);
    int
    getOutCount(nnLay *curLay);
    float **
    getMatrix(nnLay *curLay);
    void
    updMatrix(nnLay *curLay, float *enteredVal);
    void
    calcHidZeroLay(nnLay* zeroLay, float* targets);
    void
    setIO(nnLay *curLay, int inputs, int outputs);
    void
    init(float lr);
    void
    fit(int epochs, float lr);
    void
    makeHidden(nnLay *curLay, float *inputs);
    float*
    getHidden(nnLay *curLay);
    void
    calcOutError(nnLay *curLay, float *targets);
    void
    calcHidError(nnLay *curLay, float *targets, float *enteredVals);
    float*
    getErrors(nnLay *curLay);
    float *
    getCostSignals(nnLay *curLay);
    float
    getMinimalSquareError(float *vec, int size_vec);
    float relu(float x);
    float derivateRelu(float x);
    void
    destruct();
    void make_matrix_from_pyobj(PyObject* pVal);
    void initiate_layers(int *network_map,int len);
    PyObject*
    do_custum_func(const char* func, PyObject * pArgs);
    void adaptive_lr(float &mse, float &mse_previous, float &lr, float &lr_previous);
    //----------------------------------------------------
#ifdef __cplusplus
}
#endif
#endif /* HEDNN_H */
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
// хедер hedPy.h
#ifndef HEDPY_H
#define HEDPY_H
extern "C" {
#include <Python.h>
}
PyObject *pName = NULL, *pModule = NULL;
PyObject *pDict = NULL, *pObjct = NULL, *pVal = NULL,*xMatrix = NULL,*yMatrix = NULL;
PyObject* sys = NULL;
PyObject* sys_path = NULL;
PyObject* folder_path = NULL;
PyObject *
python_init(char *);
void
python_clear();
void
python_func_get_str(char *val);
int
python_func_get_val(char *val);
PyObject*
do_custum_func(const char* func, PyObject* pArgs);
int get_list_size(PyObject* listt);
void make_matrix_from_pyobj(PyObject *pVal);
void plot_grafik_from_C();
void print_deb_matrix(float *vec,int rows,int cols);
#endif  /* HEDPY_H */
C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
// main.cpp
/* ИНС с адаптивным коэффициентом обучения и
 * моментумом
 */
#include "hedNN.h"
#include "hedPy.h"
#include <vector>
#include <stdio.h>
#include <windows.h>
#include <stdlib.h>
#include <signal.h>
using namespace std;
vector<int> epochs;
vector<float>mse;
float *vec;
float *vec_train;
int rows, cols;
float *vec_teacher;
int rows_teach, cols_teach;
using namespace std;
//------------------Basic NeiroNet Structures--------------------
typedef struct {
    nnLay *list;
    int inputNeurons; // количество выходных нейронов
    int outputNeurons; // количество входных нейронов
    int nlCount; // количество слоев
    float *inputs;
    float *targets;
    float lr; // коэффициент обучения
} whole_NN_params;
whole_NN_params * NN;
//------------------------------------------------------------------
//==================================================================
int main(int argc, char * argv[])
{
    float lr = 0.07;
    int eps = 25;
    char * main_script;
    // получить аргументы из коммандной строки
    if (argv[1] != NULL && argv[2] != NULL && argv[3] != NULL) {
        lr = (float) atof(argv[1]);
        eps = atoi(argv[2]);
        // откуда берем данные и строим график
        main_script = argv[3];
    }
    if (!python_init(main_script)) {
        puts("python_init error");
        return -1;
    }
    //----------Загрузим матрицы из скрипта---------
    pVal = do_custum_func("get_data_x", NULL);
    rows = get_list_size(pVal);
    PyObject *inner_list = PyList_GetItem(pVal, 0);
    cols = get_list_size(inner_list);
    make_matrix_from_pyobj(pVal);
    vec_train = vec;
    pVal = do_custum_func("get_data_y", NULL);
    rows_teach = get_list_size(pVal);
    inner_list = PyList_GetItem(pVal, 0);
    cols_teach = get_list_size(inner_list);
    rows = rows_teach;
    cols = cols_teach;
    //      print_deb_matrix(vec_train, rows, cols);
    make_matrix_from_pyobj(pVal);
    vec_teacher = vec;
    // можно пользоваться глобалной vec
    // используем карту НС
    pVal = do_custum_func("get_map_nn", NULL);
    int map_size = PyTuple_Size(pVal);
    int *map_nn = new int[map_size];
    PyObject * tmp_elem;
    for (int i = 0; i < map_size; i++) {
        tmp_elem = PyTuple_GetItem(pVal, i);
        map_nn[i] = (int) PyLong_AsLong(tmp_elem);
        printf("map_nn - %d\n", map_nn[i]);
    }
    initiate_layers(map_nn, map_size);
    //----------запускаем нейросеть----------
    fit(eps, lr);
    //---------------------------------------
    plot_grafik_from_C();
    python_clear();
    //------------------------------------------
    destruct();
    return 0;
}
 
int get_list_size(PyObject* listt)
{
    int size = 0;
    size = PyList_Size(listt);
    return size;
}
 
void initiate_layers(int *network_map, int size)
{
    NN = (whole_NN_params*) malloc(sizeof(whole_NN_params));
    NN->nlCount = size - 1;
    NN->inputNeurons = network_map[0];
    NN->outputNeurons = network_map[NN->nlCount];
    NN->list = (nnLay*) malloc((NN->nlCount) * sizeof(nnLay));
    setIO(&NN->list[0], network_map[1], network_map[0]);
    for (int i = 2; i < size; i++) {
        setIO(&NN->list[i - 1], network_map[i], network_map[i - 1]);
    }
}
 
void plot_grafik_from_C()
{
    PyObject *py_lst_x, *py_lst_y, *py_tup;
    py_lst_x = PyList_New(epochs.size());
    py_lst_y = PyList_New(mse.size());
    py_tup = PyTuple_New(2);
    for (int i = 0; i < epochs.size(); i++) {
        PyList_SetItem(py_lst_x, i, Py_BuildValue("i", epochs[i]));
    }
    for (int i = 0; i < mse.size(); i++) {
        PyList_SetItem(py_lst_y, i, Py_BuildValue("f", mse[i]));
    }
    PyTuple_SetItem(py_tup, 0, py_lst_x);
    PyTuple_SetItem(py_tup, 1, py_lst_y);
    do_custum_func("plot_graphic_by_x_and_y", py_tup);
    Py_XDECREF(py_lst_x);
    Py_XDECREF(py_lst_y);
}
 
void print_deb_matrix(float *vec, int rows, int cols)
{
    for (int i = 0; i < rows; i++) {
        for (int j = 0; j < cols; j++) {
            printf("%f", vec[i * cols + j]);
        }
        printf("\n");
    }
}
 
void make_matrix_from_pyobj(PyObject *pVal)
{
    PyObject * tmp_row;
    PyObject* tmp_elem;
    float val;
    vec = new float[rows * cols];
    for (int y = 0; y < rows; y++) {
        tmp_row = PyList_GetItem(pVal, y); // выбираем ряд
        for (int x = 0; x < cols; x++) {
            tmp_elem = PyList_GetItem(tmp_row, x); // выбираем элемент по колонке              
            val = (float) PyFloat_AsDouble(tmp_elem);
            vec[y * cols + x] = val;
        }
    }
}
 
//==================================================================
//---------------------Python as Plugin part------------------------
/*
 * Загрузка интерпритатора python и модуля "-//-" в него.
 */
PyObject *
python_init(char * py_module_name)
{
    // Инициализировать интерпретатор Python
    Py_Initialize();
    do {
        // Загрузка модуля sys
        // Но переменную среды PYTHONHOME не меняем,
        // пусть плагин из этой переменной находит Lib и DLLs
        sys = PyImport_ImportModule("sys");
        sys_path = PyObject_GetAttrString(sys, "path");
        // Путь до наших исходников python
        // То,что строит график лежит в <где exe-шник>/src/python/plot.py
        folder_path = PyUnicode_FromString("./src/python");
        PyList_Append(sys_path, folder_path);
        // Создание Unicode объекта из UTF-8 строки
        pName = PyUnicode_FromString(py_module_name);
        if (!pName) {
            break;
        }
        // Загрузить модуль client
        pModule = PyImport_Import(pName);
        if (!pModule) {
            break;
        }
        // Словарь объектов содержащихся в модуле
        pDict = PyModule_GetDict(pModule);
        if (!pDict) {
            break;
        }
        return pDict;
    } while (0);
    // Печать ошибки
    PyErr_Print();
}
 
/*
 * Освобождение ресурсов интерпритатора python
 */
void
python_clear()
{
    // Вернуть ресурсы системе
    Py_XDECREF(pDict);
    Py_XDECREF(pModule);
    Py_XDECREF(pName);
    Py_XDECREF(folder_path);
    Py_XDECREF(sys_path);
    Py_XDECREF(sys);
    // Выгрузка интерпритатора Python
    Py_Finalize();
}
 
PyObject*
do_custum_func(const char* func, PyObject * pArgs)
{
    PyObject * pVal;
    pObjct = PyDict_GetItemString(pDict, (const char *) func);
    if (!pObjct) {
        return NULL;
    }
    do {
        {
            // Проверка pObjct на годность.
            if (!PyCallable_Check(pObjct)) {
                break;
            }
            pVal = PyObject_CallObject(pObjct, pArgs);
            if (pVal != NULL) {
                Py_XDECREF(pVal);
            } else {
                PyErr_Print();
            }
        }
    } while (0);
    PyErr_Print();
    return pVal;
}
 
//----------------------------------------------------------------
//---------------------Init,Fit and Destroy NeiroNet--------------
void
destruct()
{
    free(NN);
    free(NN->list);
}
 
void
fit(int eps, float lr_init)
{
    // реализуем адаптивный коэффициент обучения
    NN->lr = lr_init;
    float mse_t;
    float mse_previous = 0;
    float lr = NN->lr;
    float lr_previous = 0;
    // итерации,обучение
    int nEpoch = eps;
    int epocha = 0;
    // временные вектора для процесса обучения
    float * tmp_vec_learn = (float *) malloc(NN->inputNeurons * sizeof(float));
    float * tmp_vec_targ = (float *) malloc(NN->outputNeurons * sizeof(float));
    while (epocha < nEpoch) {
        for (int row = 0; row < rows; row++) {
            for (int elem = 0; elem < NN->inputNeurons; elem++) {
                tmp_vec_learn[elem] = vec_train[row * cols + elem];
            }
            for (int elem = 0; elem < NN->outputNeurons; elem++) {
                tmp_vec_targ[elem] = vec_teacher[row * cols_teach + elem];
            }
            train(tmp_vec_learn, tmp_vec_targ);
            mse_t = getMinimalSquareError(getHidden(&NN->list[NN->nlCount - 1]), NN->outputNeurons);
            adaptive_lr(mse_t, mse_previous, lr, lr_previous);
        }
        mse.push_back(mse_t);
        epocha++;
        epochs.push_back(epocha);
    }
    // деструкторы
    free(tmp_vec_learn);
    free(tmp_vec_targ);
}
 
void adaptive_lr(float &mse, float &mse_previous, float &lr, float &lr_previous)
{
    { // для формул
        float alpha = 0.99;
        float betta = 1.01;
        float gamma = 1.01;
        float delta_E = mse - gamma*mse_previous;
        if (delta_E > 0) {
            NN->lr = alpha*lr;
        } else {
            NN->lr = betta*lr_previous;
        }
        mse_previous = mse;
        lr_previous = NN->lr;
    }
}
 
//===============================================================
//--------------------Basic Functions for Learn------------------
void
backPropagate()
{
    //-------------------------------ERRORS-----CALC---------
    calcOutError(&NN->list[NN->nlCount - 1], NN->targets);
    calcHidError(&NN->list[NN->nlCount - 1], getErrors(&NN->list[NN->nlCount - 1]), getCostSignals(&NN->list[NN->nlCount - 2 ]));
    for (int i = NN->nlCount - 2; i > 0; i--)
        calcHidError(&NN->list[i], getErrors(&NN->list[i + 1]), getCostSignals(&NN->list[i - 1]));
    // последнему слою не нужны входа т.к. у них нет функции активации
    calcHidZeroLay(&NN->list[0], getErrors(&NN->list[1]));
    //-------------------------------UPD-----WEIGHT---------
    for (int i = NN->nlCount - 1; i > 0; i--)
        updMatrix(&NN->list[i], getCostSignals(&NN->list[i - 1]));
    updMatrix(&NN->list[0], NN->inputs);
}
 
//---------------------------------------------
//---------------------Learn-------------------
/*
обучение с учителем с train set
@param in наблюдения
@param targ правильный ответ от учителя
 */
void
train(float *in, float *targ)
{
    NN->inputs = in;
    NN->targets = targ;
    feedForwarding(false);
}
 
void
feedForwarding(bool ok)
{
    //   если ok = true - обучаемся, перед этим выполним один проход по сети
    makeHidden(&NN->list[0], NN->inputs);
    //   для данного слоя получить то что отдал пред-слой
    {
        for (int i = 1; i < NN->nlCount; i++)
            //получаем отдачу слоя и передаем ее следующему  справа как аргумент
            makeHidden(&NN->list[i], getHidden(&NN->list[i - 1]));
    }
    if (ok) {
        for (int out = 0; out < NN->outputNeurons; out++) { // при спрашивании сети - отпечатаем вектор последнего сло¤
            printf("%f ", NN->list[NN->nlCount - 1].hidden[out]);
        }
        return;
    } else {
        backPropagate();
    }
}
 
int
getInCount(nnLay *curLay)
{
    return curLay->in;
}
 
int
getOutCount(nnLay *curLay)
{
    return curLay->out;
}
 
float **
getMatrix(nnLay *curLay)
{
    return curLay->matrix;
}
 
void
updMatrix(nnLay *curLay, float *enteredVal)
{
    // 0.1 регуляризатор;+ 0.8 * curLay->matrix[row][elem]-как я думаю моментум
    for (int row = 0; row < curLay->out; row++) {
        for (int elem = 0; elem < curLay->in; elem++) {
            curLay->matrix[row][elem] = NN->lr * (-curLay->errors[elem] * enteredVal[elem] + 0.1 * curLay->matrix[row][elem]) + 0.8 * curLay->matrix[row][elem];
            //+ 0.8 * curLay->matrix[row][elem];
        }
    }
}
#define randWeight(out) (( ((float)rand() / (float)RAND_MAX)* pow(out,-0.5)))
 
void
setIO(nnLay *curLay, int outputs, int inputs)
{
    {
        // сенсоры
        curLay->in = inputs;
        // нейроны-выходы-синапсы
        curLay->out = outputs;
        // отдача нейронов
        curLay->hidden = (float*) malloc((curLay->out) * sizeof(float));
        curLay->cost_signals = (float*) malloc((curLay->out) * sizeof(float));
        curLay->matrix = (float**) malloc((curLay->out) * sizeof(float));
    }
    for (int row = 0; row < curLay->out; row++) {
        curLay->matrix[row] = (float*) malloc(curLay->in * sizeof(float));
    }
    for (int row = 0; row < curLay->out; row++) {
        for (int elem = 0; elem < curLay->in; elem++) {
            curLay->matrix[row][elem] = randWeight(curLay->out);
        }
    }
}
 
void
makeHidden(nnLay *curLay, float *inputs)
{
    for (int row = 0; row < curLay->out; row++) {
        float tmpS = 0.0;
        for (int elem = 0; elem < curLay->in; elem++) {
            tmpS += curLay->matrix[row][elem] * inputs[elem];
        }
        curLay->cost_signals[row] = tmpS;
        curLay->hidden[row] = sigmoida(tmpS);
    }
}
 
float *
getCostSignals(nnLay * curLay)
{
    return curLay->cost_signals;
}
 
float*
getHidden(nnLay *curLay)
{
    return curLay->hidden;
}
 
void
calcOutError(nnLay *curLay, float *targets)
{
    {
        curLay->errors = (float*) malloc((curLay->out) * sizeof(float));
    }
    for (int row = 0; row < curLay->out; row++) {
        curLay->errors[row] = (targets[row] - curLay->hidden[row]) * sigmoidasDerivate(curLay->cost_signals[row]);
    }
}
 
void
calcHidError(nnLay *curLay, float *targets, float *enteredVals)
{
    {
        curLay->errors = (float*) malloc((curLay->in) * sizeof(float));
    }
    for (int elem = 0; elem < curLay->in; elem++) {
        {
            curLay->errors[elem] = 0.0;
        }
        for (int row = 0; row < curLay->out; row++) {
            curLay->errors[elem] += targets[row] * curLay->matrix[row][elem] * sigmoidasDerivate(enteredVals[elem]);
        }
    }
}
 
void
calcHidZeroLay(nnLay* zeroLay, float * targets)
{
    {
        zeroLay->errors = (float*) malloc((zeroLay->in) * sizeof(float));
    }
    for (int elem = 0; elem < zeroLay->in; elem++) {
        {
            zeroLay->errors[elem] = 0.0;
        }
        for (int row = 0; row < zeroLay->out; row++) {
            zeroLay->errors[elem] += targets[row] * zeroLay->matrix[row][elem];
        }
    }
}
 
float*
getErrors(nnLay *curLay)
{
    return curLay->errors;
}
 
float
getMinimalSquareError(float *vec, int size_vec)
{
    float sum = 0;
    for (int row = 0; row < size_vec; row++) {
        sum += vec[row];
    }
    float mean = sum / size_vec;
    float square = pow(mean, 2);
    return square;
}
 
float
sigmoida(float val)
{
    float res = (1.0 / (1.0 + exp(-val)));
    if (isnan(res)) {
        return 0;
    } else {
        return res;
    }
}
 
float
sigmoidasDerivate(float val)
{
    float res = exp(-val) / pow(1 + exp(-val), 2);
    if (isnan(res)) {
        return 0;
    } else {
        return res;
    }
}
 
/*
float relu(float x)
{
    if (x <= 0)
        return 0;
    else
        return x;
}
float derivateRelu(float x)
{
    if (x <= 0)
        return 0.01;
    else
        return 1;
}
 */
//--------------------------------------------------------------
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
# <относительно exeшника> ./src/python/learn_many.py
# Данные после обучения будут сравниваться с keras моделью с такими же параметрами
import sys;sys.argv = ['test'] # Здесь обязательно указываем имя скрипта,что бы Matplotlib работал 
import matplotlib.pyplot as plt 
import numpy as np
 
def plot_graphic_by_x_and_y(*args):
  fig,ax=plt.subplots() 
  ax.plot(args[0],args[1])
  ax.grid()
  ax.set_xlabel("epocha",
          fontsize=15,
          color='red',
          bbox={'boxstyle':'rarrow',
              'pad':0.1,
              'edgecolor':'red',
              'linewidth':3})
  ax.set_ylabel("mse",
          fontsize=15,
          color='red',
          bbox={'boxstyle':'rarrow',
              'pad':0.1,
              'edgecolor':'red',
              'linewidth':3})
  fig.set_figwidth(9)
  fig.set_figheight(9)
  plt.show()
 
map_nn=(28,12,13,14,7)
 
np.random.seed(5)
 
# learn many
x=np.random.normal(size=(170,28)).tolist()
y=np.random.normal(size=(170,7)).tolist()
 
def get_data_x():
  return x
 
def get_data_y():
  return y
 
def get_map_nn():
  return map_nn
Bash
1
2
3
rem runCpp.bat
rem Запуск сети со скриптом
start cmd /K cppneironetintegrpyth 0.01 20 learn_many
Код kearas.
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
# keras_nn.py
import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.callbacks import History
import matplotlib.pyplot as plt
 
 
def plot_history(history):
    fig,ax=plt.subplots()
    x=range(20)
    plt.plot(x,history.history['loss'])
    ax.set_xlabel("Epochs")
    ax.set_ylabel("Mse")
    plt.show()
 
np.random.seed(5)
 
# learn xor.Потом использую 
#x=np.array([[1,1],[1,0],[0,1],[0,0] ])
#y=np.array([[0],[1],[1],[0]])
 
# learn many
x=np.random.normal(size=(170,28))
y=np.random.normal(size=(170,7))
 
 
def get_data_x():
  return x
 
def get_data_y():
  return y
 
#map_nn=(28,12,13,14,7) аналогия с мое map nn
 
model=Sequential()
model.add(Dense(12,input_dim=28,activation='sigmoid'))
model.add(Dense(13,activation='sigmoid'))
model.add(Dense(14, activation='sigmoid'))
model.add(Dense(7, activation='sigmoid'))
 
model.compile(optimizer='SGD',loss='mse',metrics=['mse'])
history=model.fit(get_data_x(),get_data_y(),epochs=20)
plot_history(history)
График моей сети на многих рандомных рядах:
Нажмите на изображение для увеличения
Название: me_learn_many.png
Просмотров: 848
Размер:	34.1 Кб
ID:	5769

График keras c аналогичной архитектурой на тех же рядах:
Нажмите на изображение для увеличения
Название: keras_learn_many.png
Просмотров: 951
Размер:	19.1 Кб
ID:	5771
График моей сети обучения на логическом Xor:
Нажмите на изображение для увеличения
Название: me_learn_xor.png
Просмотров: 827
Размер:	26.4 Кб
ID:	5770
График keras обучения на логическом Xor:
Нажмите на изображение для увеличения
Название: keras_learn_xor.png
Просмотров: 782
Размер:	25.8 Кб
ID:	5772
Видно по графикам keras что он лучше обучается.Что может быть неправильным в коде моей сети (или в чем то другом)???
Интересно что в случае многих рандомных 170 рядов моя сеть начинается с ошибки(mse) 0.25 потом прыгает и конечная ошибка у нее опять 0.25.А у keras в этом случае последняя ошибка 1,20.Получается моя сеть лучше обучилась???
Размещено в Без категории
Просмотров 90 Комментарии 0
Всего комментариев 0
Комментарии
 
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2020, vBulletin Solutions, Inc.