Форум программистов, компьютерный форум, киберфорум
Python: Научные вычисления
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.67/6: Рейтинг темы: голосов - 6, средняя оценка - 4.67
0 / 0 / 0
Регистрация: 18.01.2015
Сообщений: 88

Python+Numpy, Нейронная сеть обучается но ответ не верный

21.05.2020, 23:23. Показов 1217. Ответов 1
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Доброго дня!

Реализовал нейронную сеть с помощью numpy, метод обучения метод обратного распространения ошибки. Дело в том что она обучается, но когда задаю вход протестировать то выдает число максимально приблеженное к 1. Скриншот прикрепляю.
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
import numpy as np
 
# X = (hours sleeping, hours studying), y = score on test
X = np.array((
 [2.1,1.82,1.82,3.01,8.15,120,160,120,110,70,1.9,10.5,40,33.3],
[2.2,1.82,1.83,3.01,8.15,120,170,110,110,90,1.9,10.5,39,33.4],
[2.1,1.82,1.82,3.01,8.15,120,160,110,110,90,1.9,10.5,40,33.2],
[2.1,2.05,1.85,2.9,8,125,165,120,130,105,2,10.8,39,33.3],
[2.1,1.82,1.82,3.01,8.25,130,160,110,110,95,1.9,10.5,40,33.3],
[2.2,1.82,1.83,3.2,8.15,145,170,110,100,90,1,10.5,39,33.4],
[2.1,1.82,1.82,3.01,9.15,150,160,100,110,90,1.9,11.5,36,30.2],
[2.2,2.05,1.75,2.9,8,145,165,120,130,85,2,11.8,39,33.3],
[2.1,1.82,1.82,3.01,8.15,120,160,110,140,120,1.9,10.5,32,27.3],
[2.2,2.1,1.83,3.01,8.15,120,180,112,110,90,1.9,10.5,39,33.4],
[2.3,1.82,1.82,3.4,8.15,120,200,110,110,90,1.9,10.5,40,33.2],
[2.1,2.05,1.85,2.9,8,125,165,120,130,75,2,10.8,39,39.3],
[2.2,2.05,1.75,2.9,8,145,165,120,130,85,2,11.8,39,33.3],
[2.2,1.9,1.6,3.2,9.15,150,170,130,160,100,2.5,12.5,32,27.3],
[2.2,2.1,1.83,3.01,8.15,120,180,112,110,90,1.9,10.5,25,26],
[2.3,1.82,1.82,3.4,8.15,120,200,110,110,90,1,6,40,33.2],
[2.1,2.05,1.85,2.9,8,125,165,120,130,75,2,10.8,39,39.3]), dtype=float)
y = np.array((
 [95],
[90],
[95],
[100],
[95],
[90],
[80],
[100],
[70],
[50],
[60],
[100],
[100],
[95],
[50],
[60],
[100]), dtype=float)
 
# scale units
X = X/np.amax(X, axis=0) # maximum of X array
x2=np.array((
 [2.1,1.82,1.82,3.01,8.25,130,160,110,110,95,1.9,10.5,40,33.3]),dtype=float)
y = y/100 # max test score is 100
 
class Neural_Network(object):
  def __init__(self):
    #parameters
    self.inputSize = 14
    self.outputSize = 1
    self.hiddenSize = 3
 
    #weights
    self.W1 = np.random.randn(self.inputSize, self.hiddenSize) # (3x2) weight matrix from input to hidden layer
    self.W2 = np.random.randn(self.hiddenSize, self.outputSize) # (3x1) weight matrix from hidden to output layer
 
  def forward(self, X):
    #forward propagation through our network
    self.z = np.dot(X, self.W1) # dot product of X (input) and first set of 3x2 weights
    self.z2 = self.sigmoid(self.z) # activation function
    self.z3 = np.dot(self.z2, self.W2) # dot product of hidden layer (z2) and second set of 3x1 weights
    o = self.sigmoid(self.z3) # final activation function
    return o 
 
  def sigmoid(self, s):
    # activation function 
    return 1/(1+np.exp(-s))
 
  def sigmoidPrime(self, s):
    #derivative of sigmoid
    return s * (1 - s)
 
  def backward(self, X, y, o):
    # backward propgate through the network
    self.o_error = y - o # error in output
    self.o_delta = self.o_error*self.sigmoidPrime(o) # applying derivative of sigmoid to error
 
    self.z2_error = self.o_delta.dot(self.W2.T) # z2 error: how much our hidden layer weights contributed to output error
    self.z2_delta = self.z2_error*self.sigmoidPrime(self.z2) # applying derivative of sigmoid to z2 error
 
    self.W1 += X.T.dot(self.z2_delta) # adjusting first set (input --> hidden) weights
    self.W2 += self.z2.T.dot(self.o_delta) # adjusting second set (hidden --> output) weights
 
  def train (self, X, y):
    o = self.forward(X)
    self.backward(X, y, o)
 
NN = Neural_Network()
for i in range(2000): # trains the NN 1,000 times
  print ("Input: \n" + str(X) )
  print ("Actual Output: \n" + str(y) )
  print ("Predicted Output: \n" + str(NN.forward(X)) )
  print ("Loss: \n" + str(np.mean(np.square(y - NN.forward(X))))) # mean sum squared loss
  print ("\n")
  NN.train(X, y)
print ("Kor: \n" + str(NN.forward(x2)) )
Миниатюры
Python+Numpy, Нейронная сеть обучается но ответ не верный  
0
cpp_developer
Эксперт
20123 / 5690 / 1417
Регистрация: 09.04.2010
Сообщений: 22,546
Блог
21.05.2020, 23:23
Ответы с готовыми решениями:

Долго обучается нейронная сеть на Python
Здравствуйте, написал нейронную сеть для прогнозирования финансового временного ряда. Исходный код: import math import random ...

Нейронная сеть не обучается
Доброго времени суток. Пытаюсь обучить нейронную сеть в эксель на данных. Формат данных нормализован к диапазону (0;1) и имеет вид: ...

Нейронная сеть на action script, не обучается
Добрый день, уважаемые! прошу у Вас помощи, ибо 3й день я не могу найти ошибку в написанном мной алгоритме обучения нейросети,...

1
578 / 411 / 69
Регистрация: 09.01.2018
Сообщений: 1,363
22.05.2020, 01:10
Цитата Сообщение от moDorks Посмотреть сообщение
Доброго дня!
Реализовал нейронную сеть с помощью numpy, метод обучения метод обратного распространения ошибки.
Отлично, поздравляем!

Цитата Сообщение от moDorks Посмотреть сообщение
Дело в том что она обучается, но когда задаю вход протестировать то выдает число максимально приблеженное к 1.
Ну, это вопрос к тому, кто ее написал. Как написали, так она и выдает.

Цитата Сообщение от moDorks Посмотреть сообщение
Скриншот прикрепляю.
Зачем?
И вообще, в чем смысл этого сообщения? Похвастаться?
Ну, тогда начнем с того, что никакой сети лично вы не реализовывали, а просто скопировали скрипт из вот этого источника:
https://enlight.nyc/projects/neural-network
Даже не сославшись. Знаете, как это называется?

Не сумели корректно даже скопировать - ну так разбирайтесь, где вы там неправильно запятую поставили.
Зачем с эти на форум-то приходить?
2
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
raxper
Эксперт
30234 / 6612 / 1498
Регистрация: 28.12.2010
Сообщений: 21,154
Блог
22.05.2020, 01:10
Помогаю со студенческими работами здесь

Нейронная сеть выдаёт один и тот же ответ
Здравствуйте! Есть четыре класса. Для каждого из них используется ad-hoc кодировка. Когда у нас более двух классов, то в sklearn на...

Рекуррентная нейронная сеть на Python
скиньте, пожалуйста, любой код рекуррентной сети. не важно какой. главное рабочую сеть.

Нейронная сеть на Python (Таблица умножения)
Добрый день. Подскажите пожалуйста в чем недочет, нашел на habr пример реализации нейронной сети () и решил его подогнать под свой пример...

Нейронная сеть для распознавания объектов на Python
Всем привет. Нужно написать СОБСТВЕННУЮ нейронную сеть для распознавания объектов на фотографии. Вот пример фотографии, на которой...

Нейронная сеть для поиска путей обхода препятствия (Python)
Здравствуйте, недавно начал изучать создание нейронных сетей на Python (в частности используя библиотеку Keras). Делал пример по...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
2
Ответ Создать тему
Новые блоги и статьи
YAFU@home — распределённые вычисления для математики. На CPU
Programma_Boinc 20.01.2026
YAFU@home — распределённые вычисления для математики. На CPU YAFU@home — это BOINC-проект, который занимается факторизацией больших чисел и исследованием aliquot-последовательностей. Звучит. . .
http://iceja.net/ математические сервисы
iceja 20.01.2026
Обновила свой сайт http:/ / iceja. net/ , приделала Fast Fourier Transform экстраполяцию сигналов. Однако предсказывает далеко не каждый сигнал (см ограничения http:/ / iceja. net/ fourier/ docs ). Также. . .
http://iceja.net/ сервер решения полиномов
iceja 18.01.2026
Выкатила http:/ / iceja. net/ сервер решения полиномов (находит действительные корни полиномов методом Штурма). На сайте документация по API, но скажу прямо VPS слабенький и 200 000 полиномов. . .
Расчёт переходных процессов в цепи постоянного тока
igorrr37 16.01.2026
/ * Дана цепь постоянного тока с R, L, C, k(ключ), U, E, J. Программа составляет систему уравнений по 1 и 2 законам Кирхгофа, решает её и находит: токи, напряжения и их 1 и 2 производные при t = 0;. . .
Восстановить юзерскрипты Greasemonkey из бэкапа браузера
damix 15.01.2026
Если восстановить из бэкапа профиль Firefox после переустановки винды, то список юзерскриптов в Greasemonkey будет пустым. Но восстановить их можно так. Для этого понадобится консольная утилита. . .
Сукцессия микоризы: основная теория в виде двух уравнений.
anaschu 11.01.2026
https:/ / rutube. ru/ video/ 7a537f578d808e67a3c6fd818a44a5c4/
WordPad для Windows 11
Jel 10.01.2026
WordPad для Windows 11 — это приложение, которое восстанавливает классический текстовый редактор WordPad в операционной системе Windows 11. После того как Microsoft исключила WordPad из. . .
Classic Notepad for Windows 11
Jel 10.01.2026
Old Classic Notepad for Windows 11 Приложение для Windows 11, позволяющее пользователям вернуть классическую версию текстового редактора «Блокнот» из Windows 10. Программа предоставляет более. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru