Форум программистов, компьютерный форум, киберфорум
Python: ИИ, нейросети, ML, агенты
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
0 / 0 / 0
Регистрация: 03.12.2024
Сообщений: 12

Почему нейросеть не обучается?

08.12.2024, 17:53. Показов 738. Ответов 0

Студворк — интернет-сервис помощи студентам
Было интересно написать нейросеть самому. Написал рабочую модель - картинки отлично заучивает; а вот крутить-вертеть - нет.

По моей задумке, в зависимости от двух последних нейронов (первый: 1 - отражён, 0 - не отражён; второй: 0-2 - на сколько градусов повёрнут (кратных 90)). Сколько бы нейронов в скрытом слое я не выставлял, сколько бы не ждал "эпох", какие бы функции активации и методы разбрасывания не применял, выше ошибки 0,05 и изредка 0,008 (если весы удачно встанут для генерации одного единственного примера, а не всех 8-и), не могу вылезти. В основном обучение встаёт на моменте, где большую часть времени нейросеть генерирует усреднённую со всех вариантов картинку.

Гифка состояния картинки на разных "эпохах" прилагается (показаны 1510 итераций обновления весов с промежутком в 10 итераций между каждым кадром). На 3-х скрытых слоях выставил по 5 нейронов (поверьте, даже 500 нейронов не особо исправят ситуацию), ко входным нейроном добавляю ещё два, отвечающие за отражение и поворот. Нейроны смещения включены.

P. S. Так как у меня никчёмный компьютер, пишу с телефона на Pydroid-е.

Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
import numpy as np
from PIL import Image
import os
from random import randint
 
np.set_printoptions(precision=50)
 
inPath = "input/input2.jpg"
dir = "memorized/"
if not os.path.exists(dir):
    os.makedirs(dir)
outPath = dir + "output"
 
img = Image.open(inPath)
width, height = img.size
height = height // 2
width = width // 2
img = img.resize((width, height), Image.LANCZOS)
 
img = np.array(img)
img = img.flatten()
img_len = len(img)
 
extra = 0
#X = np.append(img[:-extra], np.empty((1, extra))).reshape(1, img_len) / 255.0
X = img.reshape(1, img_len) / 255.0
d = img.reshape(1, img_len) / 255.0  # Нормализация
 
# Увеличиваем размер скрытого слоя до 128
nS = np.array([len(X[0]) + 2] + [500] * 3 + [len(d[0])])  
 
print(nS, "@")
num_samples = len(X)
learning_rate = 0.0005 # Уменьшенная скорость обучения
min_error = 0.01 ** 2
length_nets = len(nS) - 1
alpha = 0.1
doBias = True
rand = 0
rot = 0
 
 
def main():
    MSE = 1
    while MSE > min_error:
        network = initialize_weights(doBias)
        network, MSE = train(network, X, doBias)
 
def train(network, X, doBias=False):
    global learning_rate, d, img_len, height, width, rand, rot
    
    epoch = 1
    step = 1
    save_picture(neurons_into_picture(directPass(X[0], network, doBias=doBias)), epoch)
    epoch+=1
    
    while True:
        for sample in range(num_samples):
            answer, sums = directPass(X[sample], network, True, doBias)
            
            if rand == 1:
                array = d[sample].reshape(height, width, 3)
                array = np.flip(d[sample], axis=0)
                d[sample] = array.flatten()
            else:
                array = d[sample].reshape(height, width, 3)
                array = np.rot90(array, k=rot)
                d[sample] = array.flatten()
            
            error = (d[sample] - answer) * df(answer)
            gradients = backPass(error, sums, network, doBias)
            
            for layer in range(length_nets):
                delta_w = learning_rate * sums[layer] * gradients[layer + 1][:, np.newaxis]
                if doBias:
                    network[layer][:-1 * doBias] += delta_w.T
                    network[layer][-1] += learning_rate * gradients[layer + 1][:, np.newaxis].reshape(network[layer][-1].shape)
                else:
                    network[layer] += delta_w.T                 
 
        error_sum = np.array([directPass(X[samples], network, doBias=doBias) for samples in range(num_samples)]).reshape(len(d), len(d[0]))
        
        MSE = np.sum((error_sum - d) ** 2) / img_len
        if MSE < min_error:
            print(f"\n[ОБУЧЕНИЕ ЗАВЕРШЕНО]\n[ЭПОХИ: {epoch}]\n[ОШИБКА: {MSE}")
            return network, MSE
        elif MSE > 100 or epoch > 2000:
            learning_rate = round(learning_rate * 0.9, 9)
            print("СКОРОСТЬ:", str(learning_rate))
            return None, MSE
 
        if epoch % step == 0:
            print(f"\n> эпох: {epoch}\n> ошибка: {MSE}")
            save_picture(neurons_into_picture(directPass(X[0], network, doBias=doBias)), epoch)
        if epoch % 10 == 0:
            step += 1
        epoch += 1
 
def directPass(X, network, save_list=None, doBias=False):
    global rand, rot
    rand = randint(0,2)
    rot = randint(1, 3)
    X = np.append(X, [rand, rot])
    #X[:-extra] += np.random.uniform(0, 0.05, len(X) - extra)
    #X[-extra:] = np.random.uniform(0, 5, extra)
    
    if save_list:
        sum_list = np.empty(length_nets + 1, dtype=object)
        sum_list[0] = X
 
    for layer in range(length_nets):
        if np.isscalar(X):
            X = X * (network[layer][:-1] if doBias else network[layer])
        else:
            X = X.dot(network[layer][:-1] if doBias else network[layer])
        
        if doBias:
            X += network[layer][-1]
        X = f(X)
 
        if save_list:
            sum_list[layer + 1] = X
 
    if save_list:
        return X, sum_list
    return X
 
def backPass(Y, sum_list, network, doBias=False):
    network = network[::-1]
    sum_list = np.flip(sum_list)
    gradient_list = np.empty(length_nets + 1, dtype=object)
    gradient_list[0] = Y
 
    for layer in range(length_nets):
        if np.isscalar(Y):
            Y = Y * (network[layer][:-1] if doBias else network[layer])
        else:
            Y = Y.dot(network[layer][:-1].T if doBias else network[layer].T)
        Y *= df(sum_list[layer + 1])
 
        gradient_list[layer + 1] = Y
    gradient_list = gradient_list[::-1]
    return gradient_list
 
"""def initialize_weights(doBias=False):
    return np.array([np.random.normal(0, 0.01, (nS[i] + doBias, nS[i + 1])) for i in range(length_nets)], dtype=object)"""
 
def initialize_weights(doBias=False):
    return np.array([np.random.randn(nS[i] + doBias, nS[i + 1]) * np.sqrt(2. / nS[i + 1]) for i in range(length_nets)], dtype=object)
 
"""def f(x):
    # Ограничение входных значений
    x = np.clip(x, -709, 709)
    return 1 / (1 + np.exp(-x))
 
def df(x):
    # Вычисляем сигмоиду для входа x
    sig = f(x)
    # Производная сигмоиды
    return sig * (1 - sig)"""
 
def f(x):
    return np.where(x > 0, x, alpha * x)
 
def df(x):
    return np.where(x > 0, 1, alpha)
 
def neurons_into_picture(Y):
    Y = Y.reshape(height, width, 3)
    Y = np.round((Y - np.min(Y)) / (max(1, np.max(Y) - np.min(Y))) * 255)
    return Image.fromarray(Y.astype(np.uint8))
 
def save_picture(Y, num):
    Y.save(outPath + f"_{num}.png")
 
main()

Название: optimized_output-min3-ezgif.com-optimize.gif
Просмотров: 77

Размер: 3.06 Мб
0
IT_Exp
Эксперт
34794 / 4073 / 2104
Регистрация: 17.06.2006
Сообщений: 32,602
Блог
08.12.2024, 17:53
Ответы с готовыми решениями:

Пишу нейросеть, а она ни в какую не обучается
Добрый день, пишу нейросеть, а она ни в какую не обучается, помогите пожалуйста( import os import tensorflow as tf import numpy...

Почему не обучается нейросеть?
using System; namespace Нейросеть { class Program { static void Main(string args) {

Почему нейросеть не обучается на векторе, состоящем из единиц?
Добрый вечер. Написал программку, чтобы попробовать реализовать маленькую нейросеть, которая, как я сам себе внушаю, должна обучаться на...

0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
BasicMan
Эксперт
29316 / 5623 / 2384
Регистрация: 17.02.2009
Сообщений: 30,364
Блог
08.12.2024, 17:53
Помогаю со студенческими работами здесь

Не обучается нейросеть
Пытаюсь написать многослойный перцептрон для решения задачи XOR. Структура простейшая 2 нейрона на скрытом слое 1 на выходе. Помогите...

Не обучается нейросеть на (С++)
Код программы (Qt C++) &lt;https://github.com/vista497/snakeNN&gt; Нейросеть использует генетический алгоритм, сам алгоритм расположен в...

Неправильно обучается нейросеть
Вопрос, наверное, плохой, но уже не знаю что делать. Пишу нейросеть с 2 входными нейронами, одним скрытым слоем с 4 нейронами, и 2...

Медленно обучается нейросеть на видеокарте
Захотел запустить обучение нейросети на своей gtx 750. На версии python 3.8 не удалось (cuda 11.2, tensorflow-gpu 2.8.0). Выходили такие...

Почему ИИ не обучается?
Срзу предупреждаю это длиннопост. Смотрела какие сервисы есть от яндекс. Обнаружила YandexGPT чат. Написала “привет”. Алиса...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
1
Ответ Создать тему
Новые блоги и статьи
Философия технологии
iceja 01.02.2026
На мой взгляд у человека в технических проектах остается роль генерального директора. Все остальное нейронки делают уже лучше человека. Они не могут нести предпринимательские риски, не могут. . .
SDL3 для Web (WebAssembly): Вывод текста со шрифтом TTF с помощью SDL3_ttf
8Observer8 01.02.2026
Содержание блога В этой пошаговой инструкции создадим с нуля веб-приложение, которое выводит текст в окне браузера. Запустим на Android на локальном сервере. Загрузим Release на бесплатный. . .
SDL3 для Web (WebAssembly): Сборка C/C++ проекта из консоли
8Observer8 30.01.2026
Содержание блога Если вы откроете примеры для начинающих на официальном репозитории SDL3 в папке: examples, то вы увидите, что все примеры используют следующие четыре обязательные функции, а. . .
SDL3 для Web (WebAssembly): Установка Emscripten SDK (emsdk) и CMake для сборки C и C++ приложений в Wasm
8Observer8 30.01.2026
Содержание блога Для того чтобы скачать Emscripten SDK (emsdk) необходимо сначало скачать и уставить Git: Install for Windows. Следуйте стандартной процедуре установки Git через установщик. . . .
SDL3 для Android: Подключение Box2D v3, физика и отрисовка коллайдеров
8Observer8 29.01.2026
Содержание блога Box2D - это библиотека для 2D физики для анимаций и игр. С её помощью можно определять были ли коллизии между конкретными объектами. Версия v3 была полностью переписана на Си, в. . .
Инструменты COM: Сохранение данный из VARIANT в файл и загрузка из файла в VARIANT
bedvit 28.01.2026
Сохранение базовых типов COM и массивов (одномерных или двухмерных) любой вложенности (деревья) в файл, с возможностью выбора алгоритмов сжатия и шифрования. Часть библиотеки BedvitCOM Использованы. . .
SDL3 для Android: Загрузка PNG с альфа-каналом с помощью SDL_LoadPNG (без SDL3_image)
8Observer8 28.01.2026
Содержание блога SDL3 имеет собственные средства для загрузки и отображения PNG-файлов с альфа-каналом и базовой работы с ними. В этой инструкции используется функция SDL_LoadPNG(), которая. . .
SDL3 для Android: Загрузка PNG с альфа-каналом с помощью SDL3_image
8Observer8 27.01.2026
Содержание блога SDL3_image - это библиотека для загрузки и работы с изображениями. Эта пошаговая инструкция покажет, как загрузить и вывести на экран смартфона картинку с альфа-каналом, то есть с. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru