Форум программистов, компьютерный форум, киберфорум
Python: Научные вычисления
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
0 / 0 / 0
Регистрация: 03.07.2021
Сообщений: 3

Реализовать класс LinearRegressionSGD

23.07.2021, 20:30. Показов 4340. Ответов 0
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Друзья, подскажите что не так делаю? После обучения модели на данных метод predict возращает массив размером нужного размера в, котором все значения nan.

Вот задание, которое нужно выполнить:
Задание 0
Реализуйте класс LinearRegressionSGD c обучением и и применением линейной регрессии, построенной с помощью стохастического градиентного спуска, с заданным интерфейсом.

Обратите внимание на следуюшие моменты:

Схожий класс использовался в семинаре. Ознакомление с ним упростит вам задачу.

Выбирайте 10 случайных сэмплов (равномерно) каждый раз.

Используйте параметры по умолчанию (epsilon=1e-6, max_steps=10000, w0=None, alpha=1e-8)

Выход из цикла осуществуется по сравнению 2-нормы разницы весов с epsilon, а функция потерь - MSE. (все, как в семинаре =)

При желании можете экспериментировать, попробовать выбирать 1<k<n случайных сэмплов и делиться результатами на форуме!

Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
from sklearn.base import BaseEstimator
 
class LinearRegressionSGD(BaseEstimator):
    def __init__(self, epsilon=1e-6, max_steps=10000, w0=None, alpha=1e-8):
        """
        epsilon: разница для нормы изменения весов 
        max_steps: максимальное количество шагов в градиентном спуске
        w0: np.array (d,) - начальные веса
        alpha: шаг обучения
        """
        self.epsilon = epsilon
        self.max_steps = max_steps
        self.w0 = w0
        self.alpha = alpha
        self.w = None
        self.w_history = []
    
    def fit(self, X, y):
        """
        X: np.array (l, d)
        y: np.array (l)
        ---
        output: self
        """
        l, d = X.shape
        
        if self.w0 is None:
            self.w0 = np.zeros(d)
        self.w = self.w0
        w_new = self.w
        
        for step in range(self.max_steps):
            self.w_history.append(self.w)
            for i in range(10):
                w_new += self.w - self.alpha * self.calc_gradient(X, y)
            w_new = w_new / 10    
            if np.linalg.norm(w_new - self.w) < self.epsilon:
                break
            
            self.w = w_new
        return self
        
        
        ## На каждом шаге градиентного спуска веса можно добавлять в w_history (для последующей отрисовки)
        ## Для выполнения шага выберите 10 случайных(равномерно) сэмплов
        return self
    
    def predict(self, X):
        """
        X: np.array (l, d)
        ---
        output: np.array (l)
        """
        
        if self.w is None:
            raise Exception('Not trained yet')
        
        l, d = X.shape
 
        y_pred = []
 
        for i in range(l):
            y_pred.append(np.dot(X[i], self.w))
 
        return np.array(y_pred)
    
    def calc_gradient(self, X, y):
        """
        X: np.array (l, d)
        y: np.array (l)
        ---
        output: np.array (d)
        """
        l, d = X.shape
        
        i = np.random.randint(0, l)
        
        gradient = []
        
        for j in range(d):
            dQ = 0
            dQ += (2/l) * X[i][j] * (np.dot(X[i], self.w - y[i]))
        gradient.append(dQ)
        
        return np.array(gradient)


А это исходный код без моих правок (реализация полного градиентного спуска)
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
from sklearn.base import BaseEstimator
 
class LinearRegressionSGD(BaseEstimator):
    def __init__(self, epsilon=1e-6, max_steps=10000, w0=None, alpha=1e-8):
        """
        epsilon: разница для нормы изменения весов 
        max_steps: максимальное количество шагов в градиентном спуске
        w0: np.array (d,) - начальные веса
        alpha: шаг обучения
        """
        self.epsilon = epsilon
        self.max_steps = max_steps
        self.w0 = w0
        self.alpha = alpha
        self.w = None
        self.w_history = []
    
    def fit(self, X, y):
        """
        X: np.array (l, d)
        y: np.array (l)
        ---
        output: self
        """
        l, d = X.shape
        
        if self.w0 is None:
            self.w0 = np.zeros(d)
        self.w = self.w0
        w_new = self.w
        
        for step in range(self.max_steps):
            self.w_history.append(self.w)
            for i in range(10):
                w_new += self.w - self.alpha * self.calc_gradient(X, y)
            w_new = w_new / 10    
            if np.linalg.norm(w_new - self.w) < self.epsilon:
                break
            
            self.w = w_new
        return self
        
        
        ## На каждом шаге градиентного спуска веса можно добавлять в w_history (для последующей отрисовки)
        ## Для выполнения шага выберите 10 случайных(равномерно) сэмплов
        return self
    
    def predict(self, X):
        """
        X: np.array (l, d)
        ---
        output: np.array (l)
        """
        
        if self.w is None:
            raise Exception('Not trained yet')
        
        l, d = X.shape
 
        y_pred = []
 
        for i in range(l):
            y_pred.append(np.dot(X[i], self.w))
 
        return np.array(y_pred)
    
    def calc_gradient(self, X, y):
        """
        X: np.array (l, d)
        y: np.array (l)
        ---
        output: np.array (d)
        """
        l, d = X.shape
        
        i = np.random.randint(0, l)
        
        gradient = []
        
        for j in range(d):
            dQ = 0
            dQ += (2/l) * X[i][j] * (np.dot(X[i], self.w - y[i]))
        gradient.append(dQ)
        
        return np.array(gradient)
Добавлено через 9 минут
Ремарочка, вот исходный код :

Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
from sklearn.base import BaseEstimator
 
class LinearRegression(BaseEstimator):
    def __init__(self, epsilon=1e-4, max_steps=1000, w0=None, alpha=1e-2):
        """
        epsilon: разница для нормы изменения весов 
        max_steps: максимальное количество шагов в градиентном спуске
        w0: np.array (d,) - начальные веса
        alpha: шаг обучения
        """
        self.epsilon = epsilon
        self.max_steps = max_steps
        self.w0 = w0
        self.alpha = alpha
        self.w = None
        self.w_history = []
    
    def fit(self, X, y):
        """
        X: np.array (l, d)
        y: np.array (l)
        ---
        output: self
        """
        l, d = X.shape
 
        if self.w0 is None:
          self.w0 = np.zeros(d)
 
        self.w = self.w0
 
        for step in range(self.max_steps):
          self.w_history.append(self.w)
 
          w_new = self.w - self.alpha * self.calc_gradient(X, y)
 
          if (np.linalg.norm(w_new - self.w) < self.epsilon):
            break
          
          self.w = w_new
        
        return self
    
    def predict(self, X):
        """
        X: np.array (l, d)
        ---
        output: np.array (l)
        """
        
        if self.w is None:
            raise Exception('Not trained yet')
        
        l, d = X.shape
 
        y_pred = []
 
        for i in range(l):
          y_pred.append(np.dot(X[i], self.w))
 
        return np.array(y_pred)
    
    def calc_gradient(self, X, y):
        """
        X: np.array (l, d)
        y: np.array (l)
        ---
        output: np.array (d)
        """
        
        l, d = X.shape
        gradient = []
        
        for j in range(d):
          dQ = 0
          for i in range(l):
            dQ += (2/l) * X[i][j] * (np.dot(X[i], self.w) - y[i])
          gradient.append(dQ)
 
        return np.array(gradient)
0
IT_Exp
Эксперт
34794 / 4073 / 2104
Регистрация: 17.06.2006
Сообщений: 32,602
Блог
23.07.2021, 20:30
Ответы с готовыми решениями:

Реализовать класс String, перегрузка операторов, реализовать конструкторы, фрэнд-функции
Реализовать класс String для работы со строками символов. Перегрузить для объектов класса String операторы «!» (пуст ли объект ...

Необходимо реализовать шаблонный класс Array, и грамотно реализовать push_back
Необходимо реализовать шаблонный класс Array, параметризируемый типом хранимых элементов. Класс Array представляет собой...

Реализовать класс Товары. Реализовать метод печати стоимости товара и его наименования
Реализовать класс Товары, с полями Наименование, Артикул, Стоимость. Реализовать метод печати стоимости товара и его наименования....

0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
BasicMan
Эксперт
29316 / 5623 / 2384
Регистрация: 17.02.2009
Сообщений: 30,364
Блог
23.07.2021, 20:30
Помогаю со студенческими работами здесь

Реализовать класс Complex для работы с комплексными числами. Реализовать операции с ним
Народ, помогите, с классы не понимаю Комплексное число представляются парой действительных чисел (а, b), где а - действительная часть,...

Реализовать класс, инкапсулирующий адрес. Реализовать методы вывода адреса в строку в российском формате
№1 Реализовать класс, инкапсулирующий адрес. Реализовать методы вывода адреса в строку в российском формате (индекс, страна, город,...

Реализовать класс Матрица; реализовать методы, которые меняют местами первую и последнюю строку матрицы
Написать программу, которая выполняет действия над матрицами (n x m), меняет местами первую и последнюю строку в матрице; столбцы с...

Класс: Реализовать класс Matrix - матрица, на основе двухмерного массива размерности M на N...
1) Реализовать класс Matrix - матрица, на основе двух-мерного целочисленного массива int размерности M на N (кол-во строк и кол-во...

Реализовать класс Triangle, опираясь на класс Angle для представления углов
Реализовать класс Triangle, опираясь на класс Angle для представления углов.Класс Triangle является классом для представления треугольника....


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
1
Ответ Создать тему
Новые блоги и статьи
http://iceja.net/ математические сервисы
iceja 20.01.2026
Обновила свой сайт http:/ / iceja. net/ , приделала Fast Fourier Transform экстраполяцию сигналов. Однако предсказывает далеко не каждый сигнал (см ограничения http:/ / iceja. net/ fourier/ docs ). Также. . .
http://iceja.net/ сервер решения полиномов
iceja 18.01.2026
Выкатила http:/ / iceja. net/ сервер решения полиномов (находит действительные корни полиномов методом Штурма). На сайте документация по API, но скажу прямо VPS слабенький и 200 000 полиномов. . .
Расчёт переходных процессов в цепи постоянного тока
igorrr37 16.01.2026
/ * Дана цепь постоянного тока с R, L, C, k(ключ), U, E, J. Программа составляет систему уравнений по 1 и 2 законам Кирхгофа, решает её и находит переходные токи и напряжения на элементах схемы. . . .
Восстановить юзерскрипты Greasemonkey из бэкапа браузера
damix 15.01.2026
Если восстановить из бэкапа профиль Firefox после переустановки винды, то список юзерскриптов в Greasemonkey будет пустым. Но восстановить их можно так. Для этого понадобится консольная утилита. . .
Сукцессия микоризы: основная теория в виде двух уравнений.
anaschu 11.01.2026
https:/ / rutube. ru/ video/ 7a537f578d808e67a3c6fd818a44a5c4/
WordPad для Windows 11
Jel 10.01.2026
WordPad для Windows 11 — это приложение, которое восстанавливает классический текстовый редактор WordPad в операционной системе Windows 11. После того как Microsoft исключила WordPad из. . .
Classic Notepad for Windows 11
Jel 10.01.2026
Old Classic Notepad for Windows 11 Приложение для Windows 11, позволяющее пользователям вернуть классическую версию текстового редактора «Блокнот» из Windows 10. Программа предоставляет более. . .
Почему дизайн решает?
Neotwalker 09.01.2026
В современном мире, где конкуренция за внимание потребителя достигла пика, дизайн становится мощным инструментом для успеха бренда. Это не просто красивый внешний вид продукта или сайта — это. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru