С Новым годом! Форум программистов, компьютерный форум, киберфорум
C++: ИИ, нейросети, ML, агенты
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.64/11: Рейтинг темы: голосов - 11, средняя оценка - 4.64
7 / 7 / 9
Регистрация: 07.02.2016
Сообщений: 207
Записей в блоге: 53

Матрица для обучения нейросети

19.06.2019, 13:46. Показов 8286. Ответов 2

Студворк — интернет-сервис помощи студентам
Здравствуйте!Изучаю C код нейросети одного програмиста,провел немного рефакторинга.Мне нужно сделать обучение для логического И.Там у него функция train принимает вектора как указатили на тип float.Я доделываю цикл с итерациями эпох.Там нужно использовать функцию train,но обучающий набор и ответы от учителя - это матрицы.Мне нужно выделят из матриц ряды и передавать их в train и это все в цикле эпох.Вот это как раз не получается,делал с двумя вариантами.Как сделать чтобы это исправить?
1 способ:
C
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
/*
 * File:   main.c
 * Author: papa
 *
 * Created on 19 июня 2019 г., 9:58
 */
 
#include <stdio.h>
#include <stdlib.h>
/*
 * делает 1 прямой проход по сети
 * и 1 проход обратный с корректировкой весов
 */
void train (float *tmp_vec_learn, float * tmp_vec_targ);
 
int
main (int argc, char** argv)
{
  float **matrix_learn;
 
  float * inputs; // входной вектор обучения
  float * targets; // вектор от учителя
 
 
  int inputNeurons = 2; // 2 входа сети
  int outputNeurons = 1; // 1 выход сети
 
  // матрица в 4 ряда с кейсами обучения,задачами для логического И
  matrix_learn = (float**) malloc (4 * sizeof (float*));
  // алоцирование
  for (int row = 0; row < 4; row++)
    {
      inputs = (float *) malloc (outputNeurons);
      matrix_learn[row] = inputs;
 
    }
  // set
  matrix_learn[0][0] = 1.0;matrix_learn[0][1] = 1.0;
 
  matrix_learn[1][0] = 1.0;matrix_learn[1][1] = 0.0;
 
  matrix_learn[2][0] = 0.0;matrix_learn[2][1] = 1.0;
 
  matrix_learn[3][0] = 0.0;matrix_learn[3][1] = 0.0;
 
 
  // матрица в 4 ряда с кейсами ответами для задач логического И
  float **matrix_target;
  matrix_target = (float**) malloc (4 * sizeof (float*));
  // алоцирование
  for (int row = 0; row < 4; row++)
    {
      targets = (float*) malloc ((outputNeurons) * sizeof (float));
      matrix_target[row] = targets;
    }
  // set
  matrix_target[0][0] = 1.0;
  matrix_target[1][0] = 0.0;
  matrix_target[2][0] = 0.0;
  matrix_target[3][0] = 1.0;
 
  // итерации,обучение
  int nEpoch = 25;
  int epocha = 0;
 
  // временные вектора для процесса обучения
  float * tmp_vec_learn = (float *) malloc (inputNeurons * sizeof (float));
  float * tmp_vec_targ = (float *) malloc (4 * sizeof (float));
  while (epocha < nEpoch)
    {
      for (int row = 0; row < 4; row++)
        {
 
          tmp_vec_learn =(float *) &matrix_learn[row];
 
          tmp_vec_targ =(float *) &matrix_target[row];
 
           train (tmp_vec_learn, tmp_vec_targ);
 
        }
 
      epocha++;
    }
 
      return (EXIT_SUCCESS);
    }
 
  void
  train (float *tmp_vec_learn, float * tmp_vec_targ)
  {
    printf ("\n");
    printf ("Work with vector:[");
    for (int elem = 0; elem < 2; elem++)
      {
        printf ("%f,", tmp_vec_learn[elem]);
 
      }
    printf ("] Work with target:[");
    for (int elem = 0; elem < 1; elem++)
      {
        printf ("%f,", tmp_vec_targ[elem]);
 
      }
    printf("]");
 
  }
Дает:
Bash
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[0.000000,]
2й способ:
C
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
/*
 * File:   main.c
 * Author: papa
 *
 * Created on 19 июня 2019 г., 9:58
 */
 
#include <stdio.h>
#include <stdlib.h>
/*
 * делает 1 прямой проход по сети
 * и 1 проход обратный с корректировкой весов
 */
void train (float *tmp_vec_learn, float * tmp_vec_targ);
 
int
main (int argc, char** argv)
{
  float **matrix_learn;
 
  float * inputs; // входной вектор обучения
  float * targets; // вектор от учителя
 
 
  int inputNeurons = 2; // 2 входа сети
  int outputNeurons = 1; // 1 выход сети
 
  // матрица в 4 ряда с кейсами обучения,задачами для логического И
  matrix_learn = (float**) malloc (4 * sizeof (float*));
  // алоцирование
  for (int row = 0; row < 4; row++)
    {
      inputs = (float *) malloc (outputNeurons);
      matrix_learn[row] = inputs;
 
    }
 
 
  // set
  matrix_learn[0][0] = 1.0; matrix_learn[0][1] = 1.0;
 
  matrix_learn[1][0] = 1.0; matrix_learn[1][1] = 0.0;
 
  matrix_learn[2][0] = 0.0;matrix_learn[2][1] = 1.0;
  
  matrix_learn[3][0] = 0.0; matrix_learn[3][1] = 0.0;
 
 
  // матрица в 4 ряда с кейсами ответами для задач логического И
  float **matrix_target;
  matrix_target = (float**) malloc (4 * sizeof (float*));
  // алоцирование
  for (int row = 0; row < 4; row++)
    {
      targets = (float*) malloc ((inputNeurons) * sizeof (float));
      matrix_target[row] = targets;
    }
  // set
  matrix_target[0][0] = 1.0;
  matrix_target[1][0] = 0.0;
  matrix_target[2][0] = 0.0;
  matrix_target[3][0] = 1.0;
 
  // итерации,обучение
  int nEpoch = 25;
  int epocha = 0;
 
  // временные вектора для процесса обучения
  float * tmp_vec_learn = (float *) malloc (inputNeurons * sizeof (float));
  float * tmp_vec_targ = (float *) malloc (4 * sizeof (float));
  while (epocha < nEpoch)
    {
      for (int row = 0; row < 4; row++)
        {
          for (int elem = 0; elem < inputNeurons; elem++)
            {
              tmp_vec_learn[elem] = matrix_learn[row][elem];
 
 
 
 
            }
          tmp_vec_targ[row] = matrix_target[row][0];
 
 
        }
      train (tmp_vec_learn, tmp_vec_targ);
 
      epocha++;
    }
 
  return (EXIT_SUCCESS);
}
 
void
train (float *tmp_vec_learn, float * tmp_vec_targ)
{
  printf ("]\n");
  printf ("Work with vector:[");
  for (int elem = 0; elem < 2; elem++)
    {
      printf ("%f,", tmp_vec_learn[elem]);
 
    }
  printf ("] Work with target:[");
  for (int elem = 0; elem < 1; elem++)
    {
      printf ("%f,", tmp_vec_targ[elem]);
 
    }
 
 
}
Дает:
Bash
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
Work with vector:[0.000000,0.000000,] Work with target:[1.000000,]
0
Лучшие ответы (1)
IT_Exp
Эксперт
34794 / 4073 / 2104
Регистрация: 17.06.2006
Сообщений: 32,602
Блог
19.06.2019, 13:46
Ответы с готовыми решениями:

Процесс обучения нейросети
Добрый день. Подскажите, пожалуйста, я хочу написать нейросеть на С++. Это возможно без подключения MATLAB на чистом С++? Дело в том, что...

Скорость нейросети и её обучения
Начинаю разбираться с нейросетями и возник вопрос, если кто сможет подскажите. Нейросеть должна выполнять некоторую работу, т.е. после...

Алгоритм обучения нейросети
Доброго времени суток. В рамках дипломной работы возникла необходимость описать алгоритм обучения нейросети, расчитывающей некоторую...

2
2622 / 1633 / 266
Регистрация: 19.02.2010
Сообщений: 4,338
19.06.2019, 20:46
Лучший ответ Сообщение было отмечено Konst2016 как решение

Решение

В обоих вариантах в 33ей строке надо malloc (inputNeurons)

В первом варианте нафиг явное выделение памяти под временные вектора (т.е. строки 67-68, 74, 76).
В цикле без всяких промежуточных костылей вызывайте train (matrix_learn[row],matrix_target[row]);

Дальше искать не стал.
Ну и освобождения выделенной памяти у Вас нет.
0
7 / 7 / 9
Регистрация: 07.02.2016
Сообщений: 207
Записей в блоге: 53
19.06.2019, 23:05  [ТС]
Спасибо,короче так сделал(память освободил):
C
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
/*
 * File:   main.c
 * Author: papa
 *
 * Created on 19 июня 2019 г., 9:58
 */
 
#include <stdio.h>
#include <stdlib.h>
/*
 * делает 1 прямой проход по сети
 * и 1 проход обратный с корректировкой весов
 */
void train (float *tmp_vec_learn, float * tmp_vec_targ);
 
int
main (int argc, char** argv)
{
  float *matrix_learn;
 
  float * inputs; // входной вектор обучения
  float * targets; // вектор от учителя
 
 
  int inputNeurons = 2; // 2 входа сети
  int outputNeurons = 1; // 1 выход сети
 
  int learn_matr_heig = 4;
 
  // матрица в 4 ряда с кейсами обучения,задачами для логического И
  matrix_learn = (float*) malloc (inputNeurons * learn_matr_heig * sizeof (float));
  // set
  matrix_learn[0] = 1.0;
  matrix_learn[1] = 1.0;
 
  matrix_learn[2] = 1.0;
  matrix_learn[3] = 0.0;
 
  matrix_learn[4] = 0.0;
  matrix_learn[5] = 1.0;
 
  matrix_learn[6] = 0.0;
  matrix_learn[7] = 0.0;
 
 
  // матрица в 4 ряда с кейсами ответами для задач логического И
  float *matrix_target;
  matrix_target = (float*) malloc (learn_matr_heig * sizeof (float*));
 
  matrix_target[0] = 1.0;
  matrix_target[1] = 0.0;
  matrix_target[2] = 0.0;
  matrix_target[3] = 0.0;
 
  // итерации,обучение
  int nEpoch = 25;
  int epocha = 0;
 
  // временные вектора для процесса обучения
  float * tmp_vec_learn = (float *) malloc (inputNeurons * sizeof (float));
  float * tmp_vec_targ = (float *) malloc (outputNeurons * sizeof (float));
 
  int learn_matr_wid = inputNeurons;
  while (epocha < nEpoch)
    {
 
      for (int row = 0; row < learn_matr_heig; row++)
        {
          for (int targ_row = 0; targ_row < outputNeurons; targ_row++)
            {
              tmp_vec_targ[targ_row]=*(matrix_target+row);
 
            }
 
 
          for (int elem = 0; elem < inputNeurons; elem++)
            {
              tmp_vec_learn[elem] = *(matrix_learn + row * learn_matr_wid + elem);
 
            }
 
           train (tmp_vec_learn, tmp_vec_targ);
 
        }
 
 
      epocha++;
    }
  free (matrix_learn);
  free (matrix_target);
 
  free (tmp_vec_learn);
  free (tmp_vec_targ);
 
  return (EXIT_SUCCESS);
}
 
void
train (float *tmp_vec_learn, float * tmp_vec_targ)
{
  printf ("\n");
  printf ("Work with vector:[");
  for (int elem = 0; elem < 2; elem++)
    {
      printf ("%f,", tmp_vec_learn[elem]);
 
    }
  printf ("] Work with target:[");
  for (int elem = 0; elem < 1; elem++)
    {
      printf ("%f,", tmp_vec_targ[elem]);
 
    }
  printf ("]");
 
}
0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
BasicMan
Эксперт
29316 / 5623 / 2384
Регистрация: 17.02.2009
Сообщений: 30,364
Блог
19.06.2019, 23:05
Помогаю со студенческими работами здесь

Ищу людей для совместного обучения в области машинного обучения
Пишу на питоне посредством библиотеки keras. Было бы неплохо, например, работать над одним проектом, благо идей полно.

Нейросети для чайников
помогите пожалуйста разобраться я смотрю вот эту статью, но мне кажется что там какие то ошибки в коде, однако программа вроде бы и...

Функция активации для нейросети
Пожалуйста, покажите мне каким образом можно сделать функцию активации для нейросети... Вот это double sigmoid(double x){ ...

Подобрать обучение для нейросети
Привет! Имею классическую нейронную сеть (двухслойную, прямого распространения). Наигравшись распознаванием символов, захотел использовать...

Библиотека для распознавания силами нейросети
Здравствуйте! Хочу написать программу на C#, которая будет принимать .txt файл, содержащий набор параметров некой группы объектов. У...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
3
Ответ Создать тему
Новые блоги и статьи
Советы по крайней бережливости. Внимание, это ОЧЕНЬ длинный пост.
Programma_Boinc 28.12.2025
Советы по крайней бережливости. Внимание, это ОЧЕНЬ длинный пост. Налог на собак: https:/ / **********/ gallery/ V06K53e Финансовый отчет в Excel: https:/ / **********/ gallery/ bKBkQFf Пост отсюда. . .
Кто-нибудь знает, где можно бесплатно получить настольный компьютер или ноутбук? США.
Programma_Boinc 26.12.2025
Нашел на реддите интересную статью под названием Anyone know where to get a free Desktop or Laptop? Ниже её машинный перевод. После долгих разбирательств я наконец-то вернула себе. . .
Thinkpad X220 Tablet — это лучший бюджетный ноутбук для учёбы, точка.
Programma_Boinc 23.12.2025
Рецензия / Мнение/ Перевод Нашел на реддите интересную статью под названием The Thinkpad X220 Tablet is the best budget school laptop period . Ниже её машинный перевод. Thinkpad X220 Tablet —. . .
PhpStorm 2025.3: WSL Terminal всегда стартует в ~
and_y87 14.12.2025
PhpStorm 2025. 3: WSL Terminal всегда стартует в ~ (home), игнорируя директорию проекта Симптом: После обновления до PhpStorm 2025. 3 встроенный терминал WSL открывается в домашней директории. . .
Как объединить две одинаковые БД Access с разными данными
VikBal 11.12.2025
Помогите пожалуйста !! Как объединить 2 одинаковые БД Access с разными данными.
Новый ноутбук
volvo 07.12.2025
Всем привет. По скидке в "черную пятницу" взял себе новый ноутбук Lenovo ThinkBook 16 G7 на Амазоне: Ryzen 5 7533HS 64 Gb DDR5 1Tb NVMe 16" Full HD Display Win11 Pro
Музыка, написанная Искусственным Интеллектом
volvo 04.12.2025
Всем привет. Некоторое время назад меня заинтересовало, что уже умеет ИИ в плане написания музыки для песен, и, собственно, исполнения этих самых песен. Стихов у нас много, уже вышли 4 книги, еще 3. . .
От async/await к виртуальным потокам в Python
IndentationError 23.11.2025
Армин Ронахер поставил под сомнение async/ await. Создатель Flask заявляет: цветные функции - провал, виртуальные потоки - решение. Не threading-динозавры, а новое поколение лёгких потоков. Откат?. . .
Поиск "дружественных имён" СОМ портов
Argus19 22.11.2025
Поиск "дружественных имён" СОМ портов На странице: https:/ / norseev. ru/ 2018/ 01/ 04/ comportlist_windows/ нашёл схожую тему. Там приведён код на С++, который показывает только имена СОМ портов, типа,. . .
Сколько Государство потратило денег на меня, обеспечивая инсулином.
Programma_Boinc 20.11.2025
Сколько Государство потратило денег на меня, обеспечивая инсулином. Вот решила сделать интересный приблизительный подсчет, сколько государство потратило на меня денег на покупку инсулинов. . . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru