Форум программистов, компьютерный форум CyberForum.ru

Оптимизация. Метод Марквардта - C++

Восстановить пароль Регистрация
 
Hronici
Сообщений: n/a
12.06.2014, 18:18     Оптимизация. Метод Марквардта #1
Дорогие форумчане. Выручите. Нужна помощь по методам оптимизации метода Марквардта. Не пойму, что я упустил.
Программа выдает не те данные. Должно на выходе х6=(-0.01;0,03). а у меня берет другую точку.Этот результат я просчитал и он правильный, а вот с кодом не как. Да и в книге по методам оптимизации, тоже приведен пример с этим ответом.

Оптимизация. Метод Марквардта

C++
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
#include "stdafx.h"
#include <stdio.h>
#include <math.h>
#include<locale.h>
 
const int dim=2;//количество переменных
const double h=0.001;//малая константа для вычисления градиента
const double eps4=0.1;//малая константа для критерия останова (по градиенту)
int prnt=1;//1- выполнять с печатью промежуточных выкладок, 0 - не печатать промежуточные значения переменных
const int MAX_ITER=10;
const int grad_scheme=1;//1  - используются центральные разности для вычисления градиента, 2 - правые разности
const int n_crit=4;//1 - останов по разности значений функции,4 - по градиенту
int num_calc_f=0;
 
double f(double x[dim]){//заданная функция
 num_calc_f++;
 return 2*(x[0]*x[0])+x[0]*x[1]+x[1]*x[1];
}                                                          
 
void grad(double x[dim], double g[dim]){
//вычисление градиента по центральной разностной схеме
 double x1[dim], x2[dim];
 int i;
 for(i=0;i<dim;i++) {
  for(int j=0;j<dim;j++) {x1[j]=x[j]; x2[j]=x[j];};
  x1[i]=x[i]-h;
  x2[i]=x[i]+h;
  if (grad_scheme==1) g[i]=(f(x2)-f(x1))/(2*h); else g[i]=(f(x2)-f(x))/h;
 }//for i
}
 
void Hessian(double x[dim], double H[dim][dim]){
 H[0][0]=4;
 H[0][1]=H[1][0]=1;
 H[1][1]=2;
}
 
double norm(double x[dim]){
//норма вектора
 return sqrt(x[0]*x[0]+x[1]*x[1]);
}
 
void print(char *s, double x[dim]){
 if(prnt==1) {
  printf("%s", s); 
  printf("(");
  for(int j=0; j<dim; j++) printf("%f ", x[j]);
  printf(")\n");
 }
}
 
void inverse(double M[dim][dim], double M1[dim][dim]){
//функция нахождения обратной матрицы 2х2: M^(-1)=M1
 double d=M[0][0]*M[1][1]-M[0][1]*M[1][0];
 M1[0][0]=M[1][1]/d;
 M1[0][1]=-M[0][1]/d;
 M1[1][0]=-M[1][0]/d;
 M1[1][1]=M[0][0]/d;
}
 
void mult(double M[dim][dim], double x[dim], double y[dim]){
//умножение матрицы на вектор: Mx=y
 for(int i=0; i<dim; i++){
   y[i]=0;
   for(int j=0; j<dim;j++) y[i]+=M[i][j]*x[j];
 }
}
 
int Marquardt(double x[dim], int &iter){
//Процедура поиска минимума методом Марквардта
 double x0[dim], x1[dim], H[dim][dim], Hlambda[dim][dim], H1[dim][dim], g[dim], d[dim];
 double lambda=20;
 int i, j, k;
 for(j=0;j<dim;j++) x0[j]=x[j];//начальное приближение
 for(k=0;k<MAX_ITER;k++){
  //распечатать информацию о текущей итерации
  print("\n Вектор х", x0);
//вычислить следующее приближение
  do{
  Hessian(x0, H);//H=H_f(x0)
  grad(x0,g);
  for(i=0;i<dim;i++) 
     for(j=0;j<dim;j++) Hlambda[i][j]=H[i][j];
  for(j=0;j<dim;j++) Hlambda[j][j]+=lambda; //теперь Hlambda=H_f(x0)+lambda*E
  inverse(Hlambda, H1);// H1=[H_f(x0)+lambda*E]^(-1)
  mult(H1, g, d);//d=[H_f(x0)+lambda*E]^(-1) * grad f(x0)
  for(j=0;j<dim;j++) d[j]=-d[j];//d=-[H_f(x0)+lambda*E]^(-1) * grad f(x0)
  for(j=0; j<dim; j++) x1[j]=x0[j]+d[j];
  if(prnt==1) {
    printf(" k=%d\n lambda=%f\n f(x_%d)=%f\n f(x_%d)-f(x_%d)=%f\n grad f(x)=%f\n", 
            k, lambda, k, f(x1), k, k-1, fabs(f(x1)-f(x0)), norm(g)); 
    print(" Направление поиска: ", d);
    print(" grad f(x1)=", g);
    print(" Вектор x=", x1);
    }
  if(f(x1)>f(x0)) lambda*=2;
  }
  while (f(x1)>f(x0)); 
  lambda/=2;
  if(n_crit==4)  {if(norm(g)<eps4) break;}//проверка критерия останова 
    
 
  for(j=0;j<dim;j++) x0[j]=x1[j];//подготовка к следующей итерации
 }
//возвращаем полученное решение и сигнал о прекращении итераций
//0 - решение не получено (выход по превышению макс.количества итераций), 1 - решение получено
 iter=k;
 for(j=0;j<dim;j++) x[j]=x1[j];
 grad(x1,g);
 
 if (n_crit==4) 
 {
     if(norm(g)<eps4) // если градиент меньше 0.1 критерия, то
 return 1; else return 0;}//критерий останова 
   }
 
int  main(){
 setlocale(LC_ALL,"RUS");
 double x0[dim], g[dim];
 int n_iter, res;
 //начальное приближение:
 x0[0]=0.5; x0[1]=1;
 res=Marquardt(x0, n_iter);
 grad(x0, g);
 print("\ngrad(x)=", g);
 prnt=1;
 if(res==0) {print("Решение не получено. x=", x0); }
 else  {print("Решение получено. x=", x0); }
 printf("Итераций: %d, вычислений функции: %d, f(x)=%f\n", n_iter, num_calc_f, f(x0));
 return 0;
}
Similar
Эксперт
41792 / 34177 / 6122
Регистрация: 12.04.2006
Сообщений: 57,940
12.06.2014, 18:18     Оптимизация. Метод Марквардта
Посмотрите здесь:

Оптимизация C++
Метод дихотомии (как метод оптимизации) C++
Оптимизация кода C++
Оптимизация кода C++
оптимизация обмена C++
C++ Оптимизация программы на С++
Оптимизация кода C++
Оптимизация робота C++

Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
После регистрации реклама в сообщениях будет скрыта и будут доступны все возможности форума.
Ответ Создать тему
Опции темы

Текущее время: 03:04. Часовой пояс GMT +3.
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2016, vBulletin Solutions, Inc.
Рейтинг@Mail.ru