Форум программистов, компьютерный форум, киберфорум
Наши страницы

С++ для начинающих

Войти
Регистрация
Восстановить пароль
 
nic2009nik
1 / 1 / 0
Регистрация: 21.10.2012
Сообщений: 34
#1

OpenMP - C++

28.03.2014, 23:28. Просмотров 839. Ответов 0
Метки нет (Все метки)

Помогите, пожалуйста, с реализацией алгоритма Фокса на openmp. Не очень понимаю, как параллелить. Есть вариант под MPI.
C++ (Qt)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
#include <Mpi.h>
#include <stdio.h>
 
int ProcNum = 0;    // Количество доступных процессов 
int ProcRank = 0;   // Ранг текущего процесса
int GridSize;       // Размер виртуальной решетки процессов
int GridCoords[2];      // Координаты текущего процесса в процессной
// решетке
MPI_Comm GridComm;      // Коммуникатор в виде квадратной решетки
MPI_Comm ColComm;       // коммуникатор – столбец решетки
MPI_Comm RowComm;   
 
// Функция для параллельного умножения матриц
void ParallelResultCalculation(double* pAblock, double* pMatrixAblock, double* pBblock, double* pCblock, int BlockSize) {
    for (int iter = 0; iter < GridSize; iter ++) 
    {
        // Рассылка блоков матрицы A по строкам процессной решетки
        ABlockCommunication (iter, pAblock, pMatrixAblock, BlockSize);
        // Умножение блоков
        BlockMultiplication(pAblock, pBblock, pCblock, BlockSize);
        // Циклический сдвиг блоков матрицы B в столбцах процессной 
        // решетки
        BblockCommunication(pBblock, BlockSize);
    }
}
 
 
// Циклический сдвиг блоков матрицы В вдоль столбца процессной 
// решетки 
void BblockCommunication (double *pBblock, int BlockSize) 
{
    MPI_Status Status;
    int NextProc = GridCoords[0] + 1;
    if ( GridCoords[0] == GridSize-1 ) 
    NextProc = 0;
    
    int PrevProc = GridCoords[0] - 1;
    if ( GridCoords[0] == 0 ) 
        PrevProc = GridSize-1;
        
    MPI_Sendrecv_replace( pBblock, BlockSize*BlockSize, MPI_DOUBLE,NextProc, 0, PrevProc, 0, ColComm, &Status);
}
 
// Умножение матричных блоков
void BlockMultiplication (double *pAblock, double *pBblock, double *pCblock, int BlockSize) 
{
  // Вычисление произведения матричных блоков
  for (int i=0; i<BlockSize; i++) 
    {
        for (int j=0; j<BlockSize; j++) 
        {
            double temp = 0;
            for (int k=0; k<BlockSize; k++ )
                temp += pAblock [i*BlockSize + k] * pBblock [k*BlockSize + j];
            pCblock [i*BlockSize + j] += temp;
        }
    }
}
 
 
// Рассылка блоков матрицы А по строкам решетки процессов 
void ABlockCommunication (int iter, double *pAblock, double* pMatrixAblock, int BlockSize) {
 
  // Определение ведущего процесса в строке процессной решетки 
  int Pivot = (GridCoords[0] + iter) % GridSize;
  
  // Копирование передаваемого блока в отдельный буфер памяти
  if (GridCoords[1] == Pivot) 
  {
    for (int i=0; i<BlockSize*BlockSize; i++)
        pAblock[i] = pMatrixAblock[i];
  }
  
  // Рассылка блока
  MPI_Bcast(pAblock, BlockSize*BlockSize, MPI_DOUBLE, Pivot,RowComm);
}
 
 
// Функция для выделения памяти и инициализации исходных данных
void ProcessInitialization (double* &pAMatrix, double* &pBMatrix, double* &pCMatrix, double* &pAblock, double* &pBblock, double* &pCblock, double* &pTemporaryAblock, int &Size, int &BlockSize ) {
    if (ProcRank == 0) 
    {
        do
        {
            printf("\nВведите размер матриц: ");
            scanf("%d", &Size);
      
            if (Size%GridSize != 0) 
            {
                printf ("Размер матриц должен быть кратен размеру сетки! \n");
            }
        }
        while (Size%GridSize != 0);
      }
    MPI_Bcast(&Size, 1, MPI_INT, 0, MPI_COMM_WORLD);
 
    BlockSize = Size/GridSize;
 
    pAblock = new double [BlockSize*BlockSize];
    pBblock = new double [BlockSize*BlockSize];
    pCblock = new double [BlockSize*BlockSize];
    pTemporaryAblock = new double [BlockSize*BlockSize];
 
    for (int i=0; i<BlockSize*BlockSize; i++) 
    {
        pCblock[i] = 0;
    }
    if (ProcRank == 0) 
    {
        pAMatrix = new double [Size*Size];
        pBMatrix = new double [Size*Size];
        pCMatrix = new double [Size*Size];
        RandomDataInitialization(pAMatrix, pBMatrix, Size);
     } 
}
 
// Создание коммуникатора в виде двумерной квадратной решетки 
// и коммуникаторов для каждой строки и каждого столбца решетки
void CreateGridCommunicators() 
{
      int DimSize[2];   // Количество процессов в каждом измерении 
                        // решетки
      int Periodic[2];  // =1 для каждого измерения, являющегося 
                        // периодическим 
      int Subdims[2];   // =1 для каждого измерения, оставляемого 
                        // в подрешетке
      DimSize[0] = GridSize; 
      DimSize[1] = GridSize;
      Periodic[0] = 0;
      Periodic[1] = 0;
 
      // Создание коммуникатора в виде квадратной решетки 
      MPI_Cart_create(MPI_COMM_WORLD, 2, DimSize, Periodic, 1, &GridComm);
 
      // Определение координат процесса в решетке 
      MPI_Cart_coords(GridComm, ProcRank, 2, GridCoords);
      
      // Создание коммуникаторов для строк процессной решетки
      Subdims[0] = 0;  // Фиксация измерения
      Subdims[1] = 1;  // Наличие данного измерения в подрешетке
      MPI_Cart_sub(GridComm, Subdims, &RowComm);
      
      // Создание коммуникаторов для столбцов процессной решетки
      Subdims[0] = 1;
      Subdims[1] = 0;
      MPI_Cart_sub(GridComm, Subdims, &ColComm);
}
 
 
int main ( int argc, char * argv[] ) 
{
  double* pAMatrix;     // Первый аргумент матричного умножения
  double* pBMatrix;     // Второй аргумент матричного умножения
  double* pCMatrix;     // Результирующая матрица
  int Size;         // Размер матриц
  int BlockSize;    // Размер матричных блоков, расположенных 
                    // на процессах
  double *pAblock;      // Блок матрицы А на процессе
  double *pBblock;      // Блок матрицы В на процессе
  double *pCblock;      // Блок результирующей матрицы С на процессе
  double *pMatrixAblock;
  double Start, Finish, Duration;
 
  setvbuf(stdout, 0, _IONBF, 0);
 
  MPI_Init(&argc, &argv);
  MPI_Comm_size(MPI_COMM_WORLD, &ProcNum);
  MPI_Comm_rank(MPI_COMM_WORLD, &ProcRank);
 
  GridSize = sqrt((double)ProcNum);
  if (ProcNum != GridSize*GridSize) {
    if (ProcRank == 0) {
      printf ("Number of processes must be a perfect square \n");
    }
  }
  else {
    if (ProcRank == 0)
      printf("Parallel matrix multiplication program\n");
 
    // Создание виртуальной решетки процессов и коммуникаторов 
    // строк и столбцов
    CreateGridCommunicators();
  
    // Выделение памяти и инициализация элементов матриц
    ProcessInitialization ( pAMatrix, pBMatrix, pCMatrix, pAblock,
      pBblock, pCblock, pMatrixAblock, Size, BlockSize );
    // Блочное распределение матриц между процессами
    DataDistribution(pAMatrix, pBMatrix, pMatrixAblock, pBblock, Size, 
      BlockSize);
 
    // Выполнение параллельного метода Фокса
    ParallelResultCalculation(pAblock, pMatrixAblock, pBblock, 
      pCblock, BlockSize);
 
    // Сбор результирующей матрицы на ведущем процессе
    ResultCollection(pCMatrix, pCblock, Size, BlockSize);
 
    // Завершение процесса вычислений
    ProcessTermination (pAMatrix, pBMatrix, pCMatrix, pAblock, pBblock, 
      pCblock, pMatrixAblock);
  }
 
  MPI_Finalize();
  return 0;
}
0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
Similar
Эксперт
41792 / 34177 / 6122
Регистрация: 12.04.2006
Сообщений: 57,940
28.03.2014, 23:28
Здравствуйте! Я подобрал для вас темы с ответами на вопрос OpenMP (C++):

OpenMP. Время выполнения программы больше чем без OpenMP - C++
Сегодня первый раз сел за OpenMP. Читаю на сайте майкрософта как работает этот API. Так вот там сказано:&quot;Директива #pragma omp for...

OpenMP - C++
#pragma omp parallel private(i) shared(j) { #pragma omp for for (j = 0; j &lt; n; j++) { for (i = 0; i &lt; m;...

OpenMP - C++
есть код в общем виде... #pragma omp parallel for for (i = 0; i &lt; n; ++i) { temp = B; // обращаемся for (j = 0; j &lt; k; ++j)...

Программирование на OpenMP - C++
Такой вопрос, у меня есть прога, которая работает ~сутки, не буду вдаваться что и как она делает, мне посоветовали для быстроты...

Магия OpenMP - C++
Есть такой код: Expr = ... // vector&lt;pair&lt;size_t, double&gt;&gt; #ifdef _OPENMP #pragma omp parallel num_threads( 2==(size_level-ptr) ? 1...

Цикл for и OpenMP - C++
Недавно распаралелил свой цикл for, а теперь решил посмотреть на сколько я выигрываю от этого. Но вот неожиданность, все многопоточные...

0
MoreAnswers
Эксперт
37091 / 29110 / 5898
Регистрация: 17.06.2006
Сообщений: 43,301
28.03.2014, 23:28
Привет! Вот еще темы с ответами:

Технологии OpenMP - C++
Доброго времени суток. Объясните, почему на такой код void quickSortR(int left,int right,int *mass) { int i,j; bool f; double...

Не работает openmp - C++
Написал простенькую программку с распараллеливанием собрал откомпилил, но распараллеливания нет. Программка выглядит так: ...

Параллельность в openMP - C++
Использую Visual Studio 2013. Проц - двухъядерный Intel E6550. omp_get_max_threads() возвращает 2, что логично, но прагма omp parallel...

OpenMP и SIMD - C++
Добрый день. Не могу исправить код, чтобы использовалось 4 ядра, а не 1. В функцию proizv нужно добавить распараллеливание вычислений с...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
1
Ответ Создать тему
Опции темы

КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin® Version 3.8.9
Copyright ©2000 - 2017, vBulletin Solutions, Inc.
Рейтинг@Mail.ru