OpenMP 共享內存的並行編程框架入門詳解

簡介

OpenMP 一個非常易用的共享內存的並行編程框架,它提供瞭一些非常簡單易用的API,讓編程人員從復雜的並發編程當中釋放出來,專註於具體功能的實現。openmp 主要是通過編譯指導語句以及他的動態運行時庫實現,在本篇文章當中我們主要介紹 openmp 一些入門的簡單指令的使用。

認識 openmp 的簡單易用性

比如現在我們有一個任務,啟動四個線程打印 hello world,我們看看下面 C 使用 pthread 的實現以及 C++ 使用標準庫的實現,並對比他們和 openmp 的實現復雜性。

C 語言實現

#include <stdio.h>
#include <pthread.h>
void* func(void* args) {
  printf("hello world from tid = %ld\n", pthread_self());
  return NULL;
}
int main() {
  pthread_t threads[4];
  for(int i = 0; i < 4; i++) {
    pthread_create(&threads[i], NULL, func, NULL);
  }
  for(int i = 0; i < 4; i++) {
    pthread_join(threads[i], NULL);
  }
  return 0;
}

上面文件編譯命令:gcc 文件名 -lpthread 。

C++ 實現

#include <thread>
#include <iostream>
void* func() {
  printf("hello world from %ld\n", std::this_thread::get_id());
  return 0;
}
int main() {
  std::thread threads[4];
  for(auto &t : threads) {
    t = std::thread(func);
  }
  for(auto &t : threads) {
    t.join();
  }
  return EXIT_SUCCESS;
}

上面文件編譯命令:g++ 文件名 lpthread 。

OpenMP 實現

#include <stdio.h>
#include <omp.h>
int main() {
  // #pragma 表示這是編譯指導語句 表示編譯器需要對下面的並行域進行特殊處理 omp parallel 表示下面的代碼區域 {} 是一個並行域 num_threads(4) 表示一共有 4 個線程執行 {} 內的代碼 因此實現的效果和上面的效果是一致的
  #pragma omp parallel num_threads(4)
  {
    printf("hello world from tid = %d\n", omp_get_thread_num()); // omp_get_thread_num 表示得到線程的線程 id
  }
  return 0;
}

上面文件編譯命令:gcc 文件名 -fopenmp ,如果你使用瞭 openmp 的編譯指導語句的話需要在編譯選項上加上 -fopenmp

從上面的代碼來看,確實 openmp 寫並發程序的復雜度確實比 pthreadC++ 低。openmp 相比起其他構建並行程序的方式來說,使用 openmp 你可以更加關註具體的業務實現,而不用太關心並發程序背後的啟動與結束的過程,OenpMP 會幫我們實現很多細節,讓程序的執行符合我們的直覺。

opnemp 基本原理

在上文當中我們寫瞭一個非常簡單的 openmp 程序,使用 4 個不同的線程分別打印 hello world 。我們仔細分析一下這個程序的執行流程:

在 openmp 的程序當中,你可以將程序用一個個的並行域分開,在並行域(parallel region)中,程序是有並發的,但是在並行域之外是沒有並發的,隻有主線程(master)在執行,整個過程如下圖所示:

現在我們用一個程序去驗證上面的過程:

#include <stdio.h>
#include <omp.h>
#include <unistd.h>
int main() {
  #pragma omp parallel num_threads(4)
  {
    printf("parallel region 1 thread id = %d\n", omp_get_thread_num());
    sleep(1);
  }
  printf("after parallel region 1 thread id = %d\n", omp_get_thread_num());
  #pragma omp parallel num_threads(4)
  {
    printf("parallel region 2 thread id = %d\n", omp_get_thread_num());
    sleep(1);
  }
  printf("after parallel region 2 thread id = %d\n", omp_get_thread_num());
  #pragma omp parallel num_threads(4)
  {
    printf("parallel region 3 thread id = %d\n", omp_get_thread_num());
    sleep(1);
  }
  printf("after parallel region 3 thread id = %d\n", omp_get_thread_num());
  return 0;
}

程序執行之後的一種輸出(還有很多其他的輸出形式,因為是多線程程序,線程的輸出是不確定的)如下所示:

parallel region 1 thread id = 0
parallel region 1 thread id = 3
parallel region 1 thread id = 1
parallel region 1 thread id = 2
after parallel region 1 thread id = 0
parallel region 2 thread id = 0
parallel region 2 thread id = 2
parallel region 2 thread id = 3
parallel region 2 thread id = 1
after parallel region 2 thread id = 0
parallel region 3 thread id = 0
parallel region 3 thread id = 1
parallel region 3 thread id = 3
parallel region 3 thread id = 2
after parallel region 3 thread id = 0

從上面的輸出我們可以瞭解到,id = 0 的線程就是主線程,在並行域內部程序的輸出是沒有順序的,但是在並行域的外部是有序的,在並行域的開始部分程序會進行並發操作,但是在並行域的最後會有一個隱藏的同步點,等待所有線程到達這個同步點之後程序才會繼續執行,現在再看上文當中 openmp 的執行流圖的話就很清晰易懂瞭。

積分例子

現在我們使用一個簡單的函數積分的例子去具體瞭解 openmp 在具體的使用場景下的並行。比如我們求函數 x2x^2×2 的積分。

微元法的本質就是將曲線下方的面積分割成一個一個的非常小的長方形,然後將所有的長方形的面積累加起來,這樣得到最終的結果。

如果你不懂上面所談到的求解方法也沒關系,隻需要知道我們需要使用 openmp 去計算一個計算量比較大的任務即可。根據上面微元法的公式我們有一個非常大的求和公式,如果是在單線程的情況下我們使用一個循環就可以瞭,但是現在我們有多個線程,那麼我們可以讓每個線程求某一個區間的和,最後將各個區間的和加起來得到最終的結果,這就是在並發場景下的實現思路。

openmp 具體的實現代碼如下所示:

#include <stdio.h>
#include <omp.h>
#include <math.h>
/// @brief 計算 x^2 一部分的面積
/// @param start 線程開始計算的位置
/// @param end   線程結束計算的位置
/// @param delta 長方形的邊長
/// @return 計算出來的面積
double x_square_partial_integral(double start, double end, double delta) {
  double s = 0;
  for(double i = start; i < end; i += delta) {
    s += pow(i, 2) * delta;
  }
  return s;
}
int main() {
  int s = 0;
  int e = 10;
  double sum = 0;
  #pragma omp parallel num_threads(32) reduction(+:sum)
  {
    // 根據線程號進行計算區間的分配
    // omp_get_thread_num() 返回的線程 id 從 0 開始計數 :0, 1, 2, 3, 4, ..., 31
    double start = (double)(e - s) / 32 * omp_get_thread_num();
    double end   = (double)(e - s) / 32 * (omp_get_thread_num() + 1);
    sum = x_square_partial_integral(start, end, 0.0000001);
  }
  printf("sum = %lf\n", sum);
  return 0;
}

在上面的代碼當中 #pragma omp parallel num_threads(4) 表示啟動 4 個線程執行 {} 中的代碼,reduction(+:sum) 表示需要對 sum 這個變量進行一個規約操作,當 openmp 中的線程遇到 reduction 子句的時候首先會拷貝一份 sum 作為本地變量,然後在並行域當中使用的就是每一個線程的本地變量,因為有 reduction 的規約操作,因此在每個線程計算完成之後還需要將每個線程本地計算出來的值對操作符 + 進行規約操作,也就是將每個線程計算得到的結果求和,最終將得到的結果賦值給我們在 main 函數當中定義的變量 sum 。最終我們打印的變量 sum 就是各個線程求和之後的結果。上面的代碼執行過程大致如下圖所示:

註意事項:你在編譯上述程序的時候需要加上編譯選項 -fopenmp 啟動openmp 編譯選項和 -lm 鏈接數學庫。

上面程序的執行結果如下所示:

總結

在本篇文章當中主要給大傢介紹瞭 OpenMP 的基本使用和程序執行的基本原理,在後續的文章當中我們將仔細介紹各種 OpenMP 的子句和指令的使用方法

以上就是OpenMP 共享內存的並行編程框架入門詳解的詳細內容,更多關於OpenMP 共享內存並行編程框架的資料請關註WalkonNet其它相關文章!

推薦閱讀: