[問題] MPI Non-blocking Communication

看板C_and_CPP (C/C++)作者 (人生的轉捩點)時間16年前 (2009/11/22 16:17), 編輯推噓0(008)
留言8則, 1人參與, 最新討論串1/5 (看更多)
最近使用MPI_Isend的時候發現 雖然他的確是nonblocking 執行完MPI_Isend之後會繼續執行之後的程式 但是他並不會平行的運作 我如果傳輸花5秒 運算花5秒 總時間就是10秒 並不會因為使用Nonblocking Send而變成5秒 在單純傳輸時 CPU使用率只有30%~40% 理論上如果使用nonblocking send 應該可以壓榨出來剩下的70% 可是結果卻和blocking send一樣 省不了任何時間 上網搜尋關於MPI的資訊 卻也沒看到有人有跟我類似的結果 不過倒是搜尋到MPI有分為 single thread 和 multiple thread 不同的模式 可以使用 MPI_Init_thread 來啟用 multiple thread 有四個層級 不過不管我怎麼試 甚至使用buffered mode 都還是沒辦法讓它邊運算邊傳輸 最後我使出大決 寫個Pthread的程式 強迫開兩個thread分別運算和傳輸 結果卻是讓人失望 在一台雙核心的平台上 開nodes=2:ppn=2讓兩台電腦對傳 跑這樣的程式 卻會造成其中某幾個跑得快 某幾個跑得慢的結果 在MPI_Barrier之後 最慢的那個所花的時間 竟然很湊巧跟原來的時間一樣 意思是說 還是一點都沒省到時間 不知道板上有沒有板友曾經測試過MPI_Isend 並且成功的讓他同時運算與傳輸呢? -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 140.112.101.114 ※ 編輯: justdemon 來自: 140.112.101.114 (11/22 16:18)

11/22 23:50, , 1F
你的目的是 process 間協同工作所以要吃到 100% CPU 幾乎
11/22 23:50, 1F

11/22 23:51, , 2F
都會是有困難的,但是想完全榨出這種平行程式的效能,盡量
11/22 23:51, 2F

11/22 23:52, , 3F
別用什麼 barrier,然後 MPI_Irecv 盡量提前送,這樣其它
11/22 23:52, 3F

11/22 23:55, , 4F
process 有送東西來之前還能做一些事情,多少會賺一些。
11/22 23:55, 4F

11/23 00:04, , 5F
簡單說如果你先發 Irecv 再去忙一陣子,其它 process 用
11/23 00:04, 5F

11/23 00:05, , 6F
Isend 送資料時,等送 Irecv 的 process 忙完後去 test 時
11/23 00:05, 6F

11/23 00:05, , 7F
資料可能就已經 ready 了。
11/23 00:05, 7F

11/23 00:07, , 8F
這樣資料傳輸跟運算就會同時進行。
11/23 00:07, 8F
文章代碼(AID): #1B2FEhoE (C_and_CPP)
文章代碼(AID): #1B2FEhoE (C_and_CPP)