[討論] GPU 迭代計算 觀念以及做法
不好意思,前幾天才來問現在又跑來問了,還是很多東西搞不太清楚
我要算的題目跟這個很類似
https://en.wikipedia.org/wiki/Standard_map
從一組初始位置(p_0, theta_0)開始,每一次操作就是代入那個關係式一次,不過還需要
一點隨機過程,最後結果大概是這樣
p_n+1 = p_n + K sin(theta_n) + D * 隨機數
theta_n+1 = theta_n + p_n+1
目標是要有幾萬個不同的初始位置(隨機的初始位置),然後分別操作一兩百萬次
用MATLAB寫出來大概是這樣
turns=200; % 操作次數
ne=10000; % 初始位置數量
lp=gpuArray(zeros(ne,2));
rseed=1;
rand('seed',rseed)
randn('seed',rseed)
lp(:,1,:) = (rand(ne,1))*2*pi; % 產生隨機初始位置 theta
lp(:,2,:) = (rand(ne,1)-0.5)*0.1; % 產生隨機初始位置 p
k=gpuArray(0.5);
dn=gpuArray(0.001);
tic;
for i=1:turns
lp(:,2) = lp(:,2) + k*sin(lp(:,1))+dn*randn(ne,1,'gpuArray');
lp(:,1) = mod(lp(:,1) + lp(:,2),2*pi); % 讓結果在2 pi以內
end
t=toc;
t
figure(1)
plot(lp(:,1),lp(:,2),'.');
===============
不用GPU版本
turns=200;
ne=10000;
lp=zeros(ne,2);
rseed=1;
rand('seed',rseed)
randn('seed',rseed)
lp(:,1,:) = (rand(ne,1))*2*pi;
lp(:,2,:) = (rand(ne,1)-0.5)*0.1;
k=0.5;
dn=0.001;
tic;
for i=1:turns
lp(:,2) = lp(:,2) + k*sin(lp(:,1))+dn*randn(ne,1);
lp(:,1) = mod(lp(:,1) + lp(:,2),2*pi);
end
t=toc;
t
figure(1)
plot(lp(:,1),lp(:,2),'.');
我看上一篇文章說盡量不要用for loop,要用內建函數,不過我輸入methods gpuArray好
像沒有找到類似的函數,我找的關鍵字是iteration、recursive和nest這類的關鍵字,所
以我還是先暫時用for來寫,發現ne大約小於10000的時候不用gpu比較快,但是隨著ne的
增加,gpu的速度幾乎不變,甚至ne=1e6計算速度都跟ne=1e4差不多,而使用cpu計算的計
算時間跟ne大致上成正比增加,所以gpu運算在ne很大的時候可以大幅縮短計算時間,以
我的電腦為例ne=1e6大概可以快快要兩個數量級
不過我需要的不是ne很大(ne大約幾萬就可以了,不會超過10萬),而是操作次數turns很
大(需要上百萬),目前這種寫法增加turns用gpu算時間是隨turns成正比增加,請問該如
何優化這個程式,看起來就是不要用for,可是我也不知該如何處理
其實我是因為現在這個研究主題從其他人那裏拿了他用MATLAB寫的程式才開始使用MATLAB
,現在還有很多MATLAB觀念都搞不太清楚,謝謝各位版有指教
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.114.253.248
※ 文章網址: https://www.ptt.cc/bbs/MATLAB/M.1506490811.A.87F.html
看起來MATLAB無法很自然的平行化迭代這種運算,所以是要想辦法寫成每一個初始條件丟
給不同的CORE讓他們各自迭代嗎? 感恩
※ 編輯: kanonehilber (140.114.253.31), 09/27/2017 17:03:24
推
09/27 18:21, , 1F
09/27 18:21, 1F
→
09/27 18:22, , 2F
09/27 18:22, 2F
→
09/27 18:48, , 3F
09/27 18:48, 3F
→
09/27 18:48, , 4F
09/27 18:48, 4F
推
09/27 20:20, , 5F
09/27 20:20, 5F
→
09/27 20:21, , 6F
09/27 20:21, 6F
→
09/27 20:21, , 7F
09/27 20:21, 7F
謝謝你的回答!
方便在這裡問一個觀念嗎? 就我對GPU粗淺的理解,GPU是由很多核心構成,比起我用單核
CPU把一整件事情(迭代100萬次)重複做一萬次,如果把這一萬次分配給GPU很多核心,每
個
核心各只做一整件事情幾次,應該可以減少計算時間,可是我目前的結果看起來基本沒有
節省什麼時間,想請問是我的觀念完全搞錯了嗎?還是只是MATLAB不支援這種作法?
感恩
※ 編輯: kanonehilber (140.114.235.65), 09/27/2017 20:42:12
還是我說的分配已經被你說的(:,1)用掉了?
※ 編輯: kanonehilber (140.114.235.65), 09/27/2017 21:05:35
推
09/27 21:17, , 8F
09/27 21:17, 8F
→
09/27 21:18, , 9F
09/27 21:18, 9F
→
09/27 21:18, , 10F
09/27 21:18, 10F
→
09/27 21:19, , 11F
09/27 21:19, 11F
→
09/28 04:21, , 12F
09/28 04:21, 12F
MATLAB 近期熱門文章
PTT數位生活區 即時熱門文章