[討論] 傳輸訊號模擬相位delay的作法

看板MATLAB作者 (阿羽)時間13年前 (2013/04/30 14:11), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/1
各位版上的大大好,目前使用matlab撰寫BPSK的傳輸接受機制 而經過通道後,理應會產生phase和symbol上的delay,symbol 的初始delay很好模擬出來,但是小弟我現在卡在不知如何撰寫 phase上的delay,凡請各位指點,在此附上我的部分程式碼。 clear; close all SNR = 0.5; %Signal to noise ratio E_s = 1; %Signal Power No = E_s^2/SNR; %Noise Power sig_n = sqrt(No/2); %Noise standard deviation w=2*pi*5; %Frequency t=0.01:0.01:0.2; %Time Vector N=200; %Number of Bits %Create Signal Vectors for ii=1:2 s(ii,:) = E_s*cos(w*t-2*pi*ii/2); end %Modulate a random bit stream signal = ceil(2*rand(1,N)); m_sig = []; for ii=1:N m_sig = [m_sig s(signal(ii),:)]; %順便請問一下,這一行的表示法是學長教的 end %我看不太懂為何m_sig = [m_sig ←裡面會有自己? plot(m_sig(1:100),':') %plot the Original Modulate signal %%%%%% phase delay 加入地方(模擬通道延遲) 這邊應該是要加上phase delay,可是我卻不知道要用甚麼方法改變我的 資料值,凡請各位指點指點,謝謝。 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 120.125.82.215
文章代碼(AID): #1HVs2C-m (MATLAB)
文章代碼(AID): #1HVs2C-m (MATLAB)