Re: [問題] iOS播放streaming的audio

看板MacDev作者 (矜持)時間13年前 (2012/05/09 17:05), 編輯推噓1(109)
留言10則, 2人參與, 最新討論串3/3 (看更多)
※ 引述《johnlinvc (阿翔)》之銘言: : ※ 引述《chris1000 (矜持)》之銘言: : : 想法是 : : 1. 將收到的g.726 raw data解碼成raw PCM後 : : 2. 再使用audio queue servie去將PCM data enqueue並播放 : : 但是後半段播放出來的聲音一直是播一小段頓一下的狀況 : : ConnectionRequest.m : : -(void) connection:(NSURLConnection *)connection : : didRecieveData:(NSData *)data : : { : : int outDataSize = 0; : : void *outDatabuf = malloc(data.length*8); : : //將G.726編碼的data 解碼成raw PCM至outDatabuf : : [G726Decoder decodeFrame:data.bytes : : withDatasize:data.length : : withOutData:outDatabuf : : withOutDataSize:&outDataSize]; : : dispatch_queue_t playQueue = dispatch_queue_create("play", NULL); : : dispatch_async(playQueue, ^(void){ : : playBuffer(outDatabuf, outDataSize); : : free(outDatabuf); : : }); : : dispatch_release(playQueue); : : } : : player.c : : void AQCallback(void *in, AudioQueueRef inQ, AudioQueueBufferRef outQB) : : { : : //將pcm data目前播到的位置開始複製資料到outQB->mAudioData : : //使用AudioQueueEnqueueBuffer(inQ, outQB, 0, NULL)來Enqueue : : } : : int playBuffer(void *pcm, int len) : : { : : //使用AudioQueueService播放pcm data : : //1. 將AudioStreamBasicDescription初始化 : : //2. 使用AudioQueueNewOutput建立一個outputQueue, : : // callback為AQCallback() : : //3. 使用AudioQueueAllocateBuffer來建立3個buffer : : //4. call 1次AQCallback()來Enqueue : : //5. 使用AudioQueueStart開始播放 : : //6. 用一個while loop卡住直到pcm被播放完畢 : : } : : 後面player的部分我有試過直接播一個已經存檔的PCM raw data : : 可以很順利的播完 : : 但是拿來播stream就變成播一下頓一下播一下頓一下 : : 目前didRecieveData收到的data size大約是1000~2000不等 : : 解完碼後的PCM大小是四倍,大約是4000~8000不等 : : 請問 : : 1. 是否需要將PCM raw data先丟到一個buffer, : : 等待累積到一定程度以後再丟去player播放? : 是 : : 2. 如果需要一個buffer來處理read/write,那麼這個buffer大小應該要多大比較好? : : 這種buffer management有沒有iOS版本的範例可以參考? : https://github.com/michaeltyson/TPCircularBuffer : : 3. didRecieveData是否能設定每次收下來都固定大小而不是浮動的? : 不行 : : 4. 是否改用NSThread會比dispatch queue好? : 不會 : : 5. 這種情況改用OpenAL會不會比較快....但是OpenAL好像都拿來作同時播放多個音效? : 不會 : : 感謝各位看到最後<(_ _)> : 你的問題應該是在產生太多AudioQueue了,變成下面這種狀況 : receive data-> decode -> create AudioQueue -> play : ↑ ↓ : L_______________________________________↲ : 應該是要這樣才合理 (buffer big enough) : create AudioQueue -> receive data -> decode -> add to buffer --> play : ^ | : L________________________↲ 謝謝您的回覆,在看過幾個範例後出現另外一個問題 用objective-c寫的AudioQueue可能會長成下面這樣: AudioQueueNewOutput(&dataformat, BufferCallback, self, nil, nil, 0, &queue); static void BufferCallback(void *inUserData, AudioQueueRef inAQ, AudioQueueBufferRef buffer){ MyPlayer *player = (MyPlayer *)inUserData; [player dosomething]; } 在AudioQueueNewOutput傳入的inUserData是self 並且在BufferCallback的地方將inUserData再轉型成class 可是如果有開ARC的話,AudioQueueNewOuput中 class轉型成void*需要加前置__bridge (__birdge void*)self BufferCallback中,void*轉型成class也需要加前置__bridge (__bridge MyPlayer *)inUserData 我這樣加是編譯得過 但是運行到BufferCallback的轉型就...出現EXC_BAD_ACCESS 我是直接試這篇文章的的playAudio: http://www.cnblogs.com/xuanyuanchen/archive/2012/04/17/2450169.html 請問是否因為哪邊Memory management出問題? 還是ARC需要作其他的處理呢? 謝謝<(_ _)> -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 61.216.168.86

05/10 00:17, , 1F
如果程式本身不是用ARC寫 我是建議compiler 加參數去build
05/10 00:17, 1F

05/10 00:19, , 2F
不要用refactor去轉成ARC..將單檔用-fno-objc-arc去build
05/10 00:19, 2F

05/10 00:22, , 3F
推薦一個超棒的網站 http://www.raywenderlich.com/tutorials
05/10 00:22, 3F

05/10 09:23, , 4F
感謝您的建議,請問加了-fno-objc-arc後編譯仍然有錯誤
05/10 09:23, 4F

05/10 09:23, , 5F
可是可以執行,這樣是正常的嗎?
05/10 09:23, 5F

05/10 09:24, , 6F
另外這個程式即使把arc關掉,執行還是有問題
05/10 09:24, 6F

05/10 09:24, , 7F
看來真的是程式本身的memory management有問題...
05/10 09:24, 7F

05/10 19:31, , 8F
也有可能是framewok沒加或是Other Linker Flag要加-lstdc++
05/10 19:31, 8F

05/10 19:33, , 9F
沒po error code有些難猜
05/10 19:33, 9F

05/11 00:33, , 10F
同樣的code新增一個檔案重寫, xcode就沒有錯誤提示了orz
05/11 00:33, 10F
文章代碼(AID): #1FgZDbV1 (MacDev)
討論串 (同標題文章)
文章代碼(AID): #1FgZDbV1 (MacDev)