tim.chnan 寫:
m... Chanlin 兄
我還是看沒完全懂您要做得是什麼,我還是先看看 headwize 的文件好了
不過我有個小疑問,如果說想對大量資料做 filter,不知道 Chanlin 兄有沒有考慮在 time-domain 做 filter,因為 Convolution theory ,在 frequency domain 做手腳,也可以反過來把 filter 做 FFT 然後在 time-domain 對 原始 time-series 資料做 convolution 積分,意思應該一樣!?
小弟有興趣的,
就是用耳機時,想把聲音趕出小腦袋瓜以外,
因為用慣喇叭,聲音在腦袋瓜裡響阿響的讓我有點不自在。
最近又拿 foobar2000 的一些 headphone 插件在試,
Corda Opera 我有,還有一個約兩年前買的 cross feed 套件還沒裝....
不滿意。
下一步就是自己弄個程式把 cross-feed signal,側牆/地板反射音.....延遲加衰減地弄一弄吧!
看有沒有比較好
R_out(t) = A1*R_in(t) + A2*L_in(t-t1) + A3*R_in(t-t2) + A4*L_in(t-t3) + .......
L_out(t) = A1*L_in(t) + A2*R_in(t-t1) + A3*L_in(t-t2) + A4*R_in(t-t3) + .......
是在 time domain 做, 記得有現成圖形化 DSP 軟體可做這事。
A2, A3, A4......是牆壁反射係數之類的,t1, t2, t3,.... 是 time lag
time lag 經由這討論串很清楚了,高低頻不必分開處理給不同的延時,多謝大家的指點,EQ 或 filter 那就是下一步的下一步。
時間域高頻低頻速度一樣,那頻率域應該找 linear phase 的 EQ。
小弟那個拿 wave 訊號做 FFT,那是無聊的行為啦,笑笑就好。
實際上,小弟對想做的預期成果沒有信心,用 AKG K290 可能比較有機會。