混音編程
A. 如何在linux平台下開發實際的音頻應用程序
一、數字音頻音頻信號是一種連續變化的模擬信號,但計算機只能處理和記錄二進制的數字信號,由自然音源得到的音頻信號必須經過一定的變換,成為數字音頻信號之後,才能送到計算機中作進一步的處理。數字音頻系統通過將聲波的波型轉換成一系列二進制數據,來實現對原始聲音的重現,實現這一步驟的設備常被稱為模/數轉換器(A/D)。A/D轉換器以每秒鍾上萬次的速率對聲波進行采樣,每個采樣點都記錄下了原始模擬聲波在某一時刻的狀態,通常稱之為樣本(sample),而每一秒鍾所采樣的數目則稱為采樣頻率,通過將一串連續的樣本連接起來,就可以在計算機中描述一段聲音了。對於采樣過程中的每一個樣本來說,數字音頻系統會分配一定存儲位來記錄聲波的振幅,一般稱之為采樣分辯率或者采樣精度,采樣精度越高,聲音還原時就會越細膩。數字音頻涉及到的概念非常多,對於在Linux下進行音頻編程的程序員來說,最重要的是理解聲音數字化的兩個關鍵步驟:采樣和量化。采樣就是每隔一定時間就讀一次聲音信號的幅度,而量化則是將采樣得到的聲音信號幅度轉換為數字值,從本質上講,采樣是時間上的數字化,而量化則是幅度上的數字化。下面介紹幾個在進行音頻編程時經常需要用到的技術指標:1. 采樣頻率采樣頻率是指將模擬聲音波形進行數字化時,每秒鍾抽取聲波幅度樣本的次數。采樣頻率的選擇應該遵循奈奎斯特(Harry Nyquist)采樣理論:如果對某一模擬信號進行采樣,則采樣後可還原的最高信號頻率只有采樣頻率的一半,或者說只要采樣頻率高於輸入信號最高頻率的兩倍,就能從采樣信號系列重構原始信號。正常人聽覺的頻率范圍大約在20Hz~20kHz之間,根據奈奎斯特采樣理論,為了保證聲音不失真,采樣頻率應該在40kHz左右。常用的音頻采樣頻率有8kHz、11.025kHz、22.05kHz、16kHz、37.8kHz、44.1kHz、48kHz等,如果採用更高的采樣頻率,還可以達到DVD的音質。2. 量化位數量化位數是對模擬音頻信號的幅度進行數字化,它決定了模擬信號數字化以後的動態范圍,常用的有8位、12位和16位。量化位越高,信號的動態范圍越大,數字化後的音頻信號就越可能接近原始信號,但所需要的存貯空間也越大。3. 聲道數聲道數是反映音頻數字化質量的另一個重要因素,它有單聲道和雙聲道之分。雙聲道又稱為立體聲,在硬體中有兩條線路,音質和音色都要優於單聲道,但數字化後占據的存儲空間的大小要比單聲道多一倍二、音效卡驅動出於對安全性方面的考慮,Linux下的應用程序無法直接對音效卡這類硬體設備進行操作,而是必須通過內核提供的驅動程序才能完成。在Linux上進行音頻編程的本質就是要藉助於驅動程序,來完成對音效卡的各種操作。對硬體的控制涉及到寄存器中各個比特位的操作,通常這是與設備直接相關並且對時序的要求非常嚴格,如果這些工作都交由應用程序員來負責,那麼對音效卡的編程將變得異常復雜而困難起來,驅動程序的作用正是要屏蔽硬體的這些底層細節,從而簡化應用程序的編寫。目前Linux下常用的音效卡驅動程序主要有兩種:OSS和ALSA。最早出現在Linux上的音頻編程介面是OSS(Open Sound System),它由一套完整的內核驅動程序模塊組成,可以為絕大多數音效卡提供統一的編程介面。OSS出現的歷史相對較長,這些內核模塊中的一部分(OSS/Free)是與Linux內核源碼共同免費發布的,另外一些則以二進制的形式由4Front Technologies公司提供。由於得到了商業公司的鼎力支持,OSS已經成為在Linux下進行音頻編程的事實標准,支持OSS的應用程序能夠在絕大多數音效卡上工作良好。雖然OSS已經非常成熟,但它畢竟是一個沒有完全開放源代碼的商業產品,ALSA(Advanced Linux Sound Architecture)恰好彌補了這一空白,它是在Linux下進行音頻編程時另一個可供選擇的音效卡驅動程序。ALSA除了像OSS那樣提供了一組內核驅動程序模塊之外,還專門為簡化應用程序的編寫提供了相應的函數庫,與OSS提供的基於ioctl的原始編程介面相比,ALSA函數庫使用起來要更加方便一些。ALSA的主要特點有:支持多種音效卡設備模塊化的內核驅動程序支持SMP和多線程提供應用開發函數庫兼容OSS應用程序ALSA和OSS最大的不同之處在於ALSA是由志願者維護的自由項目,而OSS則是由公司提供的商業產品,因此在對硬體的適應程度上OSS要優於ALSA,它能夠支持的音效卡種類更多。ALSA雖然不及OSS運用得廣泛,但卻具有更加友好的編程介面,並且完全兼容於OSS,對應用程序員來講無疑是一個更佳的選擇。三、編程介面如何對各種音頻設備進行操作是在Linux上進行音頻編程的關鍵,通過內核提供的一組系統調用,應用程序能夠訪問音效卡驅動程序提供的各種音頻設備介面,這是在Linux下進行音頻編程最簡單也是最直接的方法。3.1 訪問音頻設備無論是OSS還是ALSA,都是以內核驅動程序的形式運行在Linux內核空間中的,應用程序要想訪問音效卡這一硬體設備,必須藉助於Linux內核所提供的系統調用(system call)。從程序員的角度來說,對音效卡的操作在很大程度上等同於對磁碟文件的操作:首先使用open系統調用建立起與硬體間的聯系,此時返回的文件描述符將作為隨後操作的標識;接著使用read系統調用從設備接收數據,或者使用write系統調用向設備寫入數據,而其它所有不符合讀/寫這一基本模式的操作都可以由ioctl系統調用來完成;最後,使用close系統調用告訴Linux內核不會再對該設備做進一步的處理。· open系統調用系統調用open可以獲得對音效卡的訪問權,同時還能為隨後的系統調用做好准備,其函數原型如下所示: int open(const char *pathname, int flags, int mode);參數pathname是將要被打開的設備文件的名稱,對於音效卡來講一般是/dev/dsp。參數flags用來指明應該以什麼方式打開設備文件,它可以是O_RDONLY、O_WRONLY或者O_RDWR,分別表示以只讀、只寫或者讀寫的方式打開設備文件;參數mode通常是可選的,它只有在指定的設備文件不存在時才會用到,指明新創建的文件應該具有怎樣的許可權。如果open系統調用能夠成功完成,它將返回一個正整數作為文件標識符,在隨後的系統調用中需要用到該標識符。如果open系統調用失敗,它將返回-1,同時還會設置全局變數errno,指明是什麼原因導致了錯誤的發生。· read系統調用系統調用read用來從音效卡讀取數據,其函數原型如下所示: int read(int fd, char *buf, size_t count);參數fd是設備文件的標識符,它是通過之前的open系統調用獲得的;參數buf是指向緩沖區的字元指針,它用來保存從音效卡獲得的數據;參數count則用來限定從音效卡獲得的最大位元組數。如果read系統調用成功完成,它將返回從音效卡實際讀取的位元組數,通常情況會比count的值要小一些;如果read系統調用失敗,它將返回-1,同時還會設置全局變數errno,來指明是什麼原因導致了錯誤的發生。write系統調用系統調用write用來向音效卡寫入數據,其函數原型如下所示: size_t write(int fd, const char *buf, size_t count);系統調用write和系統調用read在很大程度是類似的,差別只在於write是向音效卡寫入數據,而read則是從音效卡讀入數據。參數fd同樣是設備文件的標識符,它也是通過之前的open系統調用獲得的;參數buf是指向緩沖區的字元指針,它保存著即將向音效卡寫入的數據;參數count則用來限定向音效卡寫入的最大位元組數。如果write系統調用成功完成,它將返迴向音效卡實際寫入的位元組數;如果read系統調用失敗,它將返回-1,同時還會設置全局變數errno,來指明是什麼原因導致了錯誤的發生。無論是read還是write,一旦調用之後Linux內核就會阻塞當前應用程序,直到數據成功地從音效卡讀出或者寫入為止。ioctl系統調用系統調用ioctl可以對音效卡進行控制,凡是對設備文件的操作不符合讀/寫基本模式的,都是通過ioctl來完成的,它可以影響設備的行為,或者返回設備的狀態,其函數原型如下所示: int ioctl(int fd, int request, ...);參數fd是設備文件的標識符,它是在設備打開時獲得的;如果設備比較復雜,那麼對它的控制請求相應地也會有很多種,參數request的目的就是用來區分不同的控制請求;通常說來,在對設備進行控制時還需要有其它參數,這要根據不同的控制請求才能確定,並且可能是與硬體設備直接相關的。close系統調用當應用程序使用完音效卡之後,需要用close系統調用將其關閉,以便及時釋放佔用的硬體資源,其函數原型如下所示: int close(int fd);參數fd是設備文件的標識符,它是在設備打開時獲得的。一旦應用程序調用了close系統調用,Linux內核就會釋放與之相關的各種資源,因此建議在不需要的時候盡量及時關閉已經打開的設備。3.2 音頻設備文件對於Linux應用程序員來講,音頻編程介面實際上就是一組音頻設備文件,通過它們可以從音效卡讀取數據,或者向音效卡寫入數據,並且能夠對音效卡進行控制,設置采樣頻率和聲道數目等等。/dev/sndstat設備文件/dev/sndstat是音效卡驅動程序提供的最簡單的介面,通常它是一個只讀文件,作用也僅僅只限於匯報音效卡的當前狀態。一般說來,/dev/sndstat是提供給最終用戶來檢測音效卡的,不宜用於程序當中,因為所有的信息都可以通過ioctl系統調用來獲得。 Linux提供的cat命令可以很方便地從/dev/sndstat獲得音效卡的當前狀態: [xiaowp@linuxgam sound]$ cat /dev/sndstat /dev/dsp音效卡驅動程序提供的/dev/dsp是用於數字采樣(sampling)和數字錄音(recording)的設備文件,它對於Linux下的音頻編程來講非常重要:向該設備寫數據即意味著激活音效卡上的D/A轉換器進行放音,而向該設備讀數據則意味著激活音效卡上的A/D轉換器進行錄音。目前許多音效卡都提供有多個數字采樣設備,它們在Linux下可以通過/dev/dsp1等設備文件進行訪問。DSP是數字信號處理器(Digital Signal Processor)的簡稱,它是用來進行數字信號處理的特殊晶元,音效卡使用它來實現模擬信號和數字信號的轉換。音效卡中的DSP設備實際上包含兩個組成部分:在以只讀方式打開時,能夠使用A/D轉換器進行聲音的輸入;而在以只寫方式打開時,則能夠使用D/A轉換器進行聲音的輸出。嚴格說來,Linux下的應用程序要麼以只讀方式打開/dev/dsp輸入聲音,要麼以只寫方式打開/dev/dsp輸出聲音,但事實上某些音效卡驅動程序仍允許以讀寫的方式打開/dev/dsp,以便同時進行聲音的輸入和輸出,這對於某些應用場合(如IP電話)來講是非常關鍵的。在從DSP設備讀取數據時,從音效卡輸入的模擬信號經過A/D轉換器變成數字采樣後的樣本(sample),保存在音效卡驅動程序的內核緩沖區中,當應用程序通過read系統調用從音效卡讀取數據時,保存在內核緩沖區中的數字采樣結果將被復制到應用程序所指定的用戶緩沖區中。需要指出的是,音效卡采樣頻率是由內核中的驅動程序所決定的,而不取決於應用程序從音效卡讀取數據的速度。如果應用程序讀取數據的速度過慢,以致低於音效卡的采樣頻率,那麼多餘的數據將會被丟棄;如果讀取數據的速度過快,以致高於音效卡的采樣頻率,那麼音效卡驅動程序將會阻塞那些請求數據的應用程序,直到新的數據到來為止。在向DSP設備寫入數據時,數字信號會經過D/A轉換器變成模擬信號,然後產生出聲音。應用程序寫入數據的速度同樣應該與音效卡的采樣頻率相匹配,否則過慢的話會產生聲音暫停或者停頓的現象,過快的話又會被內核中的音效卡驅動程序阻塞,直到硬體有能力處理新的數據為止。與其它設備有所不同,音效卡通常不會支持非阻塞(non-blocking)的I/O操作。無論是從音效卡讀取數據,或是向音效卡寫入數據,事實上都具有特定的格式(format),默認為8位無符號數據、單聲道、8KHz采樣率,如果默認值無法達到要求,可以通過ioctl系統調用來改變它們。通常說來,在應用程序中打開設備文件/dev/dsp之後,接下去就應該為其設置恰當的格式,然後才能從音效卡讀取或者寫入數據。/dev/audio/dev/audio類似於/dev/dsp,它兼容於Sun工作站上的音頻設備,使用的是mu-law編碼方式。如果音效卡驅動程序提供了對/dev/audio的支持,那麼在Linux上就可以通過cat命令,來播放在Sun工作站上用mu-law進行編碼的音頻文件: [xiaowp@linuxgam sound]$ cat audio.au > /dev/audio由於設備文件/dev/audio主要出於對兼容性的考慮,所以在新開發的應用程序中最好不要嘗試用它,而應該以/dev/dsp進行替代。對於應用程序來說,同一時刻只能使用/dev/audio或者/dev/dsp其中之一,因為它們是相同硬體的不同軟體介面。/dev/mixer在音效卡的硬體電路中,混音器(mixer)是一個很重要的組成部分,它的作用是將多個信號組合或者疊加在一起,對於不同的音效卡來說,其混音器的作用可能各不相同。運行在Linux內核中的音效卡驅動程序一般都會提供/dev/mixer這一設備文件,它是應用程序對混音器進行操作的軟體介面。混音器電路通常由兩個部分組成:輸入混音器(input mixer)和輸出混音器(output mixer)。輸入混音器負責從多個不同的信號源接收模擬信號,這些信號源有時也被稱為混音通道或者混音設備。模擬信號通過增益控制器和由軟體控制的音量調節器後,在不同的混音通道中進行級別(level)調制,然後被送到輸入混音器中進行聲音的合成。混音器上的電子開關可以控制哪些通道中有信號與混音器相連,有些音效卡只允許連接一個混音通道作為錄音的音源,而有些音效卡則允許對混音通道做任意的連接。經過輸入混音器處理後的信號仍然為模擬信號,它們將被送到A/D轉換器進行數字化處理。輸出混音器的工作原理與輸入混音器類似,同樣也有多個信號源與混音器相連,並且事先都經過了增益調節。當輸出混音器對所有的模擬信號進行了混合之後,通常還會有一個總控增益調節器來控制輸出聲音的大小,此外還有一些音調控制器來調節輸出聲音的音調。經過輸出混音器處理後的信號也是模擬信號,它們最終會被送給喇叭或者其它的模擬輸出設備。對混音器的編程包括如何設置增益控制器的級別,以及怎樣在不同的音源間進行切換,這些操作通常來講是不連續的,而且不會像錄音或者放音那樣需要佔用大量的計算機資源。由於混音器的操作不符合典型的讀/寫操作模式,因此除了open和close兩個系統調用之外,大部分的操作都是通過ioctl系統調用來完成的。與/dev/dsp不同,/dev/mixer允許多個應用程序同時訪問,並且混音器的設置值會一直保持到對應的設備文件被關閉為止。為了簡化應用程序的設計,Linux上的音效卡驅動程序大多都支持將混音器的ioctl操作直接應用到聲音設備上,也就是說如果已經打開了/dev/dsp,那麼就不用再打開/dev/mixer來對混音器進行操作,而是可以直接用打開/dev/dsp時得到的文件標識符來設置混音器。/dev/sequencer目前大多數音效卡驅動程序還會提供/dev/sequencer這一設備文件,用來對音效卡內建的波表合成器進行操作,或者對MIDI匯流排上的樂器進行控制,一般只用於計算機音樂軟體中。 四、應用框架在Linux下進行音頻編程時,重點在於如何正確地操作音效卡驅動程序所提供的各種設備文件,由於涉及到的概念和因素比較多,所以遵循一個通用的框架無疑將有助於簡化應用程序的設計。4.1 DSP編程對音效卡進行編程時首先要做的是打開與之對應的硬體設備,這是藉助於open系統調用來完成的,並且一般情況下使用的是/dev/dsp文件。採用何種模式對音效卡進行操作也必須在打開設備時指定,對於不支持全雙工的音效卡來說,應該使用只讀或者只寫的方式打開,只有那些支持全雙工的音效卡,才能以讀寫的方式打開,並且還要依賴於驅動程序的具體實現。Linux允許應用程序多次打開或者關閉與音效卡對應的設備文件,從而能夠很方便地在放音狀態和錄音狀態之間進行切換,建議在進行音頻編程時只要有可能就盡量使用只讀或者只寫的方式打開設備文件,因為這樣不僅能夠充分利用音效卡的硬體資源,而且還有利於驅動程序的優化。下面的代碼示範了如何以只寫方式打開音效卡進行放音(playback)操作: int handle = open("/dev/dsp", O_WRONLY);if (handle == -1) { perror("open /dev/dsp"); return -1;} 運行在Linux內核中的音效卡驅動程序專門維護了一個緩沖區,其大小會影響到放音和錄音時的效果,使用ioctl系統調用可以對它的尺寸進行恰當的設置。調節驅動程序中緩沖區大小的操作不是必須的,如果沒有特殊的要求,一般採用默認的緩沖區大小也就可以了。但需要注意的是,緩沖區大小的設置通常應緊跟在設備文件打開之後,這是因為對音效卡的其它操作有可能會導致驅動程序無法再修改其緩沖區的大小。下面的代碼示範了怎樣設置音效卡驅動程序中的內核緩沖區的大小: int setting = 0xnnnnssss;int result = ioctl(handle, SNDCTL_DSP_SETFRAGMENT, &setting);if (result == -1) { perror("ioctl buffer size"); return -1;}// 檢查設置值的正確性 在設置緩沖區大小時,參數setting實際上由兩部分組成,其低16位標明緩沖區的尺寸,相應的計算公式為buffer_size = 2^ssss,即若參數setting低16位的值為16,那麼相應的緩沖區的大小會被設置為65536位元組。參數setting的高16位則用來標明分片(fragment)的最大序號,它的取值范圍從2一直到0x7FFF,其中0x7FFF表示沒有任何限制。接下來要做的是設置音效卡工作時的聲道(channel)數目,根據硬體設備和驅動程序的具體情況,可以將其設置為0(單聲道,mono)或者1(立體聲,stereo)。下面的代碼示範了應該怎樣設置聲道數目: int channels = 0; // 0=mono 1=stereoint result = ioctl(handle, SNDCTL_DSP_STEREO, &channels);if ( result == -1 ) { perror("ioctl channel number"); return -1;}if (channels != 0) { // 只支持立體聲} 采樣格式和采樣頻率是在進行音頻編程時需要考慮的另一個問題,音效卡支持的所有采樣格式可以在頭文件soundcard.h中找到,而通過ioctl系統調用則可以很方便地更改當前所使用的采樣格式。下面的代碼示範了如何設置音效卡的采樣格式: int format = AFMT_U8;int result = ioctl(handle, SNDCTL_DSP_SETFMT, &format);if ( result == -1 ) { perror("ioctl sample format"); return -1;}// 檢查設置值的正確性 音效卡采樣頻率的設置也非常容易,只需在調用ioctl時將第二個參數的值設置為SNDCTL_DSP_SPEED,同時在第三個參數中指定采樣頻率的數值就行了。對於大多數音效卡來說,其支持的采樣頻率范圍一般為5kHz到44.1kHz或者48kHz,但並不意味著該范圍內的所有頻率都會被硬體支持,在Linux下進行音頻編程時最常用到的幾種采樣頻率是11025Hz、16000Hz、22050Hz、32000Hz和44100Hz。下面的代碼示範了如何設置音效卡的采樣頻率: int rate = 22050;int result = ioctl(handle, SNDCTL_DSP_SPEED, &rate);if ( result == -1 ) { perror("ioctl sample format"); return -1;}// 檢查設置值的正確性 4.2 Mixer編程音效卡上的混音器由多個混音通道組成,它們可以通過驅動程序提供的設備文件/dev/mixer進行編程。對混音器的操作是通過ioctl系統調用來完成的,並且所有控制命令都由SOUND_MIXER或者MIXER開頭,表1列出了常用的幾個混音器控制命令:名稱作用SOUND_MIXER_VOLUME主音量調節SOUND_MIXER_BASS低音控制SOUND_MIXER_TREBLE高音控制SOUND_MIXER_SYNTHFM合成器SOUND_MIXER_PCM主D/A轉換器SOUND_MIXER_SPEAKERPC喇叭SOUND_MIXER_LINE音頻線輸入SOUND_MIXER_MIC麥克風輸入SOUND_MIXER_CDCD輸入SOUND_MIXER_IMIX回放音量SOUND_MIXER_ALTPCM從D/A 轉換器SOUND_MIXER_RECLEV錄音音量SOUND_MIXER_IGAIN輸入增益SOUND_MIXER_OGAIN輸出增益SOUND_MIXER_LINE1音效卡的第1輸入SOUND_MIXER_LINE2音效卡的第2輸入SOUND_MIXER_LINE3音效卡的第3輸入表1 混音器命令對音效卡的輸入增益和輸出增益進行調節是混音器的一個主要作用,目前大部分音效卡採用的是8位或者16位的增益控制器,但作為程序員來講並不需要關心這些,因為音效卡驅動程序會負責將它們變換成百分比的形式,也就是說無論是輸入增益還是輸出增益,其取值范圍都是從0到100。在進行混音器編程時,可以使用SOUND_MIXER_READ宏來讀取混音通道的增益大小,例如在獲取麥克風的輸入增益時,可以使用如下的代碼: int vol;ioctl(fd, SOUND_MIXER_READ(SOUND_MIXER_MIC), &vol);printf("Mic gain is at %d %%\n", vol); 對於只有一個混音通道的單聲道設備來說,返回的增益大小保存在低位位元組中。而對於支持多個混音通道的雙聲道設備來說,返回的增益大小實際上包括兩個部分,分別代表左、右兩個聲道的值,其中低位位元組保存左聲道的音量,而高位位元組則保存右聲道的音量。下面的代碼可以從返回值中依次提取左右聲道的增益大小�4.3 音頻錄放框架下面給出一個利用音效卡上的DSP設備進行聲音錄制和回放的基本框架,它的功能是先錄制幾秒種音頻數據,將其存放在內存緩沖區中,然後再進行回放,其所有的功能都是通過讀寫/dev/dsp設備文件來完成的: /* * sound.c */#include #include #include #include #include #include #include #define LENGTH 3 /* 存儲秒數 */#define RATE 8000 /* 采樣頻率 */#define SIZE 8 /* 量化位數 */#define CHANNELS 1 /* 聲道數目 */ /* 用於保存數字音頻數據的內存緩沖區 */unsigned char buf[LENGTH*RATE*SIZE*CHANNELS/8]; int main(){ int fd; /* 聲音設備的文件描述符 */ int arg; /* 用於ioctl調用的參數 */ int status; /* 系統調用的返回值 */ /* 打開聲音設備 */ fd = open("/dev/dsp", O_RDWR); if (fd < 0) { perror("open of /dev/dsp failed"); exit(1); } /* 設置采樣時的量化位數 */ arg = SIZE; status = ioctl(fd, SOUND_PCM_WRITE_BITS, &arg); if (status == -1) perror("SOUND_PCM_WRITE_BITS ioctl failed"); if (arg != SIZE) perror("unable to set sample size"); /* 設置采樣時的聲道數目 */ arg = CHANNELS; status = ioctl(fd, SOUND_PCM_WRITE_CHANNELS, &arg); if (status == -1) perror("SOUND_PCM_WRITE_CHANNELS ioctl failed"); if (arg != CHANNELS) perror("unable to set number of channels"); /* 設置采樣時的采樣頻率 */ arg = RATE; status = ioctl(fd, SOUND_PCM_WRITE_RATE, &arg); if (status == -1) perror("SOUND_PCM_WRITE_WRITE ioctl failed"); /* 循環,直到按下Control-C */ while (1) { printf("Say something:\n"); status = read(fd, buf, sizeof(buf)); /* 錄音 */ if (status != sizeof(buf)) perror("read wrong number of bytes"); printf("You said:\n"); status = write(fd, buf, sizeof(buf)); /* 回放 */ if (status != sizeof(buf)) perror("wrote wrong number of bytes"); /* 在繼續錄音前等待回放結束 */ status = ioctl(fd, SOUND_PCM_SYNC, 0); if (status == -1) perror("SOUND_PCM_SYNC ioctl failed"); }} 4.4 混音器框架下面再給出一個對混音器進行編程的基本框架,利用它可以對各種混音通道的增益進行調節,其所有的功能都是通過讀寫/dev/mixer設備文件來完成的: /* * mixer.c */#include #include #include #include #include #include /* 用來存儲所有可用混音設備的名稱 */const char *sound_device_names[] = SOUND_DEVICE_NAMES; int fd; /* 混音設備所對應的文件描述符 */int devmask, stereodevs; /* 混音器信息對應的點陣圖掩碼 */char *name; /* 顯示命令的使用方法及所有可用的混音設備 */void usage(){ int i; fprintf(stderr, "usage: %s \n" " %s \n\n" "Where is one of:\n", name, name); for (i = 0 ; i < SOUND_MIXER_NRDEVICES ; i++) if ((1
B. 怎麼使用adobe audition
1、混響是一種效果,是需要有音頻的文件的,然後把這種混響的效果載入到這文件上,達到滿意的作品;混響可以說是一個程序,是需要編程才能做出來的。所以,在Au里只能是將一個音頻文件有了混響效果,而不是做一個混響。
2、假如是上面的意思話,接下來就好辦了:首先導入音頻,拖到音軌中,雙擊進入單軌編輯(界面左上方有兩三個小圖標),進入編輯後,依次打開:「效果」——「混響」里的任何一項你都可以去慢慢試,直到遇到你想要的。
3、我想多說的是,混響只是一種效果。假如還想有其它效果,可以上網找一些東西。你可以在網路里查一下以下幾個詞語「VST」「軟音源」......等等等等。相信您會對Au有新的認識。
C. 如何使用OpenSL ES在c4droid中進行聲音編程
使用opensl es 的前提條件是在源代碼中:
#include <SLES/OpenSLES.h>, 包含 opensl es的頭文件
在gcc中:
-lOpenSLES 鏈接 opensl es的庫文件
大休步驟如下:
1.創建聲音引擎
2.創建聲音播放器
3.設置播放緩沖
opensl es 主要操作的是 介面(interface),大體來說有如下幾個介面:
SLObjectItf : 對象介面,
SLEngineItf :引擎介面
SLPlayItf:播放介面
SLBufferQueueItf :緩沖隊列介面
SLEffectSendItf:音效發送介面
SLMuteSoloItf : 聲道關閉 /單聲道介面
SLVolumeItf : 聲量介面
除了 slCreateEngine 這一條函數是用來創建聲音引擎對象介面以外,其它的所有操作都是通過介面的成員函數完成的,現在我們來研究如何初始化聲音引擎
初始化聲音引擎需要3個介面,我們要將它們聲明為全局變數:
SLObjectItf _aud;/* 聲音引擎的對象介面 */
SLEngineItf _aud_eng;/* 聲音引擎 */
SLObjectItf _aud_mix;/* 混音器對象介面 */
首先我們創建聲音引擎的對象介面 :
slCreateEngine(&_aud, 0, NULL, 0, NULL, NULL);
創建之後的介面並不能立即使用,我們首先要通過介面的子函數實現(Realize)它:
(*_aud)->Realize(_aud, SL_BOOLEAN_FALSE);/* 通過_aud的Realize子函數實現聲音引擎的對象介面 */
實現之後,我們從聲音引擎的對象中抓取聲音引擎,在這里我們通過介面的子函數抓取介面 (GetInterface),抓取對像是 _aud, 抓取類型是引擎,抓取後存放的內存位置是我們先前聲明的引擎介面_aud_eng的指針位置。指令如下:
(*_aud)->GetInterface(_aud, SL_IID_ENGINE, &_aud_eng);
這樣聲音引擎就初始化了
第三步我們要做的是從聲音引擎中創建 "輸出混音器" 對象,這樣我們才可以將聲音播放出來。
注意,同 聲音引擎的對象一樣, 由於 "輸出混音器" 是對象,我們必須創建後在實現(Realize)它。
由於"輸出混音器"創建的同時需要兩個音效參數,所以我們先准備好這兩個參數:第一個參數類型是聲音介面編號(SLInterfaceID),是一個數組,我們可以將其看成一個音效配置列表,在其中放置不同的音效編號。第二個參數是一個邏輯數組:是否強制實現聲音介面編號中對應音效,如果某個音效的邏輯為真(SL_BOOLEAN_TRUE),則在無法實現該音效時視為"輸出混音器"創建失敗,否則將忽略該音效。因為安卓的聲硬體對音效的支持不同,所以最好不要強制實現,所以我們在第二個數組中全部填寫SL_BOOLEAN_FALSE 。
現在我們開始創建"輸出混音器",環境回響(SL_IID_ENVIRONMENTALREVERB )是比較常見的音效,我們將非強制性的使用該音效。
SLInterfaceID effect[1] = {SL_IID_ENVIRONMENTALREVERB}; /*環境回響音效 */
SLboolean effect_bool[1] = {SL_BOOLEAN_FALSE}; /* 回響音效強制實現邏輯 */
(*_aud_eng)->CreateOutputMix(_aud_eng, &_aud_mix, 1, effect, effect_bool);/* 從聲音引擎中創建「輸出混音器」 */
(*_aud_mix)->Realize(_aud_mix, SL_BOOLEAN_FALSE); /* 實現剛創建的「輸出混音器」 */
樣一來,所有的初始化工作就全部完成了。我們獲得如下完整代碼:
SLObjectItf _aud;/* 聲音引擎對象 */
SLEngineItf _aud_eng;/* 聲音引擎 */
SLObjectItf _aud_mix;/* 輸出混音器對象 */
/* audio_init: 初始化opensl es */
int audio_init ()
{
SLInterfaceID effect[1] = {SL_IID_ENVIRONMENTALREVERB}; /* 音效 */
SLboolean effect_bool[1] = {SL_BOOLEAN_FALSE}; /*音效強制實現邏輯 */
slCreateEngine(&_aud, 0, NULL, 0, NULL, NULL);/* 創建聲音引擎對象 */
(*_aud)->Realize(_aud, SL_BOOLEAN_FALSE);/* 實現聲音引擎對象 */
(*_aud)->GetInterface(_aud, SL_IID_ENGINE, &_aud_eng);/* 從聲音引擎對象中抓取聲音引擎 */
(*_aud_eng)->CreateOutputMix(_aud_eng, &_aud_mix, 1, effect, effect_bool);/* 通過聲音引擎創建輸出混音器對象,並且非強制性的開啟環境混響效果 */
(*_aud_mix)->Realize(_aud_mix, SL_BOOLEAN_FALSE);/* 實現混音器對象 */
}
初始化引擎之後, 我們還要創建一個播放器對象,就可以在播放器中輸出聲音了
播放器對象和輸出混音器一樣,是對象,創建後需要進行實現:
SLObjectItf _aud_plyobj; /*播放器對象 */
(*_aud_eng)->CreateAudioPlayer(_aud_eng, &_aud_plyobj, &sndsrc, &sndsnk, 3, ids, req);
/* 這是創建聲音播放器對象aud_plyobj的函數 */
前兩個參數分別把 聲音引擎 和 播放器引擎的指針位置填上就可以了
我們真正需要填寫的是後面4個參數 :
sndsrc: 聲音數據源
sndsnk:聲音輸出池(data sink),也就是聲音輸出設備
3:功能清單數目,我們要讓播放器支持3種功能
ids: 功能清單,我們要讓播放器支持的功能
req:功能強制實現邏輯
D. 像sonar,像GTP軟體,從編程的角度看,是不是個很簡單的軟體
GTP是guitar pro的簡稱,現在網上我能找到最新的版本是4.10<br /><br />GTP是一個非常尷尬的軟體,它被稱為"打譜軟體"<br />我卻發現很少吉他教材是用它來製作的<br />它同時又被稱為"吉他譜軟體"<br />這個概念很籠統.但玩吉他的人卻對它不屑一顧<br />更喜歡的是圖片格式或TXT格式的吉他譜<br /><br />它有一個"MIDI導出"功能,但卻沒人把它叫做MIDI軟體(是不是叫音序器?)<br />因為它做出的MIDI不夠專業...<br />它是一個邊緣化了的軟體,似乎不被吉他和MIDI雙方所接受...<br /><br />那它還有存在的價值嗎?<br />答案是肯定的.<br /><br />正由於它的這個特性<br />使它成為一個吉他玩家玩MIDI的最好選擇<br /><br />相信很多朋友的音樂之路是從吉他開始的<br />我便是如此(雖然吉他技術幾乎為0)<br />但對於六線譜我有著先入為主的感情<br />很難去接受五線譜和鋼琴卷簾了<br />所以一直我都是用GTP做MIDI框架<br />然後到SONAR里去修改的<br /><br />對於GTP的優點,<br />我一直是把它叫做"所見即所得"<br />這其實跟國內許多的"作曲"軟體一樣的,如TT作曲家<br />除了少了它們的自動編曲功能(完全可以用更專業的BB代替)<br />其它功能比它們要專業得多(在製作MIDI方面)<br />對於從吉他玩起的朋友來說<br />GTP是最具有親和力的了<br />正因為它的六線譜<br />還有就是它與MIDI的"雙向兼容"<br />即MIDI可轉為GTP,GTP也可轉為MIDI<br /><br />GTP的缺點也很明顯<br />這是指在做MIDI方面<br />比如在MIDI中力度是一個非常常用的<br />在GTP設置力度卻非常地麻煩<br />很多細節方面都不如在像CAKEWALK之類的方便<br />但我們完全可以導出MIDI後再到比較專業的軟體里修改
E. 如何才能做出好的編程視頻教程
工具/原料
能上網的電腦。
錄音軟體,一般現在的操作系統都自帶有的。有它就行。不用另外安裝。
方法/步驟
打開錄音軟體-錄音機,在 開始-程序 里找一下,操作系統本身自帶有的,有的可能是在 開始-程序-附件 裡面,我的電腦windows 8.1 在「所有應用程序」調出。因為准備要錄制的是電腦本身的音源,所以打開前,先設置一下,如下圖,windows 8為例,把「立體聲混音」右鍵,除了「禁用」其它選項都勾選上,(圖示還沒勾選完哦)。
利用在線翻譯的朗讀功能幫我們實現朗讀功能。在網路中搜索「谷歌翻譯」或者「網路翻譯」這兩個都可以,谷歌翻譯的特點是語速會稍快一點,聽起來舒服些,一會自己體會一下吧。把要錄制的教程文字、方案復制到翻譯框內,點一下錄音機開始錄音,然後,點在線翻譯的朗讀,其按鈕是下面圖示,圖的右下角,有個小喇叭的,點它,就開始朗讀了。
F. 跪求linux大神,小弟正在研究linux音效卡方面的編程,想知道如何對/dev/mixer的操作可以實現聲音的合成,就
alsa 支持軟合成。詳細請看他的相關文檔
另外還有一些合成服務程序。比如 arts 、esound 。詳細請看他的相關文檔。這個其實是你把聲音數據發給這種聲音伺服器程序,他們合成後轉發給音效卡。這會有輕微的延遲(現在來說硬體性能足夠保證感覺到是「實時」而不是延遲)。
互不幹涉是硬體的功能,有些硬體不支持(其實只有高端支持),這要看驅動。
Windows 用的其實是軟體的合成。類似 arts 、esound 。 Windows 曾經也支持獨占音效卡的那種方式,那樣可以保證音頻輸出的質量和實時性。
你想參考,去看這種音頻合成服務的源代碼就行了。
混音的演算法我就不知道什麼地方找了,不過很多音頻編輯程序應該都有相關的演算法吧?Linux 下面有一些音頻編輯軟體的。
另外有些播放器支持 crossfade ,這也是混合兩個歌曲的演算法,源代碼應該可以參考。
G. Adobe Audition3.0怎麼用
您這問題,讓回答者看的有點雲里霧里的,呵呵
不過我是這樣學的:
當初我打開的時候 我學長只跟我講了一下怎麼將一段音頻弄稱兩段。呵呵
不過 很多時候還是有時間就打開玩玩才能到位,到了一定水平後就可以去山網看教學視頻了
我先跟你講一下怎麼混響吧,1、混響是一種效果,是需要有音頻的文件的,然後把這種混響的效果載入到這文件上,達到滿意的作品;混響可以說是一個程序,是需要編程才能做出來的。所以,在Au里只能是將一個音頻文件有了混響效果,而不是做一個混響。
2、假如是上面的意思話,接下來就好辦了:首先導入音頻,拖到音軌中,雙擊進入單軌編輯(界面左上方有兩三個小圖標),進入編輯後,依次打開:「效果」——「混響」里的任何一項你都可以去慢慢試,直到遇到你想要的。
3、我想多說的是,混響只是一種效果。假如還想有其它效果,可以上網找一些東西。你可以在網路里查一下以下幾個詞語「VST」「軟音源」......等等等等。相信您會對Au有新的認識。
對了,與Au類似的軟體,或者比Au更專業的軟體還有「CUBASE」「nuendo」等。
希望對您有用。
H. mashup和remix都是混音的意思嗎 那麼它們有什麼區別啊,還有它們是源於什麼時候和哪裡的有人知道么
Remix:
1.是指一首曲子的重新編曲混音版或一張重新編曲混音專輯。即重編曲混音。
2.這是一種讓歌曲再生的創作方式。如果說原作是原汁原味的傳統菜,那重混版本就是各位名廚根據個人口味加入不同調料後的新派混搭菜,是歌曲的另一次「洗心革面」。
3.它和印象集又有點不同,混音版的樂曲在OST的基礎上對音樂進行重編輯,並加入人聲、環境音效、鼓點或其他的電子音效,以期達到一種更好的或不同於OST的效果。
4.一首聽起來很沉悶灰暗的曲子,Remix版可能是一首非常勁爆的舞曲。
mashup:
是指把幾首或者十幾首甚至更多的歌曲後期剪輯,再用remix技術在3到8分鍾之內融合成一首完整的曲子。
區別:mashup是純正remix技術的音樂,而remix是一種製作歌曲的手法。
(8)混音編程擴展閱讀:
關於混音:
1.關於混音,混音簡單的說就是把多個音頻軌和諧的混到一起。例如鼓點,loop,音效填充原聲帶的乾唱,可以保留原有的節奏,也可以重新作音樂框架!
2.混音(mix),分為錄音棚中的混音與dj的混音,前者是將獨立的演唱、伴奏、甚至是獨立樂器的伴奏合成為一個或兩個聲道,後者是為已經成為作品的音樂添加其他音樂元素,通過調節速度,添加語音、節奏樂器、特效等。
3.以前的混音多由混音台完成,用電腦。
4.好多音頻處理軟體如FL studio(水果)、Acid可以實現混音。
I. 關於windows編程 多個聲音疊加的處理
我不知道你的編程是在什麼層面的。
如果從聲音處理層面上來說,兩個聲音數據混音其實就是PCM碼流線性疊加然後超出邊界的按邊界處理就行了,跟普通波形疊加是一樣的道理。
如果你是在上層調用系統介面播放聲音的話完全不用擔心這個問題,音效卡驅動本身自己就有混音功能,你在調用系統API的時候設置播放非阻塞就行了。
J. 【詢問】大家覺得計算機編程和編輯多媒體哪個有意思
肯定多媒體會好一些,編程是公認的枯燥,除非你有興趣,比如我就會選擇編程,因為我有興趣,而且我對多媒體製作沒興趣。