有陣子沒出文章,接下來爭取這段時間持續更新,將沉淀的東西記錄下來,廢話不多說
剛接觸了音視頻方面,趁熱乎記錄一下,歡迎大家指正
接下來會分為一下幾點來介紹:
- 基礎知識準備
- Android MediaRecorder和AudioRecord 與 MediaPlayer 和 AudioTrack 的介紹
- PCM與WAV編碼介紹與轉化
- 實例 Android AudioRecord 和 AudioTrack 的使用
基礎知識準備
音頻開發經常遇到的專業性詞語
(1) 采樣率
“音頻采樣率
” 是指錄音設備在一秒鐘內對聲音信號的采樣次數,采樣頻率越高聲音的還原就越真實越自然。常用的音頻采樣頻率有:8kHz、11.025kHz、22.05kHz、16kHz、37.8kHz、44.1kHz、48kHz、96kHz、192kHz等。在當今的主流采集卡上,采樣頻率一般共分為22.05KHz、44.1KHz、48KHz三個等級,22.05KHz只能達到FM廣播的聲音品質,44.1KHz則是理論上的CD音質界限,48KHz則更加精確一些。
通俗理解:每秒錄取聲音的次數。
(2) 量化精度(采樣位數)
“采樣位數
”越大表示的值的范圍也就越大
"采樣位數
"可以理解為采集卡處理聲音的解析度。這個數值越大,解析度就越高,錄制和回放的聲音就越真實。電腦中的聲音文件是用數字0和1來表示的。連續的模擬信號按一定的采樣頻率經數碼脈沖取樣后,每一個離散的脈沖信號被以一定的量化精度量化成一串二進制編碼流,這串編碼流的位數即為采樣位數,也稱為"量化精度
"。
常見的位數為 : 16bit
和 32bit
通俗理解:每秒錄取聲音的精度,就像畫面的分辨率,越高聲音越真實
(3) 聲道數
聲道數
分別有:單聲道
的聲道數為1個聲道;雙聲道
的聲道數為2個聲道;立體聲道的聲道數默認為2個聲道;立體聲道(4聲道)的聲道數為4個聲道。
常見使用的是:單聲道(MONO) 和 雙聲道 (STEREO)
通俗理解:聲道數表示錄制或者播放音頻的聲音源
(4) 比特率(碼率)
比特率
(又叫做位速率或者碼率)是指每秒傳送的比特(bit)數。單位為bps(Bit Per Second),比特率越高,傳送的數據越大。比特率表示經過編碼(壓縮)后的音、視頻數據每秒鐘需要用多少個比特來表示,而比特就是二進制里面最小的單位,要么是0,要么是1。比特率與音、視頻壓縮的關系,簡單的說就是比特率越高,音、視頻的質量就越好,但編碼后的文件就越大;如果比特率越少則情況剛好相反。
若作為一種數字音樂壓縮效率的參考性指標,比特率
表示單位時間(1秒)內傳送的比特數bps(bit per second,位/秒)的速度。通常使用kbps(通俗地講就是每秒鐘1000比特)作為單位。CD中的數字音樂比特率為1411.2kbps(也就是記錄1秒鐘的cd音樂,需要1411.2×1000比特的數據),音樂文件的BIT RATE高是意味著在單位時間(1秒)內需要處理的數據量(BIT)多,也就是音樂文件的音質好的意思。但是,BIT RATE高時文件大小變大,會占據很多的內存容量,音樂文件最常用的bit rate是128kbps,MP3文件可以使用的一般是8-320kbps,但不同MP3機在這方面支持的范圍不一樣,大部分的是32-256Kbps,這個指數當然是越廣越好了,不過320Kbps是暫時最高等級了。<1B字節= 8 bit位 / 1024B = 1M>
(那一秒的CD音樂需要 1411.2 / 8 = 176.4KB/s的空間,那四分鐘的CD音樂需要 (1411.2kbps * 4 * 60)/ 8 / 1024 = 41.34373M)
碼率計算公式
基本的算法是:【碼率】(kbps)=【文件大小】(字節)X8/【時間】(秒)× 1000
音頻文件專用算法:【比特率】(kbps)=【量化采樣點】(kHz)×【位深】(bit/采樣點)×【聲道數量】(一般為2)
舉例,D5的碟,容量4.3G,其中考慮到音頻的不同格式,所以算為600M,(故剩余容量為4.3*1000-600=3700M),所以視頻文件應不大于3.7G,本例中取視頻文件的容量為3.446G,視頻長度100分鐘(6000秒),計算結果:碼率約等于4933kbps。
碼率幾點原則
1、碼率和質量成正比,但是文件體積也和碼率成正比。
2、碼率超過一定數值,對圖像的質量沒有多大影響。
3、DVD的容量有限,無論是標準的4.3G,還是超刻,或是D9,都有極限。
(5) PCM編碼與WAV格式
PCM
(Pulse Code Modulation—-脈碼調制錄音)。所謂PCM錄音就是將聲音等模擬信號變成符號化的脈沖列,再予以記錄。PCM信號是由[1]、[0]等符號構成的數字信號,而未經過任何編碼和壓縮處理。與模擬信號比,它不易受傳送系統的雜波及失真的影響。動態范圍寬,可得到音質相當好的影響效果。也就是說,PCM就是沒有壓縮的編碼方式,PCM文件就是采用PCM這種沒有壓縮的編碼方式編碼的音頻數據文件。
PCM
約定俗成了無損編碼
,因為PCM代表了數字音頻中最佳的保真水準,并不意味著PCM就能夠確保信號絕對保真,PCM也只能做到最大程度
的無限接近。
WAV
為微軟公司(Microsoft)開發的一種聲音文件格式,它符合RIFF(Resource Interchange File Format)文件規范,用于保存Windows平臺的音頻信息資源,被Windows平臺及其應用程序所廣泛支持,該格式也支持MSADPCM,CCITT A LAW等多種壓縮運算法,支持多種音頻數字,取樣頻率和聲道,標準格式化的WAV文件和CD格式一樣,也是44.1K的取樣頻率,16位量化數字,因此在聲音文件質量和CD相差無幾!
在Windows平臺下,基于PCM編碼的WAV是被支持得最好的音頻格式,所有音頻軟件都能完美支持,由于本身可以達到較高的音質的要求,因此,WAV也是音樂編輯創作的首選格式,適合保存音樂素材。因此,基于PCM編碼的WAV被作為了一種中介的格式,常常使用在其他編碼的相互轉換之中,例如MP3轉換成WMA。
通俗理解:PCM
是一種沒有壓縮且無損的編碼方式,WAV
是微軟開發的一種無損的音頻文件格式 , 而WAV
是通過PCM
數據的基礎上添加頭部信息
而生成的一種音頻格式,當然而可以基于其他如ADPCM編碼添加頭部信息生成WAV
(6) 音頻數字化的過程
過程:獲取音頻源 —— 將模擬信號進行離散化的樣本采集(采樣)—— 取樣的離散音頻要轉化為計算機能夠表示的數據范圍(量化)——(編碼)按一定格式記錄采樣和量化后的數字數據,用二進制表示每個采樣的量化值
模擬音頻信號轉化為數字音頻信號:模擬音頻信號是一個在時間上和幅度上都連續的信號,它的數字化過程如下所述:
1、采樣:在時間軸上對信號數字化。也就是,按照固定的時間間隔抽取模擬信號的值,這樣,采樣后就可以使一個時間連續的信息波變為在時間上取值數目有限的離散信號。
2、量化:在幅度軸上對信號數字化。也就是,用有限個幅度值近似還原原來連續變化的幅度值,把模擬信號的連續幅度變為有限數量的有一定間隔的離散值。
3、編碼:用二進制數表示每個采樣的量化值(十進制數)。
簡述(摘自):
音頻數字化通常經過三個階段,即采樣—量化—編碼。音頻數字化過程的具體步驟如下:第一步,將話筒轉化過來的模擬電信號以某一頻率進行離散化的樣本采集,這個過程就叫采樣;第二步,將采集到的樣本電壓或電流值進行等級量化處理,這個過程就是量化;第三步,將等級值變換成對應的二進制表示值(0和1),并進行存儲,這個過程就是編碼。通過這三個環節,連續的模擬音頻信號即可轉換成離散的數字信號——二進制的0和1 。
Android MediaRecorde
r和AudioRecord
與 MediaPlayer
和 AudioTrack
的介紹
官方
提供兩種API用于音頻開發,分別為 MediaRecorder 和 AudioRecord 用與音頻的采集,MediaPlayer 和 AudioTrack 用于音頻的播放
API | 作用 | 優點 | 缺點 |
---|---|---|---|
AudioRecord | 音頻采集 | 可以實時獲取音頻數據做到邊錄邊播,更偏向底層更加靈活,可以對獲取的音頻做出處理,如 壓縮、網絡傳輸、算法處理等 | 由于輸出的數據是原始數據PCM,播放器是不能識別播放的,需要通過AudioTrack處理播放 |
MediaRecorder | 音頻采集 | 官方將音頻的錄制、編碼、壓縮等都封裝成API供使用、方便快捷 | 不能實時處理音頻、輸出的音頻格式不多,有AMR/ACC/VORBIS 而這些PCM都可以處理生成 |
MediaPlayer | 播放音頻 | MediaPlayer可以播放多種格式的聲音文件,例如MP3,AAC,WAV,OGG,MIDI等。MediaPlayer會在framework層創建對應的音頻解碼器。 | 資源占用量較高、延遲時間較長、不支持多個音頻同時播放等。這些缺點決定了MediaPlayer在某些場合的使用情況不會很理想,例如在對時間精準度要求相對較高的游戲開發中。 |
AudioTrack | 播放音頻 | 對于數據量小、延時要求高的音頻處理可以使用AudioTrack的MODE_STATIC傳輸模式 | AudioTrack只能播放已經解碼的PCM流,如果是文件的話只支持wav格式的音頻文件,因為wav格式的音頻文件大部分都是PCM流。AudioTrack不創建解碼器,所以只 能播放不需要解碼的wav文件。 |
小知識點:
- 在用MediaRecorder進行錄制音視頻時,最終還是會創建AudioRecord用來與AudioFlinger進行交互。
- MediaPlayer在framework層還是會創建AudioTrack,把解碼后的PCM數流傳遞給AudioTrack,AudioTrack再傳遞給AudioFlinger進行混音,然后才傳遞給硬件播放。所以是MediaPlayer包含了AudioTRack。
PCM編碼轉化為WAV音頻格式
上面可知WAV是一種音頻格式,而所有的WAV格式都有特定文件頭,文件頭儲存著 RIFF文件標志、WAVE文件標志、采樣率、聲道數等信息,PCM數據只需要加上WAV的文件頭即可轉化為 WAV音頻格式
參考自文章作者 河北-寶哥
這里給出的是關于下面實例的轉化WAV代碼
/**
* 將pcm文件轉化為可點擊播放的wav文件
* @param inputPath pcm路徑
* @param outPath wav存放路徑
* @param data
*/
private void PcmtoWav(String inputPath ,String outPath ,byte[] data){
FileInputStream in;//讀取
FileOutputStream out;
try{
in = new FileInputStream(inputPath);
out = new FileOutputStream(outPath);
//添加頭部信息
writeWavFileHeader(out,in.getChannel().size(),SAMPLE_RATE_HERTZ,CHANNEL_CONFIG);
while(in.read(data)!= -1){
out.write(data);
}
//關流
in.close();
out.close();
}catch (IOException e){
e.printStackTrace();
}
}
/**
* @param out wav音頻文件流
* @param totalAudioLen 不包括header的音頻數據總長度
* @param longSampleRate 采樣率,也就是錄制時使用的頻率
* @param channels audioRecord的頻道數量
* @throws IOException 寫文件錯誤
*/
private void writeWavFileHeader(FileOutputStream out, long totalAudioLen, long longSampleRate,
int channels) throws IOException {
byte[] header = generateWavFileHeader(totalAudioLen, longSampleRate, channels);
//寫頭
out.write(header, 0, header.length);
}
/**
* 任何一種文件在頭部添加相應的頭文件才能夠確定的表示這種文件的格式,
* wave是RIFF文件結構,每一部分為一個chunk,其中有RIFF WAVE chunk,
* FMT Chunk,Fact chunk,Data chunk,其中Fact chunk是可以選擇的
*
* @param totalAudioLen 不包括header的音頻數據總長度
* @param longSampleRate 采樣率,也就是錄制時使用的頻率
* @param channels audioRecord的頻道數量
*/
private byte[] generateWavFileHeader(long totalAudioLen, long longSampleRate, int channels) {
long totalDataLen = totalAudioLen + 36;
long byteRate = longSampleRate * 2 * channels;
byte[] header = new byte[44];
header[0] = 'R'; // RIFF
header[1] = 'I';
header[2] = 'F';
header[3] = 'F';
header[4] = (byte) (totalDataLen & 0xff);//數據大小
header[5] = (byte) ((totalDataLen >> 8) & 0xff);
header[6] = (byte) ((totalDataLen >> 16) & 0xff);
header[7] = (byte) ((totalDataLen >> 24) & 0xff);
header[8] = 'W';//WAVE
header[9] = 'A';
header[10] = 'V';
header[11] = 'E';
//FMT Chunk
header[12] = 'f'; // 'fmt '
header[13] = 'm';
header[14] = 't';
header[15] = ' ';//過渡字節
//數據大小
header[16] = 16; // 4 bytes: size of 'fmt ' chunk
header[17] = 0;
header[18] = 0;
header[19] = 0;
//編碼方式 10H為PCM編碼格式
header[20] = 1; // format = 1
header[21] = 0;
//通道數
header[22] = (byte) channels;
header[23] = 0;
//采樣率,每個通道的播放速度
header[24] = (byte) (longSampleRate & 0xff);
header[25] = (byte) ((longSampleRate >> 8) & 0xff);
header[26] = (byte) ((longSampleRate >> 16) & 0xff);
header[27] = (byte) ((longSampleRate >> 24) & 0xff);
//音頻數據傳送速率,采樣率*通道數*采樣深度/8
header[28] = (byte) (byteRate & 0xff);
header[29] = (byte) ((byteRate >> 8) & 0xff);
header[30] = (byte) ((byteRate >> 16) & 0xff);
header[31] = (byte) ((byteRate >> 24) & 0xff);
// 確定系統一次要處理多少個這樣字節的數據,確定緩沖區,通道數*采樣位數
header[32] = (byte) (2 * channels);
header[33] = 0;
//每個樣本的數據位數
header[34] = 16;
header[35] = 0;
//Data chunk
header[36] = 'd';//data
header[37] = 'a';
header[38] = 't';
header[39] = 'a';
header[40] = (byte) (totalAudioLen & 0xff);
header[41] = (byte) ((totalAudioLen >> 8) & 0xff);
header[42] = (byte) ((totalAudioLen >> 16) & 0xff);
header[43] = (byte) ((totalAudioLen >> 24) & 0xff);
return header;
}
實例Android AudioRecord 和 AudioTrack 的使用
首先給出我們將音頻的采集和播放封裝成一個AudioRecordManager音頻管理類 (代碼有詳細注釋)
package com.example.medialearn.test2;
import android.media.AudioAttributes;
import android.media.AudioFormat;
import android.media.AudioRecord;
import android.media.AudioTrack;
import android.media.MediaRecorder;
import android.os.Build;
import android.os.Environment;
import android.support.annotation.RequiresApi;
import android.util.Log;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.Locale;
/**
* @author vveng
* @version version 1.0.0
* @date 2018/7/24 16:03.
* @email vvengstuggle@163.com
* @instructions 說明
* @descirbe 描述
* @features 功能
*/
public class AudioRecordManager {
private static final String TAG = "AudioRecordManager";
private static final String DIR_NAME = "arm";
private static String AudioFolderFile; //音頻文件路徑
private static AudioRecordManager mAudioRecordManager;
private File PcmFile = null ; //pcm音頻文件
private File WavFile = null; //wav格式的音頻文件
private AudioRecordThread mAudioRecordThead; //錄制線程
private AudioRecordPlayThead mAudioRecordPlayThead;//播放線程
private boolean isRecord = false;
/**
* 采樣率,現在能夠保證在所有設備上使用的采樣率是44100Hz, 但是其他的采樣率(22050, 16000, 11025)在一些設備上也可以使用。
*/
public static final int SAMPLE_RATE_HERTZ = 44100;
/**
* 聲道數。CHANNEL_IN_MONO and CHANNEL_IN_STEREO. 其中CHANNEL_IN_MONO是可以保證在所有設備能夠使用的。
*/
public static final int CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_STEREO;
/**
* 返回的音頻數據的格式。 ENCODING_PCM_8BIT, ENCODING_PCM_16BIT, and ENCODING_PCM_FLOAT.
*/
public static final int AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;
public static AudioRecordManager NewInstance() {
if (mAudioRecordManager == null) {
synchronized (AudioRecordManager.class) {
if (mAudioRecordManager == null) {
mAudioRecordManager = new AudioRecordManager();
}
}
}
return mAudioRecordManager;
}
/**
* 播放音頻
*/
@RequiresApi(api = Build.VERSION_CODES.M)
public synchronized void playRecord() {
//可防止重復點擊錄制
if (true == isRecord) {
Log.d(TAG, "無法開始播放,當前狀態為:" + isRecord);
return;
}
isRecord = true;
mAudioRecordPlayThead = new AudioRecordPlayThead(PcmFile);
mAudioRecordPlayThead.start();
}
/**
* 停止播放
*/
public void stopPlayRecord() {
if (null != mAudioRecordPlayThead) {
mAudioRecordPlayThead.interrupt();
mAudioRecordPlayThead = null;
}
isRecord = false;
}
/**
* 播放音頻線程
*/
private class AudioRecordPlayThead extends Thread {
AudioTrack mAudioTrack;
int BufferSize = 10240;
File autoFile = null; //要播放的文件
@RequiresApi(api = Build.VERSION_CODES.M)
AudioRecordPlayThead(File file) {
setPriority(MAX_PRIORITY);
autoFile = file;
//播放緩沖的最小大小
BufferSize = AudioTrack.getMinBufferSize(SAMPLE_RATE_HERTZ,
AudioFormat.CHANNEL_OUT_STEREO, AUDIO_FORMAT);
// 創建用于播放的 AudioTrack
mAudioTrack = new AudioTrack.Builder()
.setAudioAttributes(new AudioAttributes.Builder()
.setUsage(AudioAttributes.USAGE_ALARM)
.setContentType(AudioAttributes.CONTENT_TYPE_MUSIC)
.build())
.setAudioFormat(new AudioFormat.Builder()
.setEncoding(AUDIO_FORMAT)
.setSampleRate(SAMPLE_RATE_HERTZ)
.setChannelMask(AudioFormat.CHANNEL_OUT_STEREO)
.build())
.setBufferSizeInBytes(BufferSize)
.build();
}
@Override
public void run() {
Log.d(TAG, "播放開始");
try {
FileInputStream fis = new FileInputStream(autoFile);
mAudioTrack.play();
byte[] bytes = new byte[BufferSize];
while(true == isRecord) {
int read = fis.read(bytes);
//若讀取有錯則跳過
if (AudioTrack.ERROR_INVALID_OPERATION == read
|| AudioTrack.ERROR_BAD_VALUE == read) {
continue;
}
if (read != 0 && read != -1) {
mAudioTrack.write(bytes, 0, BufferSize);
}
}
mAudioTrack.stop();
mAudioTrack.release();//釋放資源
fis.close();//關流
} catch (Exception e) {
e.printStackTrace();
}
isRecord = false;
Log.d(TAG, "播放停止");
}
}
/**
* 開始錄制
*/
public synchronized void startRecord() {
//可防止重復點擊錄制
if (true == isRecord) {
Log.d(TAG, "無法開始錄制,當前狀態為:" + isRecord);
return;
}
isRecord = true;
SimpleDateFormat sdf = new SimpleDateFormat("yyMMdd_HHmmss", Locale.CHINA);
//源pcm數據文件
PcmFile = new File(AudioFolderFile + File.separator + sdf.format(new Date())+".pcm");
//wav文件
WavFile = new File(PcmFile.getPath().replace(".pcm",".wav"));
Log.d(TAG, "PcmFile:"+ PcmFile.getName()+"WavFile:"+WavFile.getName());
if (null != mAudioRecordThead) {
//若線程不為空,則中斷線程
mAudioRecordThead.interrupt();
mAudioRecordThead = null;
}
mAudioRecordThead = new AudioRecordThread();
mAudioRecordThead.start();
}
/**
* 停止錄制
*/
public synchronized void stopRecord() {
if (null != mAudioRecordThead) {
mAudioRecordThead.interrupt();
mAudioRecordThead = null;
}
isRecord = false;
}
/**
* 錄制線程
*/
private class AudioRecordThread extends Thread {
AudioRecord mAudioRecord;
int BufferSize = 10240;
AudioRecordThread() {
/**
* 獲取音頻緩沖最小的大小
*/
BufferSize = AudioRecord.getMinBufferSize(SAMPLE_RATE_HERTZ,
CHANNEL_CONFIG, AUDIO_FORMAT);
/**
* 參數1:音頻源
* 參數2:采樣率 主流是44100
* 參數3:聲道設置 MONO單聲道 STEREO立體聲
* 參數4:編碼格式和采樣大小 編碼格式為PCM,主流大小為16BIT
* 參數5:采集數據需要的緩沖區大小
*/
mAudioRecord = new AudioRecord(MediaRecorder.AudioSource.MIC,
SAMPLE_RATE_HERTZ, CHANNEL_CONFIG, AUDIO_FORMAT, BufferSize);
}
@Override
public void run() {
//將狀態置為錄制
Log.d(TAG, "錄制開始");
try {
byte[] bytes = new byte[BufferSize];
FileOutputStream PcmFos = new FileOutputStream(PcmFile);
//開始錄制
mAudioRecord.startRecording();
while (true == isRecord && !isInterrupted()) {
int read = mAudioRecord.read(bytes, 0, bytes.length);
//若讀取數據沒有出現錯誤,將數據寫入文件
if (AudioRecord.ERROR_INVALID_OPERATION != read) {
PcmFos.write(bytes, 0, read);
PcmFos.flush();
}
}
mAudioRecord.stop();//停止錄制
PcmFos.close();//關流
} catch (Exception e) {
e.printStackTrace();
}
isRecord = false;
//當錄制完成就將Pcm編碼數據轉化為wav文件,也可以直接生成.wav
PcmtoWav(PcmFile.getPath(),WavFile.getPath(),new byte[BufferSize]);
Log.d(TAG, "錄制結束");
}
}
/**
* 初始化目錄
*/
public static void init() {
//文件目錄
AudioFolderFile = Environment.getExternalStoragePublicDirectory(Environment.DIRECTORY_DCIM).getAbsolutePath()
+ File.separator + DIR_NAME;
File WavDir = new File(AudioFolderFile);
if (!WavDir.exists()) {
boolean flag = WavDir.mkdirs();
Log.d(TAG,"文件路徑:"+AudioFolderFile+"創建結果:"+flag);
} else {
Log.d(TAG,"文件路徑:"+AudioFolderFile+"創建結果: 已存在");
}
}
/**
* 將pcm文件轉化為可點擊播放的wav文件
* @param inputPath pcm路徑
* @param outPath wav存放路徑
* @param data
*/
private void PcmtoWav(String inputPath ,String outPath ,byte[] data){
FileInputStream in;
FileOutputStream out;
try{
in = new FileInputStream(inputPath);
out = new FileOutputStream(outPath);
//添加頭部信息
writeWavFileHeader(out,in.getChannel().size(),SAMPLE_RATE_HERTZ,CHANNEL_CONFIG);
while(in.read(data)!= -1){
out.write(data);
}
in.close();
out.close();
}catch (IOException e){
e.printStackTrace();
}
}
/**
* @param out wav音頻文件流
* @param totalAudioLen 不包括header的音頻數據總長度
* @param longSampleRate 采樣率,也就是錄制時使用的頻率
* @param channels audioRecord的頻道數量
* @throws IOException 寫文件錯誤
*/
private void writeWavFileHeader(FileOutputStream out, long totalAudioLen, long longSampleRate,
int channels) throws IOException {
byte[] header = generateWavFileHeader(totalAudioLen, longSampleRate, channels);
out.write(header, 0, header.length);
}
/**
* 任何一種文件在頭部添加相應的頭文件才能夠確定的表示這種文件的格式,
* wave是RIFF文件結構,每一部分為一個chunk,其中有RIFF WAVE chunk,
* FMT Chunk,Fact chunk,Data chunk,其中Fact chunk是可以選擇的
*
* @param totalAudioLen 不包括header的音頻數據總長度
* @param longSampleRate 采樣率,也就是錄制時使用的頻率
* @param channels audioRecord的頻道數量
*/
private byte[] generateWavFileHeader(long totalAudioLen, long longSampleRate, int channels) {
long totalDataLen = totalAudioLen + 36;
long byteRate = longSampleRate * 2 * channels;
byte[] header = new byte[44];
header[0] = 'R'; // RIFF
header[1] = 'I';
header[2] = 'F';
header[3] = 'F';
header[4] = (byte) (totalDataLen & 0xff);//數據大小
header[5] = (byte) ((totalDataLen >> 8) & 0xff);
header[6] = (byte) ((totalDataLen >> 16) & 0xff);
header[7] = (byte) ((totalDataLen >> 24) & 0xff);
header[8] = 'W';//WAVE
header[9] = 'A';
header[10] = 'V';
header[11] = 'E';
//FMT Chunk
header[12] = 'f'; // 'fmt '
header[13] = 'm';
header[14] = 't';
header[15] = ' ';//過渡字節
//數據大小
header[16] = 16; // 4 bytes: size of 'fmt ' chunk
header[17] = 0;
header[18] = 0;
header[19] = 0;
//編碼方式 10H為PCM編碼格式
header[20] = 1; // format = 1
header[21] = 0;
//通道數
header[22] = (byte) channels;
header[23] = 0;
//采樣率,每個通道的播放速度
header[24] = (byte) (longSampleRate & 0xff);
header[25] = (byte) ((longSampleRate >> 8) & 0xff);
header[26] = (byte) ((longSampleRate >> 16) & 0xff);
header[27] = (byte) ((longSampleRate >> 24) & 0xff);
//音頻數據傳送速率,采樣率*通道數*采樣深度/8
header[28] = (byte) (byteRate & 0xff);
header[29] = (byte) ((byteRate >> 8) & 0xff);
header[30] = (byte) ((byteRate >> 16) & 0xff);
header[31] = (byte) ((byteRate >> 24) & 0xff);
// 確定系統一次要處理多少個這樣字節的數據,確定緩沖區,通道數*采樣位數
header[32] = (byte) (2 * channels);
header[33] = 0;
//每個樣本的數據位數
header[34] = 16;
header[35] = 0;
//Data chunk
header[36] = 'd';//data
header[37] = 'a';
header[38] = 't';
header[39] = 'a';
header[40] = (byte) (totalAudioLen & 0xff);
header[41] = (byte) ((totalAudioLen >> 8) & 0xff);
header[42] = (byte) ((totalAudioLen >> 16) & 0xff);
header[43] = (byte) ((totalAudioLen >> 24) & 0xff);
return header;
}
}
使用AudioRecordActivity (由于布局簡單就四個按鈕,這里就不再給出)
注意在AndroidManifest.xml 添加相關權限:
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" />
<!-- 錄音權限 -->
<uses-permission android:name="android.permission.RECORD_AUDIO" />
AudioRecordActivity:
package com.example.medialearn.test2;
import android.Manifest;
import android.content.pm.PackageManager;
import android.os.Build;
import android.os.Environment;
import android.support.annotation.NonNull;
import android.support.annotation.RequiresApi;
import android.support.v4.app.ActivityCompat;
import android.support.v4.content.ContextCompat;
import android.support.v7.app.AppCompatActivity;
import android.os.Bundle;
import android.util.Log;
import android.view.View;
import android.widget.Button;
import com.example.medialearn.R;
import java.io.File;
import java.util.ArrayList;
import java.util.List;
/**
* @author vveng
* @version version 1.0.0
* @date 2018/7/24 16:03.
* @email vvengstuggle@163.com
* @instructions 說明
* @descirbe 描述
* @features 功能
*/
public class AudioRecordActivity extends AppCompatActivity
implements View.OnClickListener {
private String TAG = "AudioRecordActivity";
private Button btn_start, btn_stop, btn_play, btn_onplay;
private AudioRecordManager mManager;
//申請權限列表
private int REQUEST_CODE = 1001;
private String[] permissions = new String[]{
Manifest.permission.WRITE_EXTERNAL_STORAGE,
Manifest.permission.READ_EXTERNAL_STORAGE,
Manifest.permission.RECORD_AUDIO
};
//拒絕權限列表
private List<String> refusePermissions = new ArrayList<>();
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_audio_record);
AudioRecordManager.init();//初始化目錄
initView();
checkPermission();
}
/**
* 6.0以上要動態申請權限
*/
private void checkPermission() {
if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.M) {
for (int i = 0; i < permissions.length; i++) {
if (ContextCompat.checkSelfPermission(this,
permissions[i]) != PackageManager.PERMISSION_GRANTED) {
refusePermissions.add(permissions[i]);
}
}
if (!refusePermissions.isEmpty()) {
String[] permissions = refusePermissions.toArray(new String[refusePermissions.size()]);
ActivityCompat.requestPermissions(this, permissions, REQUEST_CODE);
}
}
}
/**
* 權限結果回調
* @param requestCode
* @param permissions
* @param grantResults
*/
@Override
public void onRequestPermissionsResult(int requestCode, @NonNull String[] permissions, @NonNull int[] grantResults) {
if (requestCode == REQUEST_CODE) {
if (grantResults.length > 0 && grantResults != null) {
for(int i = 0 ; i<permissions.length;i++){
if(grantResults[i]!=PackageManager.PERMISSION_GRANTED){
Log.d(TAG,permissions[i]+" 被禁用");
}
}
}
}
}
private void initView() {
btn_start = findViewById(R.id.record_start);
btn_stop = findViewById(R.id.record_stop);
btn_play = findViewById(R.id.record_play);
btn_onplay = findViewById(R.id.record_noplay);
btn_start.setOnClickListener(this);
btn_stop.setOnClickListener(this);
btn_play.setOnClickListener(this);
btn_onplay.setOnClickListener(this);
//初始化
mManager = AudioRecordManager.NewInstance();
}
@RequiresApi(api = Build.VERSION_CODES.M)
@Override
public void onClick(View view) {
switch (view.getId()) {
case R.id.record_start:
//錄音
mManager.startRecord();
break;
case R.id.record_stop:
//停止
mManager.stopRecord();
break;
case R.id.record_play:
//播放
mManager.playRecord();
break;
case R.id.record_noplay:
//停止
mManager.stopPlayRecord();
break;
default:
break;
}
}
}
參考鏈接:
https://developer.android.com/reference/android/media/AudioRecord#AudioRecord(int,%20int,%20int,%20int,%20int)
https://developer.android.com/reference/android/media/AudioTrack#play()
https://blog.csdn.net/ameyume/article/details/7618820
https://blog.csdn.net/zyuanyun/article/details/60890534
http://www.qingpingshan.com/rjbc/az/376811.html
最后感謝你瀏覽到最后,實例代碼已經全部給出。
叉手手.jpg