使用OpenSL的android语音通话
我正在为我的论文做一个VoIP应用程序。我想知道是否有人能帮我解决这个问题: 我有两个线程,AudioThread和AudioSendThread。第一个是通过DatagramSocket接收音频包并在手机中播放的侦听器。第二个是一个录音机,它可以捕捉20毫秒的声音并发送到另一个设备。我已经用java实现了它,但是速度非常慢,所以我决定尝试OpenSL,但是我没有找到类似的文档 这是音频发送线程使用OpenSL的android语音通话,android,audio,voip,opensl,Android,Audio,Voip,Opensl,我正在为我的论文做一个VoIP应用程序。我想知道是否有人能帮我解决这个问题: 我有两个线程,AudioThread和AudioSendThread。第一个是通过DatagramSocket接收音频包并在手机中播放的侦听器。第二个是一个录音机,它可以捕捉20毫秒的声音并发送到另一个设备。我已经用java实现了它,但是速度非常慢,所以我决定尝试OpenSL,但是我没有找到类似的文档 这是音频发送线程 public class AudioSendThread implements Runnable {
public class AudioSendThread implements Runnable {
private final static String TAG = "AudioSndThread";
private boolean createdAudioP = false;
private DatagramSocket audioSndSocket;
private String ipAddr;
private byte[] buffer;
public AudioSendThread(Object o){
this.ipAddr = //getting IpAddress
audioSndSocket = (DatagramSocket)o;
}
@Override
public void run() {
if(!createdAudioP)
createdAudioP = createAudioRecorder();
if(createdAudioP)
startRecording();
DatagramPacket packet = null;
while(true){
byte[] buffer = readAudio(20); //read 20 milliseconds of audio, this is the one i would like to implement in OpenSL
try {
packet = new DatagramPacket(buffer, buffer.length, InetAddress.getByName(this.ipAddr), PORT.AUDIO);
audioSndSocket.send(packet);
} catch (IOException e) {
Log.e(TAG, e.getMessage());
return;
}
}
}
public static native void startRecording();
public static native boolean createAudioRecorder();
public static native byte[] readAudio(int millis);
static {
System.loadLibrary("SoundUtils");
}}
这个是音频线
public class AudioThread implements Runnable{
private DatagramSocket audioServSock;
@Override
public void run() {
createBufferQueueAudioPlayer();
DatagramPacket packet = null;
Thread audioSndThread = null;
try {
this.audioServSock = new DatagramSocket(PORT.AUDIO);
} catch (SocketException e1) {
e1.printStackTrace();
}
if(true){
audioSndThread = new Thread(new AudioSendThread(this.audioServSock));
audioSndThread.start();
}
byte[] buffer = new buffer[1500]; //random size
packet = new DatagramPacket(buffer, 1500);
while(true){
try {
audioServSock.receive(packet);
playAudio(buffer, packet.getLength()); //other method i would like to implement in OpenSL
} catch (IOException e) {
Log.e(TAG, Log.getStackTraceString(e));
return;
}
}
at.stop();
at.release();
}
public static native void createBufferQueueAudioPlayer();
public static native void playAudio(byte[] buffer, int length);
/** Load jni .so on initialization */
static {
System.loadLibrary("native-audio-jni");
}
}
其他本地方法由NDK的NativeAudio样本采用
谢谢大家的建议 您尝试了Android NDK提供的本机音频示例代码,这意味着您熟悉JNI调用。下面是Victor Lazzarini的一个不错的博客,它描述了他使用OpenSL ES实现语音通信音频流的方法 您可以从下载源代码
按照说明操作并在设备中运行。Android NDK包含一个名为
native audio
的示例应用程序,该应用程序演示了如何使用OpenSL ES进行录制和播放。我知道这一点,并尝试使用此示例,但播放不起作用。。这是关于Android上低延迟流媒体的终极文章:你有没有试过让OpenSL录制通话?