iOS语音通话(语音对讲)

来源:互联网 发布:ae cs4软件下载 编辑:程序博客网 时间:2024/04/29 17:06

中间参考了别人的Demo,下载地址不记得了。

因为项目需要做一个语音对讲功能,其实说白了就是类似QQ的语音通话,但是资料少之又少,研究了好久,才跟同事弄出一个粗略的版本。我记性不好,所以来记录一下,也希望能够帮助其他人。

本来以为是要做语音对讲,类似微信的发送语音,我觉得这个还挺简单的,就是发送一个语音的文件,所以一开始用的是AVAudioPlayer,因为这个东西只能播放本地音频,而且非常简单。可是都快做好了,头头才说明白要的是语音通话。(小公司,别说文档了,连接口文档都没有)

后来找到AudioQueue,找了好多demo和资料,都没有直接播放从服务器端接收到的数据的例子,后来没办法,只能自己想办法咯。不过大致过程是一致的。

首先肯定是设置创建录音的音频队列,以及缓冲区,还有播放的队列和播放缓冲区,因为我们是要一起打开,所以一起创建,开始录音,并播放声音。

后面会上传demo,开始对讲的方法如下:

//开始对讲- (IBAction)startIntercom:(id)sender {    //让udpSocket 开始接收数据    [self.udpSocket beginReceiving:nil];    //先把接收数组清空    if (receiveData) {        receiveData = nil;    }    receiveData = [[NSMutableArray alloc] init];        if (_recordAmrCode == nil) {        _recordAmrCode = [[RecordAmrCode alloc] init];    }    //设置录音的参数    [self setupAudioFormat:kAudioFormatLinearPCM SampleRate:kDefaultSampleRate];    _audioFormat.mSampleRate = kDefaultSampleRate;    //创建一个录制音频队列    AudioQueueNewInput (&(_audioFormat),GenericInputCallback,(__bridge void *)self,NULL,NULL,0,&_inputQueue);    //创建一个输出队列    AudioQueueNewOutput(&_audioFormat, GenericOutputCallback, (__bridge void *) self, CFRunLoopGetCurrent(), kCFRunLoopDefaultMode, 0,&_outputQueue);    //设置话筒属性等    [self initSession];        NSError *error = nil;    //设置audioSession格式 录音播放模式    [[AVAudioSession sharedInstance] setCategory:AVAudioSessionCategoryPlayAndRecord error:&error];        UInt32 audioRouteOverride = kAudioSessionOverrideAudioRoute_Speaker;  //设置成话筒模式    AudioSessionSetProperty (kAudioSessionProperty_OverrideAudioRoute,                             sizeof (audioRouteOverride),                             &audioRouteOverride);        //创建录制音频队列缓冲区    for (int i = 0; i < kNumberAudioQueueBuffers; i++) {        AudioQueueAllocateBuffer (_inputQueue,kDefaultInputBufferSize,&_inputBuffers[i]);                AudioQueueEnqueueBuffer (_inputQueue,(_inputBuffers[i]),0,NULL);    }        //创建并分配缓冲区空间 4个缓冲区    for (int i = 0; i<kNumberAudioQueueBuffers; ++i)    {        AudioQueueAllocateBuffer(_outputQueue, kDefaultOutputBufferSize, &_outputBuffers[i]);    }    for (int i=0; i < kNumberAudioQueueBuffers; ++i) {        makeSilent(_outputBuffers[i]);  //改变数据        // 给输出队列完成配置        AudioQueueEnqueueBuffer(_outputQueue,_outputBuffers[i],0,NULL);    }        Float32 gain = 1.0;                                       // 1    // Optionally, allow user to override gain setting here 设置音量    AudioQueueSetParameter (_outputQueue,kAudioQueueParam_Volume,gain);        //开启录制队列    AudioQueueStart(self.inputQueue, NULL);    //开启播放队列    AudioQueueStart(_outputQueue,NULL);        [_startButton setEnabled:NO];    [_stopButton setEnabled:YES];    }

然后就是实现录音和播放的回调,录音回调中对PCM数据编码,打包。代码如下:

//录音回调void GenericInputCallback (                           void                                *inUserData,                           AudioQueueRef                       inAQ,                           AudioQueueBufferRef                 inBuffer,                           const AudioTimeStamp                *inStartTime,                           UInt32                              inNumberPackets,                           const AudioStreamPacketDescription  *inPacketDescs                           ){    NSLog(@"录音回调方法");    RootViewController *rootCtrl = (__bridge RootViewController *)(inUserData);        if (inNumberPackets > 0) {        NSData *pcmData = [[NSData alloc] initWithBytes:inBuffer->mAudioData length:inBuffer->mAudioDataByteSize];        //pcm数据不为空时,编码为amr格式        if (pcmData && pcmData.length > 0) {            NSData *amrData = [rootCtrl.recordAmrCode encodePCMDataToAMRData:pcmData];            //这里是对编码后的数据,通过socket发送到另一个客户端            [rootCtrl.udpSocket sendData:amrData toHost:kDefaultIP port:kDefaultPort withTimeout:-1 tag:0];                                }            }    AudioQueueEnqueueBuffer (inAQ,inBuffer,0,NULL);    }

// 输出回调void GenericOutputCallback (                            void                 *inUserData,                            AudioQueueRef        inAQ,                            AudioQueueBufferRef  inBuffer                            ){    NSLog(@"播放回调");    RootViewController *rootCtrl = (__bridge RootViewController *)(inUserData);    NSData *pcmData = nil;    if([receiveData count] >0)    {        NSData *amrData = [receiveData objectAtIndex:0];                pcmData = [rootCtrl.recordAmrCode decodeAMRDataToPCMData:amrData];                if (pcmData) {            if(pcmData.length < 10000){                memcpy(inBuffer->mAudioData, pcmData.bytes, pcmData.length);                inBuffer->mAudioDataByteSize = (UInt32)pcmData.length;                inBuffer->mPacketDescriptionCount = 0;            }        }        [receiveData removeObjectAtIndex:0];    }    else    {        makeSilent(inBuffer);    }    AudioQueueEnqueueBuffer(rootCtrl.outputQueue,inBuffer,0,NULL);}


然后就是socket接收数据了,是个代理方法:

#pragma mark - GCDAsyncUdpSocketDelegate- (void)udpSocket:(GCDAsyncUdpSocket *)sock didReceiveData:(NSData *)data      fromAddress:(NSData *)addresswithFilterContext:(id)filterContext{    //这里因为对录制的PCM数据编码为amr格式并添加RTP包头之后的大小,大家可以根据自己的协议,在包头中封装上数据长度再来解析。    //PS:因为socket在发送过程中会粘包,如发送数据AAA,然后再发送BBB,可能会一次收到AAABBB,也可能会一次收到AAA,另一次收到BBB,所以针对这种情况要判断接收数据大小,来拆包    if(data.length >667)    {        int num = (data.length)/667;        int sum = 0;        for (int i=0; i<num; i++)        {            NSData *receviceData = [data subdataWithRange:NSMakeRange(i*667,667)];            [receiveData addObject:receviceData];            sum = sum+667;        }        if(sum < data.length)        {            NSData *otherData = [data subdataWithRange:NSMakeRange(sum, (data.length-sum))];            [receiveData addObject:otherData];        }    }    else    {        [receiveData addObject:data];    }    }
待会上传demo。但是demo是点对点发送的。

PS:附送一点思路,服务器端做一个对讲的服务器,然后所有人都用SOCKET 的TCP方式连接对讲服务器的IP和端口号,然后我们把编码后的数据发送给服务器,通过服务器转发给其他人。

上传的代码里除了有amr编码,还加了RTP包头,我等会上传一个不含RTP包头的,只是把PCM数据编码为AMR格式,把AMR格式数据解码为PCM数据的类文件。至于怎么把文件转码为AMR格式,网上的demo太多咯。

Demo和一个不含RTP包头的编码类

3 0
原创粉丝点击