PCM音频处理——使用WebRTC音频降噪模块与其他方式的对比-程序员宅基地

技术标签: speex  webrtc  

1.Speex音频降噪模块

相关文章链接:开源库Speex编解码speex开源库分析(前置处理)
Speex是很强大的编解码库,也包含一些降噪,自动增益,回音消除等模块功能,Speex是开源的,Opus是Speex的更优替代方案,但是Opus没有降噪去噪模块,就具体我所在公司,我们公司使用的是Speex编码,没有使用更新的Opus,经过实际实验,Speex的去噪效果有限,话不多说,上过程:
部分代码

#define USE_SPEEX_DENOISE 0

class CHHAudioEncoderG711ADenoise:public IHHAudioEncoder
{
public:
    CHHAudioEncoderG711ADenoise(int samplerate,int bitsize):m_RetainCount(1)
    {
        m_encoder = new CHHAudioEncoderG711A;
#if USE_SPEEX_DENOISE
        //帧长度,以20ms为例,帧长度=20*采样率/1000=(20ms内的采样点数量)
        int framesize = 20*samplerate/1000;
        m_context = speex_preprocess_state_init(framesize, samplerate);
        int i=1;//1表示开启,0表示关闭
        //SPEEX_PREPROCESS_SET_DENOISE表示降噪
        speex_preprocess_ctl(m_context, SPEEX_PREPROCESS_SET_DENOISE, &i);//降噪
        int noiseSuppress = -25;//噪音分贝数,是一个负值
        //Speex的降噪是通过简单的设置音频数据的阀值,过滤掉低分贝的声音来实现的
        //优点是简单,使用Speex编解码库时可以直接使用
        //缺点是会把声音细节抹掉
        speex_preprocess_ctl(m_context, SPEEX_PREPROCESS_SET_NOISE_SUPPRESS, &noiseSuppress); 
#endif
    }
    virtual ~CHHAudioEncoderG711ADenoise(void)
    {
        if (m_encoder){
            m_encoder->Release();
            m_encoder = NULL;
        }
#if USE_SPEEX_DENOISE
        if (m_context){
            speex_preprocess_state_destroy(m_context);
            m_context = NULL;
        }
#endif
    }
protected:
    virtual void Retain()
    {
        ++m_RetainCount;
    }
    virtual void Release()
    {
        if (--m_RetainCount==0) {
            delete this;
        }
    }
    virtual bool Encode(unsigned char *pInData,int nInLen,onAudioEncodeResultCallback func,void* param)
    {
        //去噪声
#if USE_SPEEX_DENOISE
                //pInData是采集到的音频数据,因为上层的原因,采集到的缓存长度是320个字节
        speex_preprocess_run(m_context, (short*)pInData);
#endif
        //编码
        m_encoder->Encode(pInData,nInLen,func,param);
        return true ;
    }
private:
    unsigned long m_RetainCount;
    IHHAudioEncoder* m_encoder;
#if USE_SPEEX_DENOISE
    SpeexPreprocessState* m_context;//Speex预处理器指针
#endif
};

使用过程很简单,依次顺序为:

1.创建Speex预处理器指针:speex_preprocess_state_init

支持的采样率有3种8K16K44K,采样送进去降噪的数据需要控制在20ms,也就是(20采样率/1000)*个采样点。

2.设置预处理器的参数:speex_preprocess_ctl

包括SPEEX_PREPROCESS_SET_DENOISESPEEX_PREPROCESS_SET_NOISE_SUPPRESS

3.处理一帧音频数据:speex_preprocess_run

第二个参数是音频数据指针,处理完成后也会保存在这个指针,另外注意指针类型应该为short*

4.销毁预处理器:speex_preprocess_state_destroy

效果:(使用Audacity分析)
语音内容:“Speex降噪效果对比”

Speex降噪效果对比:时域(降噪前为上面那个,降噪后为下面那个)

降噪前频域分析

 

降噪后频域分析


从图片上看,不管是时域还是频域,效果都不明显,实际听的效果的话,降噪后,背景的沙沙声有所减弱,但是总体效果还是不佳。

 

2.WebRTC音频降噪模块

相关的文章推荐:单独编译使用WebRTC的音频处理模块 - android
WebRTC源码链接:https://chromium.googlesource.com/external/webrtc/+/master
说句题外话,不得不佩服谷歌,只要是个做开发的,这辈子估计都离不开谷歌了,对于咱们这种小喽啰来说,只要记住“谷歌出品,必属精品”就好了,当然,这里用到的WebRTC也是谷歌的,感兴趣的可以自己去找相关的信息。
WebRTC是最近几年比较火的技术,原谅我原先都不知道~~~,WebRTC提供了视频会议的核心技术,包括音视频的采集、编解码、网络传输、显示等功能,并且还支持跨平台:Windows,Linux,Mac,Android(这句来自百度……)。
我们这里使用的就是WebRTC的音频处理模块——audio_processing,源代码在webrtc\modules\audio_processing目录下。

温馨提示:部分谷歌链接需要翻墙打开

部分代码

#define USE_WEBRTC_NOISESUPPRESSION 1

#if USE_WEBRTC_NOISESUPPRESSION
#include "../WebRtcModule/signal_processing_library.h"
#include "../WebRtcModule/noise_suppression_x.h"
#include "../WebRtcModule/noise_suppression.h"
#include "../WebRtcModule/gain_control.h"
#endif

class CHHAudioEncoderG711ADenoise:public IHHAudioEncoder
{
public:
    CHHAudioEncoderG711ADenoise(int samplerate,int bitsize):m_RetainCount(1)
    {
        m_encoder = new CHHAudioEncoderG711A;
#if USE_WEBRTC_NOISESUPPRESSION
        m_pNSinst = NULL;
        //创建降噪处理句柄
        if (0 != WebRtcNsx_Create(&m_pNSinst))
        {
            WRITELOG(LL_Debug,"Noise_Suppression WebRtcNs_Create err!\n");
            return;
        }

        //WebRTC只支持三种采样率,8K,16K和32K,如果超过32K,则需要重采样成符合要求的采样率,这边不做处理
        if (samplerate != 8000 && samplerate != 16000 && samplerate != 32000){
            WRITELOG(LL_Debug,"Noise_Suppression samplerate err! \n");
            return;
        }
        m_samplerate = samplerate;
        //根据采样率初始化降噪处理句柄
        if (0 !=  WebRtcNsx_Init(m_pNSinst,samplerate))
        {
            WRITELOG(LL_Debug,"Noise_Suppression WebRtcNs_Init err! \n");
            return;
        }
        int nMode = 3;
        //设置降噪处理策略,nMode值只能取四个值:0,1,2,3,越高效果越好
        if (0 !=  WebRtcNsx_set_policy(m_pNSinst,nMode))
        {
            WRITELOG(LL_Debug,"Noise_Suppression WebRtcNs_set_policy err! \n");
            return;
        }
        memset(filter_state1,0,sizeof(filter_state1));
        memset(filter_state12,0,sizeof(filter_state12));
        memset(Synthesis_state1,0,sizeof(Synthesis_state1));
        memset(Synthesis_state12,0,sizeof(Synthesis_state12));
#endif
    }
    virtual ~CHHAudioEncoderG711ADenoise(void)
    {
        if (m_encoder){
            m_encoder->Release();
            m_encoder = NULL;
        }
#if USE_WEBRTC_NOISESUPPRESSION
        if (m_pNSinst){
            WebRtcNsx_Free(m_pNSinst);
            m_pNSinst = NULL;
        }
#endif
    }
protected:
    virtual void Retain()
    {
        ++m_RetainCount;
    }
    virtual void Release()
    {
        if (--m_RetainCount==0) {
            delete this;
        }
    }
    virtual bool Encode(unsigned char *pInData,int nInLen,onAudioEncodeResultCallback func,void* param)
    {
        //去噪声
#if USE_WEBRTC_NOISESUPPRESSION
        //每次取一帧10ms数据的采样点进行循环降噪
        //如果是8K采样率的,则对应8000/1000*10=80个采样点
        //16K采样率对应16000/1000*10=160个采样点
        //32K采样率对应的是320个采样点
        for (int i = 0; i < nInLen; i += sizeof(short)*m_samplerate/100){
            //这里没有明确写出,但是实际上在项目中做了限制,每次传进来的长度是320个字节
            //也就是说采样率为8K16位的话,会循环两次,16K16位的话,只会循环一次,32K8位的话也只会循环一次,具体需要根据采样率和位宽计算
            if (m_samplerate == 8000){
                if (nInLen - i >= 160){
                    short shBufferIn[80] = {0};
                    short shBufferOut[80] = {0};
                    memcpy(shBufferIn,(char*)(pInData+i),80*sizeof(short));
                    //将需要降噪的数据作为低频数据传入对应接口,高频数据为空,同时需要注意返回数据也是分高频和低频,此处低频数据为降噪结果
                    if (0 != WebRtcNsx_Process(m_pNSinst ,shBufferIn  ,NULL ,shBufferOut , NULL)){
                        WRITELOG(LL_Debug,"Noise_Suppression WebRtcNs_Process err! \n");
                    }
                    memcpy(pInData+i,shBufferOut,80*sizeof(short));
                }
            }else if (m_samplerate == 16000){
                if (nInLen - i >= 320){
                    short shBufferIn[160] = {0};
                    short shBufferOut[160] = {0};
                    memcpy(shBufferIn,(char*)(pInData+i),160*sizeof(short));
                    if (0 != WebRtcNsx_Process(m_pNSinst ,shBufferIn  ,NULL ,shBufferOut , NULL)){
                        WRITELOG(LL_Debug,"Noise_Suppression WebRtcNs_Process err! \n");
                    }
                    memcpy(pInData+i,shBufferOut,160*sizeof(short));
                }
            }
            //因为项目的特殊性,每次传进来的数据长度,长度只有320个字节,如果是采样率是32K的话,进来的帧长度只有5ms,并不能满足降噪处理的最低要求,为避免数据异常,不处理32K数据
            //根据前辈的说法,32K数据需要分为高频和低频两个部分进行降噪,降噪后再合并为降噪后数据
            //else if (m_samplerate == 32000){
            //  if (nInLen - i >= 640)
            //  {
            //      short shBufferIn[320] = {0};

            //      short shInL[160],shInH[160];
            //      short shOutL[160] = {0},shOutH[160] = {0};

            //      memcpy(shBufferIn,(char*)(pInData+i),320*sizeof(short));
            //      //首先需要使用滤波函数将音频数据分高低频,以高频和低频的方式传入降噪函数内部
            //      WebRtcSpl_AnalysisQMF(shBufferIn,320,shInL,shInH,filter_state1,filter_state12);

            //      //将需要降噪的数据以高频和低频传入对应接口,同时需要注意返回数据也是分高频和低频
            //      if (0 == WebRtcNsx_Process(m_pNSinst ,shInL  ,shInH ,shOutL , shOutH))
            //      {
            //          short shBufferOut[320];
            //          //如果降噪成功,则根据降噪后高频和低频数据传入滤波接口,然后用将返回的数据写入文件
            //          WebRtcSpl_SynthesisQMF(shOutL,shOutH,160,shBufferOut,Synthesis_state1,Synthesis_state12);
            //          memcpy(pInData+i,shBufferOut,320*sizeof(short));
            //      }
            //  }
            //}
        }
#endif
        //编码
        m_encoder->Encode(pInData,nInLen,func,param);
        return true ;
    }
private:
    unsigned long m_RetainCount;
    IHHAudioEncoder* m_encoder;
#if USE_WEBRTC_NOISESUPPRESSION
    NsxHandle* m_pNSinst;
    int  filter_state1[6],filter_state12[6];//滤波分频需要用到的参数
    int  Synthesis_state1[6],Synthesis_state12[6];//合并高低频数据需要用到的参数
    int m_samplerate;//采样率
#endif
};

使用过程如下:

1.创建WebRTC降噪处理句柄:WebRtcNsx_Create

2.初始化WebRTC降噪处理句柄:WebRtcNsx_Init

参数是WebRTC降噪句柄和采样率,WebRTC只支持三种采样率,8K,16K和32K,如果超过32K,则需要重采样成符合要求的采样率,这边不考虑采样率超出32K需要重采样的情况。

3.设置WebRTC降噪处理策略:WebRtcNsx_set_policy

nMode是策略的选项,但是数值越高,效果越好,估计对性能有影响,不建议在CPU性能不佳的环境使用。只能取4个值:0,1,2,3

4.降噪处理,按帧循环处理音频数据直到数据处理完毕

要求每次取一帧长度为10ms的数据进行降噪处理,如果采样率是8K,则对应8000/1000*10=80个采样点,16K是160个采样点,32K是320个采样点。具体到我的程序中,因为每次传进入的音频数据是8K16位的,而且缓存长度固定是320个字节,计算一下,一次送进去160个字节数据降噪,所以可以预知,循环两次。

根据前辈的说法,32K数据需要分为高频和低频两个部分进行降噪,降噪后再合并为降噪后数据

  • 1.(可选)使用滤波函数将音频数据分为高频,低频:WebRtcSpl_AnalysisQMF
    将需要降噪的数据作为低频数据传入对应接口,高频数据为空,同时需要注意返回数据也是分高频和低频,此处低频数据为降噪结果。但是,如果是8K和16K数据,不需要这个步骤,可以作为低频数据直接降噪,所以这个是可选步骤。
  • 2.降噪处理:WebRtcNsx_Process
    将需要降噪的数据以高频和低频传入对应接口,同时需要注意返回数据也是分高频和低频。如果是8K或者16K的数据,则作为低频数据输入,输出也是通过低频数据返回。
  • 3.(可选)降噪成功后,将高频,低频数据合并后输出:WebRtcSpl_SynthesisQMF
    如果降噪成功,则根据降噪后高频和低频数据传入滤波接口,然后用将返回的数据写入文件。这一步是可选的,根据上面是否分成高低频来使用。

5.释放WebRTC降噪句柄:WebRtcNsx_Free

效果:(使用Audacity分析)
语音内容:“WebRTC降噪效果对比”

WebRTC降噪效果对比:时域(降噪前为上面那个,降噪后为下面那个)

 

降噪前频域分析

 

降噪后频域分析

 

从图片上看,时域上音量较低的数据基本被抹平,但是不影响波形清晰,频域上,频率峰值明显加强,1500Hz到3500Hz区域,能量普遍下降,实际听的效果的话,降噪后,背景的沙沙声基本没有,但是音量也有所下降,直观感觉上,比Speex好一些。

3.根据PCM文件的音量进行阀值限制

以二进制方式打开,PCM数据其实就是音量数据,如果把音量小的声音默认为噪声,则可以通过把音量小的数值替换为0,来实现降噪,这就是第三个方法的原理,但是这个方法的缺点也是明显的,会把很多的比较小的细节声音直接去掉了。
部分代码

class CHHAudioEncoderG711ADenoise:public IHHAudioEncoder
{
public:
    CHHAudioEncoderG711ADenoise(int samplerate,int bitsize):m_RetainCount(1)
    {
        m_encoder = new CHHAudioEncoderG711A;
    }
    virtual ~CHHAudioEncoderG711ADenoise(void)
    {
        if (m_encoder){
            m_encoder->Release();
            m_encoder = NULL;
        }
    }
protected:
    virtual void Retain()
    {
        ++m_RetainCount;
    }
    virtual void Release()
    {
        if (--m_RetainCount==0) {
            delete this;
        }
    }
    virtual bool Encode(unsigned char *pInData,int nInLen,onAudioEncodeResultCallback func,void* param)
    {
        //去噪声
        static const short NOISE_SIZE =256;
        short* pdata = (short*)pInData;
        for (int i=0;i<nInLen/2;i++)
        {
            if (pdata[i]<NOISE_SIZE && pdata[i]>-NOISE_SIZE) {
                pdata[i]=0;
            }else if(pdata[i]>NOISE_SIZE){
                pdata[i]=pdata[i]-NOISE_SIZE;
            }
            else if (pdata[i]<-NOISE_SIZE){
                pdata[i]=pdata[i]+NOISE_SIZE;
            }
        }
        //编码
        m_encoder->Encode(pInData,nInLen,func,param);
        return true ;
    }
private:
    unsigned long m_RetainCount;
    IHHAudioEncoder* m_encoder;
};

过程:

1.设置噪声阀值

这个数值是用来和PCM数据中的数值进行比较的,这里会使用到音量计算公式dB = 20×log(data),data就是这里的噪声阀值,如果设25dB为界点,则data 约等于18,如果设置为48

2.替换噪声

简单判断大小后就替换
从实际效果上看,和Speex差不多,噪音有所减弱,但是会变为另一种方式的噪音,实际上只是把一部分数据给抹平而已,简单粗暴。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_21743659/article/details/107929685

智能推荐

c# 调用c++ lib静态库_c#调用lib-程序员宅基地

文章浏览阅读2w次,点赞7次,收藏51次。四个步骤1.创建C++ Win32项目动态库dll 2.在Win32项目动态库中添加 外部依赖项 lib头文件和lib库3.导出C接口4.c#调用c++动态库开始你的表演...①创建一个空白的解决方案,在解决方案中添加 Visual C++ , Win32 项目空白解决方案的创建:添加Visual C++ , Win32 项目这......_c#调用lib

deepin/ubuntu安装苹方字体-程序员宅基地

文章浏览阅读4.6k次。苹方字体是苹果系统上的黑体,挺好看的。注重颜值的网站都会使用,例如知乎:font-family: -apple-system, BlinkMacSystemFont, Helvetica Neue, PingFang SC, Microsoft YaHei, Source Han Sans SC, Noto Sans CJK SC, W..._ubuntu pingfang

html表单常见操作汇总_html表单的处理程序有那些-程序员宅基地

文章浏览阅读159次。表单表单概述表单标签表单域按钮控件demo表单标签表单标签基本语法结构<form action="处理数据程序的url地址“ method=”get|post“ name="表单名称”></form><!--action,当提交表单时,向何处发送表单中的数据,地址可以是相对地址也可以是绝对地址--><!--method将表单中的数据传送给服务器处理,get方式直接显示在url地址中,数据可以被缓存,且长度有限制;而post方式数据隐藏传输,_html表单的处理程序有那些

PHP设置谷歌验证器(Google Authenticator)实现操作二步验证_php otp 验证器-程序员宅基地

文章浏览阅读1.2k次。使用说明:开启Google的登陆二步验证(即Google Authenticator服务)后用户登陆时需要输入额外由手机客户端生成的一次性密码。实现Google Authenticator功能需要服务器端和客户端的支持。服务器端负责密钥的生成、验证一次性密码是否正确。客户端记录密钥后生成一次性密码。下载谷歌验证类库文件放到项目合适位置(我这边放在项目Vender下面)https://github.com/PHPGangsta/GoogleAuthenticatorPHP代码示例://引入谷_php otp 验证器

【Python】matplotlib.plot画图横坐标混乱及间隔处理_matplotlib更改横轴间距-程序员宅基地

文章浏览阅读4.3k次,点赞5次,收藏11次。matplotlib.plot画图横坐标混乱及间隔处理_matplotlib更改横轴间距

docker — 容器存储_docker 保存容器-程序员宅基地

文章浏览阅读2.2k次。①Storage driver 处理各镜像层及容器层的处理细节,实现了多层数据的堆叠,为用户 提供了多层数据合并后的统一视图②所有 Storage driver 都使用可堆叠图像层和写时复制(CoW)策略③docker info 命令可查看当系统上的 storage driver主要用于测试目的,不建议用于生成环境。_docker 保存容器

随便推点

网络拓扑结构_网络拓扑csdn-程序员宅基地

文章浏览阅读834次,点赞27次,收藏13次。网络拓扑结构是指计算机网络中各组件(如计算机、服务器、打印机、路由器、交换机等设备)及其连接线路在物理布局或逻辑构型上的排列形式。这种布局不仅描述了设备间的实际物理连接方式,也决定了数据在网络中流动的路径和方式。不同的网络拓扑结构影响着网络的性能、可靠性、可扩展性及管理维护的难易程度。_网络拓扑csdn

JS重写Date函数,兼容IOS系统_date.prototype 将所有 ios-程序员宅基地

文章浏览阅读1.8k次,点赞5次,收藏8次。IOS系统Date的坑要创建一个指定时间的new Date对象时,通常的做法是:new Date("2020-09-21 11:11:00")这行代码在 PC 端和安卓端都是正常的,而在 iOS 端则会提示 Invalid Date 无效日期。在IOS年月日中间的横岗许换成斜杠,也就是new Date("2020/09/21 11:11:00")通常为了兼容IOS的这个坑,需要做一些额外的特殊处理,笔者在开发的时候经常会忘了兼容IOS系统。所以就想试着重写Date函数,一劳永逸,避免每次ne_date.prototype 将所有 ios

如何将EXCEL表导入plsql数据库中-程序员宅基地

文章浏览阅读5.3k次。方法一:用PLSQL Developer工具。 1 在PLSQL Developer的sql window里输入select * from test for update; 2 按F8执行 3 打开锁, 再按一下加号. 鼠标点到第一列的列头,使全列成选中状态,然后粘贴,最后commit提交即可。(前提..._excel导入pl/sql

Git常用命令速查手册-程序员宅基地

文章浏览阅读83次。Git常用命令速查手册1、初始化仓库git init2、将文件添加到仓库git add 文件名 # 将工作区的某个文件添加到暂存区 git add -u # 添加所有被tracked文件中被修改或删除的文件信息到暂存区,不处理untracked的文件git add -A # 添加所有被tracked文件中被修改或删除的文件信息到暂存区,包括untracked的文件...

分享119个ASP.NET源码总有一个是你想要的_千博二手车源码v2023 build 1120-程序员宅基地

文章浏览阅读202次。分享119个ASP.NET源码总有一个是你想要的_千博二手车源码v2023 build 1120

【C++缺省函数】 空类默认产生的6个类成员函数_空类默认产生哪些类成员函数-程序员宅基地

文章浏览阅读1.8k次。版权声明:转载请注明出处 http://blog.csdn.net/irean_lau。目录(?)[+]1、缺省构造函数。2、缺省拷贝构造函数。3、 缺省析构函数。4、缺省赋值运算符。5、缺省取址运算符。6、 缺省取址运算符 const。[cpp] view plain copy_空类默认产生哪些类成员函数

推荐文章

热门文章

相关标签