排序方式: 共有55条查询结果,搜索用时 15 毫秒
1.
基于子带二次谱熵的语音端点检测 总被引:1,自引:0,他引:1
为了提高在强噪声环境下语音端点检测的准确度,提出基于子带二次谱熵的端点检测算法.该算法把子带二次谱熵作为端点检测新的特征参数,首先计算每帧语音信号的二次谱,再多子带分析,计算二次谱熵;引入顺序统计滤波对二次谱熵平滑处理;将有限状态机判别方法与子带二次谱熵相合,形成新的语音/噪声判别算法,有效地解决单门限法易出现的两类误判.实验表明:与传统的两种方法相比,提出的端点检测算法具有准确性高、抗噪性强等优点. 相似文献
2.
针对传统基于Haar-like特征的on-line boosting跟踪算法(HBT)需要产生大规模随机特征、占用大量计算资源和存储空间的缺点,提出结合方向纹理熵的Haar-like特征在线boosting跟踪算法(HBTT)。HBTT算法利用灰度共生矩阵的熵获得目标纹理的方向信息,在此基础上有针对性地产生具有方向纹理信息的Haar-like特征,从而可有效避免无效随机特征的产生,减小特征池容量;更进一步,可根据目标纹理的复杂程度自动调整特征数量,使得算法更灵活。在跟踪过程中,在线学习模块可以使错误率较高的特征被结合了目标纹理方向信息的Haar-like特征所替换。与HBT算法比较,HBTT算法的跟踪误差降低了10%以上;在相同特征池容量下,置信度提高了2%以上。实验结果表明,该算法不仅具有较高的鲁棒性,而且在跟踪效率和性能上都有所提高。 相似文献
3.
针对DCT交流系数分布函数的广义高斯分布模型设计了一个盲水印算法,该算法独立于具体图像,具有通用性.实验结果显示,该算法表现出良好的检测性能和对包括JPEG压缩、裁剪、高斯噪声、虚假嵌入在内的多种攻击的鲁棒性;进而,将此算法推广到多重水印嵌入场合,提出了三种重复嵌入策略,增加了嵌入的信息量和嵌入方式的灵活性. 相似文献
4.
基于参数导引随机共振的数字水印算法 总被引:7,自引:0,他引:7
设计并实现了一个基于参数导引随机共振的DCT域数字图像水印算法。在嵌入方,将伪随机的水印序列上采样后与DCT交流系数相加得到嵌入水印的系数,在检测方,待检测图像的DCT交流系数当作随机共振信号处理器的惟一输入,通过调节随机共振信号处理器的参数实现水印的检测。仿真结果表明,算法在保证水印不可感知的前提下能抵抗包括加噪声污染、直方图均衡等信号处理攻击。 相似文献
5.
本文针对目前信息处理类课程实践教学中存在的问题,提出了"三线一体"的思路来改善教学环节,即以"课时线"来合理安排实践项目课时;以"维度线"来循序渐进提升信号处理维度;以"难度线"由浅入深提高实践动手能力.教学实践表明,新的教学模式能激发学生的学习兴趣,增强学生的科技创新能力,有效地提高学生的就业竞争力. 相似文献
6.
传统循环神经网络易发生梯度消失和网络退化问题.利用非饱和激活函数可以有效克服梯度消失的性质,同时借鉴卷积神经网络中的残差结构能够有效缓解网络退化的特性,在门控循环神经网络(Gated recurrent unit,GRU)的基础上提出了基于残差的门控循环单元(Residual-GRU,Re-GRU)来缓解梯度消失和网络退化问题.Re-GRU的改进主要包括两个方面:1)将原有GRU的候选隐状态的激活函数改为非饱和激活函数;2)在GRU的候选隐状态表示中引入残差信息.对候选隐状态激活函数的改动不仅可以有效避免由饱和激活函数带来的梯度消失问题,同时也能够更好地引入残差信息,使网络对梯度变化更敏感,从而达到缓解网络退化的目的.进行了图像识别、构建语言模型和语音识别3类不同的测试实验,实验结果均表明,Re-GRU拥有比对比方法更高的检测性能,同时在运行速度方面优于Highway-GRU和长短期记忆单元.其中,在语言模型预测任务中的Penn Treebank数据集上取得了23.88的困惑度,相比有记录的最低困惑度,该方法的困惑度降低了一半. 相似文献
7.
为了能在统一框架内处理无模态、单模态、双模态或者多模态直方图情形下的自动阈值选取问题,该文提出一种基于多尺度多方向Gabor变换的Tsallis熵阈值分割方法(MGTE)。该方法先通过Gabor变换得到多尺度乘积图像,然后利用内外轮廓图像从多尺度乘积图像中重构1维直方图,并在重构1维直方图上采用Tsallis熵计算模型来选取4个方向Tsallis熵取最大值时对应的阈值,最后对4个方向的阈值进行加权求和作为最终分割阈值。将提出的方法和5个分割方法在4幅合成图像和40幅真实世界图像上进行了实验。结果表明提出的方法虽然计算效率不占优势,但它的分割适应性和分割精度有明显的提高。 相似文献
8.
在大规模无监督语料上的BERT、XLNet等预训练语言模型,通常采用基于交叉熵损失函数的语言建模任务进行训练。模型的评价标准则采用困惑度或者模型在其他下游自然语言处理任务中的性能指标,存在损失函数和评测指标不匹配等问题。为解决这些问题,该文提出一种结合强化学习的对抗预训练语言模型RL-XLNet(Reinforcement Learning-XLNet)。RL-XLNet采用对抗训练方式训练一个生成器,基于上下文预测选定词,并训练一个判别器判断生成器预测的词是否正确。通过对抗网络生成器和判别器的相互促进作用,强化生成器对语义的理解,提高模型的学习能力。由于在文本生成过程中存在采样过程,导致最终的损失无法直接进行回传,故提出采用强化学习的方式对生成器进行训练。基于通用语言理解评估基准(GLUE Benchmark)和斯坦福问答任务(SQuAD 1.1)的实验,结果表明,与现有BERT、XLNet方法相比,RL-XLNet模型在多项任务中的性能上表现出较明显的优势: 在GLUE的六个任务中排名第1,一个任务排名第2,一个任务排名第3。在SQuAD 1.1任务中F1值排名第1。考虑到运算资源有限,基于小语料集的模型性能也达到了领域先进水平。 相似文献
9.
10.
为了实现监控场景下的人脸识别,采集了监控视频中500个人每人2张人脸图像构成SVF(Surveillance Video Faces) 测试集,包括500个正样本对499000个负样本对,提出一种改进型加性余弦间隔损失函数,对加性余弦间隔损失函数进行 改进,通过在特征与目标权重夹角的余弦值减去一个值,在特征与非目标权重夹角的余弦值加一个值,该值为 0 ~ 1 之间的数,通过实验选取最佳值,达到减小类内距离,拉大类间距离的目的。实验结果表明,与Softmax损失函数、乘性角度间隔损失函,数及加性余弦间隔损失函数训练的人脸识别模型相比,该方法在监控场景测试集人脸识别准确率最高,为99.1%。 相似文献