首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 296 毫秒
1.
为提高非平稳噪声下远场非相干窄带信号波达方向(DOA)的估计精度,提出了一种基于稀疏重构的DOA估计算法.采用类协方差差分算法构造差分矩阵,抑制非平稳噪声的影响;基于类旋转不变子空间参数估计算法基本原理构造稀疏表示模型与权函数;利用加权l1范数对模型求解,实现DOA估计.仿真结果表明,与传统的协方差差分算法、噪声协方差矩阵估计算法、秩迹最小化算法以及稀疏重构算法相比,所提算法不仅能较好地抑制非平稳噪声的影响,而且在低信噪比、低快拍数情况下具有较强的稳健性和较高的估计精度.  相似文献   

2.
针对l1范数下奇异值分解的l1-SVD稀疏信号重建的波达方向估计方法存在求解量的稀疏性较差且空间谱中存在较多的伪峰,不能准确估计波达方向的问题,对接收信号矩阵进行预处理,并使用信号子空间设计权值矢量得到更好的稀疏性和更好地逼近l0范数,利用得到的权值矢量对l1-SVD算法中解矢量的各个元素进行加权,以得到的加权l1范数作为最小化的目标函数进行优化.仿真结果表明,提出的算法在快拍数、正则化参数和信噪比等条件改变的情况下能有效抑制伪峰,并准确稳定地估计出波达方向.  相似文献   

3.
为提高低信噪比和较少快拍数条件下远场窄带信号波达方向的估计精度,提出一种新的基于加权l1范数的稀疏重构波达方向的估计算法.该算法首先采用前后向空间平滑技术获得阵列输出数据协方差矩阵;其次构造出改进Capon算法空间谱函数中的倒谱系数矢量,设计得到符合加权l1范数的权值矩阵;最后通过奇异值分解对接收数据进行降维处理,获得基于稀疏重构的加权l1 范数约束问题模型.仿真结果表明,在低信噪比或快拍数较少的情况下,该算法能够有效地抑制空间谱伪峰和保证较强的稳健性,且信源不需要进行相关处理,仍能获得很高的估计精度.  相似文献   

4.
针对低信噪比条件下远场宽带信号波达方向(DOA)估计精度低的问题,提出了一种基于张量域降噪的宽带DOA估计算法。首先,联合各子频带数据构造张量信号;然后进行高阶奇异值分解,并利用最小描述长度准则分离信号与噪声;其次,改进协方差矩阵拟合算法,利用L1范数对信号功率进行约束,获得L1约束问题模型并求解;最后,对所有窄带估计结果进行融合得到宽带信号DOA。仿真结果表明,该算法可有效地降噪,同时较求根多重信号分类算法和旋转不变子空间参数估计算法,该算法对DOA估计无需预知信源数目,且在低信噪比条件下具有较小的均方根误差。  相似文献   

5.
针对nested阵列对邻近信号的分辨力受信噪比和快拍数等因素限制的问题,提出了基于nested阵列的加权子空间平滑M USIC算法.该算法对协方差矩阵向量化以提高整个阵列的自由度,使用空间平滑恢复新接收数据矢量阵的秩,采用校正的噪声特征值对噪声子空间进行加权,并对信号子空间进行空间谱合成,得到新算法的空间谱函数.通过搜索空间谱函数极大值实现DOA估计.结果表明,该算法在低信噪比及小快拍数条件下,对间隔较近的信号具有高分辨力.  相似文献   

6.
针对低信噪比、小快拍数条件下的DOA估计问题,根据水下目标方位角在角度空间的稀疏性,将稀疏分解和压缩传感理论应用于声矢量阵的DOA估计中.建立了相应的DOA估计模型,构造出基于阵列流型形式的过完备原子库,然后采用正交匹配追踪算法实现目标的DOA估计.数值仿真表明,基于稀疏分解的声矢量阵DOA估计算法稳定性好,估计结果精确,信噪比小于10 dB时优于MVDR、MUSIC等算法,并且可以直接用于相干信号的处理.对于单快拍数据的估计性能良好,适用于运动目标的DOA估计.基于压缩传感理论,通过对阵列接收数据和过完备原子库的维数压缩,可有效降低稀疏分解算法的计算成本.  相似文献   

7.
在以GPS辐射源发出信号作为探测信号的无源雷达系统中,针对回波通道内强干扰低信噪比情况下的多目标波达方向(DOA)估计问题,根据GPS辐射信号以及无源雷达系统特点,提出一种采用改进加权L1范数的约束模型构造DOA估计的方法。先采用批处理抵消算法(extensive cancellation algorithm,ECA)估计目标信号的时延和多普勒频移等参数,消除直达波和多径干扰,然后利用改进权值的L1范数作为约束条件,建立稀疏模型进行DOA估计,在低信噪比环境中无需估计干扰参数,以较低的计算复杂度进行准确DOA估计。仿真结果表明:该方法减少了计算复杂度,在相同配置下运行时间比MUSIC-like方法降低了1.18 s;同时也提高了准确性,其均方误差较MUSIC-like方法和Candes方法降低了0.5°~3.7°,低信噪比环境下分辨概率较MUSIC-like方法和Candes方法提高了0.4~0.6。  相似文献   

8.
针对矢量水听器阵列相干信号方位估计问题,提出了迭代稀疏协方差矩阵拟合波达方向估计(direction of arrival,DOA)算法。基于加权协方差矩阵拟合准则,构建了关于稀疏信号功率的目标函数,利用Frobenius范数性质推导了稀疏信号功率迭代更新的递推式。所提算法利用迭代重构的思想计算离散网格点上信号功率,使得估计的功率更精确,从而获得更加精确的DOA估计。理论分析表明,所提算法求解网格点上信号的功率经过了滤波器的预处理,该滤波器允许指定方向的信号通过并且衰减其他方向的信号,对信号的相关性具有较低的敏感度。仿真实验结果表明,在信噪比为15 dB,非相干信号情况下,所提方法估计的平均误差为多重信号分类高分辨方法的39.4%,迭代自适应稀疏信号表示方法的73.7%;相干信号情况下,所提方法估计的平均误差为迭代自适应稀疏信号表示方法的12.9%。所提算法应用于具有高度相关性目标的DOA估计时,可有效提高目标DOA估计的精度。  相似文献   

9.
对子空间投影类目标方位估计(DOA)算法在非理想条件下性能下降,提出利用加权信号子空间投影和噪声子空间投影获得合成空间谱的DOA方法.论文第2节给出了基于特征分解的子空间投影算法的框架,依据不同的投影矩阵对多种算法进行分类.第3节通过对信号子空间投影采用主特征值倒数加权,并与常规噪声子空间投影进行空间谱合成对多目标进行分辨.第4节给出低信噪比和小采样长度条件下的算法统计性能分析,表明其性能优于传统多目标高分辨MUSIC算法.第5节通过湖试结果表明其工程应用价值.  相似文献   

10.
费莹娜    黄龙庭  吴云韬    胡超普   《武汉工程大学学报》2020,42(1):97-101
针对传统的信号波达方向(DOA)估计算法无法适用于实际应用中非均匀噪声、数据不完整等情况的问题,提出了一种结合矩阵补全理论和最大似然交替投影算法的DOA估计方法。在背景噪声为非均匀噪声的情况下,该方法通过对只有部分元素已知的阵列协方差矩阵进行矩阵补全,将稀疏矩阵重构为无噪声协方差矩阵,然后利用最大似然交替投影算法实现对DOA的估计。实验仿真表明:该DOA估计方法能够有效恢复不完整数据并抑制非均匀噪声的影响,而且在低信噪比条件下,仍具有较好的DOA估计性能。  相似文献   

11.
针对现有动态目标波达方向(DOA)跟踪方法在单快拍条件下估计精度较低甚至失效的问题,提出了一种基于动态压缩感知的DOA跟踪算法。首先,通过前一跟踪时刻所得到的先验DOA稀疏信息,获得当前跟踪时刻信号向量中各位置非零元素的分布概率,继而建立起动态DOA的稀疏概率模型。然后,采用加权l1范数最小化方法重构出当前跟踪时刻的信号向量,从而确定非零元素的位置,获得DOA的实时估计值,最终实现运动目标的动态DOA跟踪。本文算法可以在单快拍条件下实现对动态目标DOA的良好跟踪,并且在相同条件下具有比粒子滤波算法更好的跟踪性能。最后,通过仿真试验对所提算法进行了有效性验证。  相似文献   

12.
针对现有基于压缩感知的DOA估计算法估计精度不高的问题,提出一种基于加权平滑l0范数的单快拍DOA估计算法。所提算法采用一种新的加权方式,在构造一个恰当的平滑连续函数后,根据接收数据的初始解确定一个合适的递减的{σ}序列[σ_1,σ_2,?,σ_J],并对每一个σ值,用最速下降法来求解l0范数的逼近函数H_σ(S)的最小值;然后将该σ值作为下一次迭代的初始值,并在每次迭代开始时更新权值,通过多次的迭代获得逼近函数的最小解,即逼近的最小l0范数。通过仿真实验表明所提算法可对DOA进行有效估计,且容易实现、精度较高,与未加权的改进平滑l_0范数DOA估计方法相比具有更好的估计性能。  相似文献   

13.
浅海波导由于海底海面边界以及不均匀散射体的存在,使得其中声传播极其复杂,对信号处理造成了严重的干扰.本文针对浅海复杂环境下的多途效应对目标波达方向(Direction of Arrival, DOA)估计的不利影响,提出了一种基于时反-压缩感知(Time Reversal-Compressive Sensing, TR-CS)的目标DOA估计算法.该算法针对利用压缩感知(Compressive Sensing, CS)理论进行DOA估计时浅海多径对信道稀疏性的干扰,引入时间反转(Time Reversal, TR)理论对信号进行预处理,将时反处理后的信号再次送入信道,建立了基于时间反转理论的浅海目标DOA估计模型,利用时间反转理论的空时聚焦特性实现了对多途畸变的修正,并且以多径数目作为环境复杂度的度量,在不同复杂度环境下验证了该算法的有效性,最后分析了不同快拍数下该算法的性能.仿真结果表明:在低信噪比、小快拍的浅海条件下,时间反转理论的引入通过对接收信号的再次处理,虽然对计算量提出了要求,但是明显抑制了旁瓣杂波,提高了信道的稀疏性及阵列接收信号的信噪比,改善了复杂浅海环境下的DOA估计性能,并且在多途效应越为严重的环境中,性能提高越为明显.  相似文献   

14.
提出了一种基于三阶张量高阶奇异值分解的声矢量阵列加权信号张量子空间拟合算法. 首先对声矢量阵接收信号进行三阶张量建模, 并通过高阶奇异值分解得到信号张量子空间, 从而结合加权信号子空间拟合算法进行空间方位谱估计. 由于基于高阶奇异值分解得到的信号张量子空间相比于传统的矩阵奇异值分解得到的信号子空间能够更好地抑制噪声, 并且体现了多维数据之间的关联关系, 因此具有更高的方位估计精度. 理论和仿真结果表明: 该方法在低信噪比、等强度不相关信号和强相关信号条件下仍具有良好的目标分辩能力和稳定性, 工程应用价值较高.  相似文献   

15.
提出了两种基于稀疏重构的高分辨波达方向(DOA)估计方法。对空间进行粗、细两步网格划分,并在相应的过完备基下获得阵列协方差矩阵列向量的稀疏表示,分别基于剔除及差分处理抑制噪声干扰影响。采用lp范数约束正则化迭代加权最小范数(FOCUSS)算法进行稀疏重构,在重构过程中,对过完备基进行奇异值分解并剔除奇异值小于阈值项以减小计算量,并解决过完备基条件数过大带来的病态问题。仿真结果验证了所提算法的有效性和鲁棒性。  相似文献   

16.
针对一维宽带信号波达方向(DOA)估计中聚焦变换算法需要角度预估值的问题,在双边相关变换算法基础上设计了一种无需角度预估值的DOA估计算法.首先,利用离散傅里叶变换(DFT)变换将宽带信号分解为若干个不同频点处的窄带数据模型.然后,通过本文改进的聚焦矩阵将不同频点处的窄带数据聚焦到同一参考频点,得到单一频率点处窄带信号模型.最后,采用改进阵列协方差矩阵稀疏迭代估计算法进行求解.理论研究和仿真实验结果表明,该方法在低信噪比和多快拍条件下比传统算法具有更高的估计精度和分辨率,且结合压缩感知理论有效降低了算法的运算量.  相似文献   

17.
为了解决现有基于互质阵列的DOA估计方法舍弃差联合阵列中非均匀虚拟阵元而导致最大可估计信号数损失的问题,提出了一种基于矩阵填充的DOA估计方法。首先,根据差联合阵列与波程差一一对应的特性,构造一个部分元素缺失的Toeplitz化的阵列协方差矩阵,建立了基于矩阵填充的DOA估计模型,并验证了该模型满足零空间性质;然后,根据低秩矩阵填充理论,将DOA估计问题转化为矩阵核范数最小化问题进行求解,通过不定点延续算法将该协方差矩阵中的零元素进行填充恢复为完整协方差矩阵;最后,对协方差矩阵进行奇异值分解,转化为多项式求根,得到DOA的估计。仿真实验结果验证了本文方法的有效性和优越性。实验结果表明,本文方法能够对差联合阵列中的空洞部分进行有效填充,增加了可利用的阵列自由度,提高了可估计信号数,同时能够有效避免传统稀疏重构算法中由于角度域离散化导致的基不匹配问题对估计性能的影响,提高了估计精度和分辨力。  相似文献   

18.
针对短波跳频信号盲检测中的去背景噪声和定频干扰问题,结合信号时频分析与共生矩阵阈值法,提出了一种基于噪声稀疏对称共生矩阵的跳频提取算法.首先对共生矩阵改进,定义了频率、时间方向上的噪声稀疏对称共生矩阵.然后根据频率稀疏共生矩阵估计背景噪声阈值,进而根据阈值从时间稀疏共生矩阵中提取跳频信号.仿真表明,该算法能实现低信噪比下跳频信号的盲提取,背景噪声阈值估计更为准确、稳定,跳频信号的提取效果好,且算法简单、运算量小,易于工程实现.  相似文献   

19.
智能天线DOA估计技术中子空间分解类算法存在计算量大和采样数据多的缺点,为实现实时准确的DOA估计,提出一种在局部信号空间搜索谱峰的改进MUSIC算法,与经典算法仿真对比,结果表明改进算法运算量明显降低.此外,为克服传统算法采样数据量大且存在冗余的不足,研究基于压缩感知的DOA估计方法,即由阵列数据通过阵列流型矩阵重构出空间稀疏信号,从而估计目标信号的DOA,实验结果表明该方法估计效果显著,且性能优于传统算法.  相似文献   

20.
二维波达方向(direction of arrival,DOA)估计在雷达探测、电子对抗、医学成像等领域有着广泛的应用.针对现有算法估计精度不足、计算量巨大的问题,在基于压缩感知理论的背景下提出一种二维均匀L型阵列信号的DOA估计算法.该算法首先对阵列信号的俯仰角和方位角构建空间合成角,并对空间合成角构建过完备冗余字典;再利用正交化高斯随机矩阵构造观测矩阵;最后通过改进RM-FOCUSS算法和求解三角函数的方法还原出方位角和俯仰角.理论研究表明,该方法在高信噪比、多快拍条件下比传统算法具有更高的估计精度和分辨力,且通过压缩采样降低了运算量.仿真实验验证了上述结论.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号