排序方式: 共有21条查询结果,搜索用时 15 毫秒
1.
2.
塔式起重机起重臂有限元模态及动态分析 总被引:3,自引:0,他引:3
对塔式起重机起重臂的建模、约定处理作了探讨,在此基础上就QTZ630塔式起重机起重臂进行了模态和动态有限元分析,得到起重臂的振型和位移响应时间历程。其成果对于塔式起重机设计中如何避免在工作频率范围上共振现象的产生以及限制在动载时过大动变形的产生有实际意义。 相似文献
3.
活体检测技术已经成为日常生活中的重要应用,手机刷脸解锁、刷脸支付、远程身份验证等场景都会用到这一技术.但如果攻击者利用虚假视频生成技术生成逼真的换脸视频来攻击上述场景的活体检测系统,将会对这些场景的安全性产生巨大的威胁.针对这个问题使用4种先进的Deepfake技术生成大量的换脸图片和视频作为测试样本,用这些样本来对百... 相似文献
4.
随着深度学习的广泛应用,研究者在关注模型分类性能的同时,还需要关注模型的决策是否公平可信。存在决策偏见的深度模型会造成极大的负面影响,因此如何维持深度模型的分类正确率,同时提高模型的决策公平至关重要。目前已有工作提出了较多方法,用于改善模型的个体公平,但是这些方法仍然在去偏效果、去偏后模型可用性、去偏效率等方面存在缺陷。为此,文中分析了深度模型存在个体偏见时神经元异常激活现象,提出了一种基于偏见神经元抑制的模型去偏方法NeuronSup,具有显著降低个体偏见、对主任务性能影响小、时间复杂度低等优势。具体而言,首先根据深度模型部分神经元由于个体偏见而产生异常激活的现象提出了偏见神经元的概念。然后,利用歧视样本对查找深度模型中的偏见神经元,通过抑制偏见神经元的异常激活大幅降低深度模型的个体偏见,并且根据每个神经元的最大权重边确定主任务性能神经元,通过保持深度模型的主任务性能神经元参数不变,来减小去偏操作对深度模型分类性能造成的影响。因为NeuronSup只对深度模型中的特定神经元进行去偏操作,所以时间复杂度更低,效率更高。最后,在3个真实数据集的6种敏感属性上开展去偏实验,与5种对比算法相... 相似文献
5.
深度学习是机器学习研究中的一个重要领域,它具有强大的特征提取能力,且在许多应用中表现出先进的性能,因此在工业界中被广泛应用.然而,由于训练数据标注和模型设计存在偏见,现有的研究表明深度学习在某些应用中可能会强化人类的偏见和歧视,导致决策过程中的不公平现象产生,从而对个人和社会产生潜在的负面影响.为提高深度学习的应用可靠性、推动其在公平领域的发展,针对已有的研究工作,从数据和模型2方面出发,综述了深度学习应用中的偏见来源、针对不同类型偏见的去偏方法、评估去偏效果的公平性评价指标、以及目前主流的去偏平台,最后总结现有公平性研究领域存在的开放问题以及未来的发展趋势. 相似文献
6.
支持向量机(Support Vector Machine,SVM)对内部参数有着极高的依赖性,因此参数的好坏直接决定了SVM的分类效果,比如径向基核函数的参数。为了寻找出与分类问题相契合的参数,将样本数据投影到高维度特征空间,从而在特征空间中计算类内平均距离与类外中心距离之差,并将其作为参数评估的适应值;利用粒子群算法的全局寻优能力,在定义域内生成种群以代表不同的参数取值;利用粒子的随机游走来进行最优参数搜索,并将结果代入SVM进行样本训练。将所提算法与网格算法等进行了比较,结果表明所提算法的参数设定更加准确,分类准确率有显著提高,且算法复杂度并没有明显增加。 相似文献
7.
深度学习模型由于其出色的性能表现而在各个领域被广泛应用,但它们在面对不确定输入时,往往会出现意料之外的错误行为,在诸如自动驾驶系统等安全关键应用,可能会造成灾难性的后果。深度模型的可靠性问题引起了学术界和工业界的广泛关注。因此,在深度模型部署前迫切需要对模型进行系统性测试,通过生成测试样本,并由模型的输出得到测试报告,以评估模型的可靠性,提前发现潜在缺陷。一大批学者分别从不同测试目标出发,对模型进行测试,并且提出了一系列测试方法。目前对测试方法的综述工作只关注到模型的安全性,而忽略了其他测试目标,且缺少对最新出版的方法的介绍。因此,本文拟对模型任务性能、安全性、公平性和隐私性4个方面对现有测试技术展开全方位综述,对其进行全面梳理、分析和总结。具体而言,首先介绍了深度模型测试的相关概念;其次根据不同测试目标对79篇论文中的测试方法和指标进行分类介绍;然后总结了目前深度模型可靠性测试在自动驾驶、语音识别和自然语言处理三个工业场景的应用,并提供了可用于深度模型测试的24个数据集、7个在线模型库和常用工具包;最后结合面临的挑战和机遇,对深度模型可靠性测试的未来研究方向进行总结和展望,为构建系统、高效、可信的深度模型测试研究提供参考。值得一提的是,本文将涉及的数据集、模型、测试方法代码、评价指标等资料归纳整理在https://github.com/Allen-piexl/Testing-Zoo,方便研究人员下载使用。 相似文献
8.
9.
车牌识别系统的黑盒对抗攻击 总被引:1,自引:0,他引:1
深度神经网络(Deep neural network, DNN)作为最常用的深度学习方法之一, 广泛应用于各个领域. 然而, DNN容易受到对抗攻击的威胁, 因此通过对抗攻击来检测应用系统中DNN的漏洞至关重要. 针对车牌识别系统进行漏洞检测, 在完全未知模型内部结构信息的前提下展开黑盒攻击, 发现商用车牌识别系统存在安全漏洞. 提出基于精英策略的非支配排序遗传算法(NSGA-II)的车牌识别黑盒攻击方法, 仅获得输出类标及对应置信度, 即可产生对环境变化较为鲁棒的对抗样本, 而且该算法将扰动控制为纯黑色块, 可用淤泥块代替, 具有较强的迷惑性. 为验证本方法在真实场景的攻击可复现性, 分别在实验室和真实环境中对车牌识别系统展开攻击, 并且将对抗样本用于开源的商业软件中进行测试, 验证了攻击的迁移性. 相似文献
10.
随着深度学习在计算机视觉领域的广泛应用,人脸认证、车牌识别、路牌识别等也随之呈现商业化应用趋势,因此针对深度学习模型的安全性研究至关重要.已有的研究发现深度学习模型易受精心制作的包含微小扰动的对抗样本攻击,输出完全错误的识别结果.针对深度模型的对抗攻击是致命的,但同时也能帮助研究人员发现模型漏洞并采取进一步改进措施.基于该思想,本文针对自动驾驶场景中的基于深度学习的路牌识别模型,提出一种基于粒子群优化的黑盒物理攻击方法(black-box physical attack via PSO,BPA-PSO),BPA-PSO在未知模型结构的前提下,不仅可以实现对深度模型的黑盒攻击,还能使得实际物理场景中的路牌识别模型失效.通过在电子空间的数字图像场景、物理空间的实验室及户外路况等场景下的大量实验,验证了本文提出的BPA-PSO算法的攻击有效性,可发现模型漏洞,进一步提高深度学习的应用安全性.最后,文章对BPA-PSO算法存在的问题进行分析,对未来的研究可能面临的挑战进行了展望. 相似文献