首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   0篇
  国内免费   1篇
工业技术   2篇
  2024年   1篇
  2023年   1篇
排序方式: 共有2条查询结果,搜索用时 0 毫秒
1
1.
为解决目前Transformer模型因其巨大的参数量和计算复杂度而无法应用在计算资源相对有限的移动设备中的问题,提出了一种适用于移动端的友好型轻量图像识别网络称为FuseNet。FuseNet利用卷积神经网络提取局部特征信息和自注意力机制擅长对全局信息进行建模的特性,将局部表示与全局表示两者的特性整合至一个特征提取模块,高效融合了两种不同结构的优点达到以较小的模型规模实现较高准确率的目的。实验证明不同参数规模的FuseNet可以在不进行预训练的情况下实现良好的性能,可以很好地应用在移动设备中。FuseNet-B在ImageNet-1K数据集上以14.8M的参数量实现了80.5%的准确率,性能表现超过了同体量的Transformer模型和卷积神经网络。  相似文献   
2.
对于传统的图像分类网络而言,卷积神经网络受限于较小且固定的感受野使其忽略了感受野之外的图像特征信息.基于Transformer模型灵活的多头自注意力机制使得其必须依赖于巨大的数据量以减少过拟合的风险,导致模型参数与计算复杂度过于庞大.针对上述问题本文提出了一种名为CSNet的多阶段图像分类模型.在模型浅层阶段利用大核卷积分解的思想扩大卷积层感受野以学习较大范围的特征信息.在深层阶段利用一种高效的自注意力机制,将卷积运算的特性加入自注意力机制中,有效减少了原始自注意力机制局部计算冗余和过分依赖数据的问题.CSNet在CIFAR-10和ImageNet-1K数据集上的分类准确率分别达到98.9%和82.6%,实验表明CSNet的模型性能优于ResNet和Vision Transformer.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号