排序方式: 共有18条查询结果,搜索用时 15 毫秒
1.
本文针对现在"数字电子技术实验"教学存在的教学模式落后,教学手段单一,教学内容简单、以及考核不够全面等问题,借助超星泛雅"一平三端"平台进行"线上-线下混合教学"改革.通过课前发布任务、课中有效组织课堂活动、课后发布作业、统计数据和教学反思进行.实践表明:该方法提高了学生的自主学习能力,并且增强了教师对学生学习情况的动态跟踪和过程性指导,同时也让课堂教学更有效,教学评价方式更有针对性、更精准,最终达到知识、技能和情感态度价值观的培养. 相似文献
2.
在“移动互联网+课堂”的大势趋动下,针对现在“数字电子技术实验”教学存在的教学模式落后,教学手段单一,教学内容简单、以及考核不够全面等问题,借助超星泛雅 “一平三端”平台进行“线上-线下混合教学”改革。通过课前发布任务、课中有效组织课堂活动、课后发布作业、统计数据和教学反思进行。实践表明:该方法提高了学生的自主学习能力,并且增强了教师对学生学习情况的动态跟踪和过程性指导,同时也让课堂教学更有效,教学评价方式更有针对性、更精准,最终达到知识、技能和情感态度价值观的培养。 相似文献
3.
提出了一种基于变分法和梯度增强的红外与可见光图像融合算法。首先对红外与可见光的梯度特征进行自适应加权融合,得到初始融合梯度场;其次构建梯度特征增强模型,获得融合图像增强的梯度场;最后通过变分法将融合问题转换为最优化问题,得到最接近增强后梯度场的融合图像。实验结果表明,相比基于多分辨率框架下进行融合的拉普拉斯分解、小波变换及常见的基于变分的融合算法,所提出的算法得到的融合图像梯度特征最大,视觉效果最好,证明了算法的有效性。 相似文献
4.
特征级与像素级相混合的SAR与可见光图像融合 总被引:1,自引:0,他引:1
SAR和可见光图像成像机理不同,图像差异较大,较难取得良好的融合效果。本文面向目标识别,通过分析图像的成像机理,首先在NSCT融合框架下,将SAR图像中重要的目标信息加入到可见光图像中,并尽可能多的保留源图像的边缘细节信息;再结合数学形态学和多尺度空间理论,提取源图像的亮、暗细节特征,进行特征级融合,得到亮、暗细节特征显著增强的融合图像。实验结果表明,本文算法有效的融合了SAR图像的目标信息,并增强了源图像的细节特征,达到了较好的视觉效果,提高了图像的目标检测和识别能力。 相似文献
5.
6.
基于MOOC的“数字电子技术”翻转课堂教学研究 总被引:1,自引:0,他引:1
本文提出一种基于MOOC的“数字电子技术”课程翻转课堂教学模式.首先比较传统的课堂教学、在线精品课程和MOOC的优缺点,然后通过自主学习、展示交流、检测反思、改革考核制度来实现教学改革.结果表明:该教学方法能够达到激发学生自主学习的积极性,提高教学质量的目的. 相似文献
7.
针对现有融合算法在处理红外偏振和光强两种模态图像时无法随着差异特征的不同而变化的问题,提出了一种双模态红外图像的集值映射融合方法。以多组红外偏振和光强图像为训练样本,根据底层特征的融合算法的类型分别建立差异特征类集和融合算法类集;构造各个差异特征对应各融合算法的融合有效度分布;通过多组图像融合有效度分布的均值聚合,建立全局图像的差异特征与融合算法的集值映射关系;提取被融合图像的差异特征,根据集值映射选择相应算法,通过各算法的组合得到融合结果。实验表明,该融合方法可以优化选择融合算法,将互补性强的差异特征有效融合。 相似文献
8.
特征匹配的准确率影响图像配准的精度,是基于特征配准方法的重点和难点之一。为了解决单向最近邻/次近邻法所导致特征点一对多的误匹配问题,提出了一种红外和可见光图像的特征双向匹配方法。首先,对红外图像进行反相和直方图均衡化处理,增强两类图像的相似性,提取数量更多重复率高的共有特征;其次,对提取的SURF(Speed-up Robust Feature)特征进行双向最近邻/次近邻粗匹配,确保特征匹配的一致性,降低误匹配率,并利用RANSAC(Random Sample Consensus)算法对特征点进行二次匹配,实现特征点精确匹配。实验结果表明,该算法在正确匹配率和配准精度方面都优于传统SURF的单向最近邻/次近邻匹配方法,具有有效性。 相似文献
9.
目前主流的深度融合方法仅利用卷积运算来提取图像局部特征,但图像与卷积核之间的交互过程与内容无关,且不能有效建立特征长距离依赖关系,不可避免地造成图像上下文内容信息的丢失,限制了红外与可见光图像的融合性能。为此,本文提出了一种红外与可见光图像多尺度Transformer融合方法。以Swin Transformer为组件,架构了Conv Swin Transformer Block模块,利用卷积层增强图像全局特征的表征能力。构建了多尺度自注意力编码-解码网络,实现了图像全局特征提取与全局特征重构;设计了特征序列融合层,利用SoftMax操作计算特征序列的注意力权重系数,突出了源图像各自的显著特征,实现了端到端的红外与可见光图像融合。在TNO、Roadscene数据集上的实验结果表明,该方法在主观视觉描述和客观指标评价都优于其他典型的传统与深度学习融合方法。本方法结合自注意力机制,利用Transformer建立图像的长距离依赖关系,构建了图像全局特征融合模型,比其他深度学习融合方法具有更优的融合性能和更强的泛化能力。 相似文献
10.