基于改进Transformer的结构化图像超分辨网络 |
| |
引用本文: | 吕鑫栋,李娇,邓真楠,冯浩,崔欣桐,邓红霞.基于改进Transformer的结构化图像超分辨网络[J].浙江大学学报(自然科学版 ),2023(5):865-874+910. |
| |
作者姓名: | 吕鑫栋 李娇 邓真楠 冯浩 崔欣桐 邓红霞 |
| |
作者单位: | 太原理工大学信息与计算机学院 |
| |
基金项目: | 2022年浙江大学CAD&CG国家重点实验室开放课题项目(A2221); |
| |
摘 要: | 针对现有的结构化图像超分辨重建算法大多只能解决特定单一种类的结构化图像超分辨问题,提出一种基于改进Transformer的结构化图像超分辨率网络(TransSRNet).该网络利用Transformer的自注意力机制在空间序列中挖掘大范围的全局信息.采用沙漏块结构搭建空间注意力单元,关注低分辨率空间和高分辨率空间在局部区域的映射关系,提取图像映射过程中的结构化信息,使用高效通道注意力模块对自注意力模块和空间注意力模块做特征融合.在高度结构化CelebA、Helen、TCGA-ESCA和TCGA-COAD数据集上的模型评估结果表明,相较于主流超分辨算法,TransSRNet整体性能表现更好.在放大因子为8时,人脸数据集和医学峰值信噪比(PRNR)可以分别达到28.726、26.392 dB,结构相似性(SSIM)可以分别达到0.844、0.881.
|
关 键 词: | 卷积神经网络 Transformer 自注意力 空间注意力 图像超分辨率重建 |
|
|