首页 | 官方网站   微博 | 高级检索  
     

结合场景描述的文本生成图像方法
引用本文:黄友文,周斌,唐欣.结合场景描述的文本生成图像方法[J].激光与光电子学进展,2021,58(4):182-190.
作者姓名:黄友文  周斌  唐欣
作者单位:江西理工大学信息工程学院,江西赣州341000
基金项目:江西省教育厅科技项目(GJJ180443)。
摘    要:研究基于场景描述文本生成对应图像的方法,针对生成图像常常出现的对象重叠和缺失问题,提出了一种结合场景描述的生成对抗网络模型。首先,利用掩模生成网络对数据集进行预处理,为数据集中的对象提供分割掩模向量。然后,将生成的对象分割掩模向量作为约束,通过描述文本训练布局预测网络,得到各个对象在场景布局中的具体位置和大小,并将结果送入到级联细化网络模型,完成图像的生成。最后,将场景布局与图像共同引入到布局鉴别器中,弥合场景布局与图像之间的差距,得到更加真实的场景布局。实验结果表明,所提模型能够生成与文本描述更匹配的图像,图像更加自然,同时有效地提高了生成图像的真实性和多样性。

关 键 词:图像处理  图像生成  生成对抗网络  场景描述  分割掩模  场景布局
本文献已被 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号