您所在的位置: 成果库 面向显微场景的多聚焦图像融合技术

面向显微场景的多聚焦图像融合技术

发布时间: 2022-10-28

来源: 科技服务团

基本信息

合作方式: 技术许可
成果类型: 发明专利
行业领域:
电子信息技术
成果介绍
由于光学镜头自由度的限制,在成像过程中很难在一个镜头内将深度距离相差很大的物体全部聚焦,因此,通常采用基于图像处理技术的多聚焦图像融合方法,将同一场景下聚焦不同目标的多张图像中各自的清晰区域进行融合,最终获得全清晰图像。随着计算机硬件以及图像处理技术的进步,多种基于不同理论的多聚焦图像融合方法如雨后春笋般涌现,通常多聚焦图像融合方法可分为三大类:基于变换域的融合方法、基于空间域的融合方法、以及基于深度学习的融合方法。 本项目针对多聚焦图像融合领域有标注数据获取困难且现有多聚焦图像融合算法在进行多图融合时效率较低同时在显微成像场景下图像融合时存在较严重失焦扩散效应的问题,提出了一种无监督多聚焦图像融合方法(SESF-Fuse)以及一种最大特征图空间频率融合策略(MSFIFM),实验证明,MSFIFM策略在多图融合场景下能够有效提高融合算法的效率。同时提出一种面向显微成像场景下失焦扩散效应的矫正策略,能够在保证融合图像质量的情况下,有效的降低融合结果中的失焦扩散效应。
成果亮点
成果亮点: 1. 具有自主知识产权,研究成果已公开发明专利: 班晓娟、高鸣飞、马博渊、黄海友、印象. 一种显微成像场景下失焦扩散效应消除方法及装置:中国,*** [P]. 2020-07-08. 班晓娟、郑智予、印象、马博渊、黄海友. 一种多张多聚焦图像融合方法及装置,中国,*** [P] 2020-09-28. 2. 技术先进性:国内先进,提出的无监督多聚焦图像融合算法被发表在PAMI上的文章《Deep Learning-based Multi-focus Image Fusion: A Survey and A Comparative Study》引用并评价为当前无监督图像融合算法中性能最好的算法;提出MSFIFM策略大幅提高多图融合效率;提出面向显微场景的失焦扩散矫正策略,提高了融合图像的质量。
团队介绍
北京科技大学人工智能与三维可视化实验室目前有教师6人(其中教授1人,副教授1人,讲师4人)。负责人班晓娟教授(博导)获得教育部新世纪优秀人才荣誉称号,任中国人工智能学会常务理事及智慧医疗专业委员会主任,中国计算机学会人机交互专业委员会常务委员。近年在Nature子刊,计算机学会推荐的A类顶级国际会议CHI、VR、SIGGRAPH等发表图像处理和流体模拟相关文章多篇。团队致力于计算机视觉以及图形学等领域的应用研究。主持国家级项目10余项,省部级及横向企业项目20余项,发表学术论文300余篇,发明专利10余项,软件著作权20余项,获省部级以上科研教学奖励4项。
成果资料
路演文件
产业化落地方案
点击查看