基于深度学习的自动聚焦和相位恢复的全息成像景深扩展
浏览量(208)
全息技术将样品的三维(3D)信息编码为光强形式的记录。然而,为了从全息图中解码原始的样本图像,需要进行自动对焦和相位恢复,这通常是繁琐且耗时的。这里我们演示了一个卷积神经网络(CNN)的方法,它同时执行自聚焦和相位恢复,使扩展全息成像的景深(DOF)和重建速度有了显著的扩展。为此,CNN通过使用成对的随机去聚焦的反向传播全息图和他们相应的焦点相位恢复图像实现训练。在这个训练阶段之后,CNN将一个3D样本的单一反向传播全息图作为输入,从而快速实现相位恢复,以及在显著扩展的景深内重建样本的内聚焦图像。这种基于深度学习的景深扩展方法是非迭代的,并且能显著提高全息图像的从O(nm)到O(1)重建算法时间复杂度,n是指单独的对象点数量或样本内的粒子数,m代表重点搜索空间中需要独立聚焦的每个对象点或粒子。这些结果强调了利用机器学习提供的数据支持的统计图像重建方法所创造了一些独特的机会,并且我们认为本文所提出的方法可以广泛地适用于计算扩展其他成像方式的景深。
图1 HIDEF CNN训练流程图
分享至好友和朋友圈
免责声明:
网站内容来源于互联网、原创,由网络编辑负责审查,目的在于传递信息,提供专业服务,不代表本网站及新媒体平台赞同其观点和对其真实性负责。如因内容、版权问题存在异议的,请在 20个工作日内与我们取得联系,联系方式:021-80198330。网站及新媒体平台将加强监控与审核,一旦发现违反规定的内容,按国家法规处理,处理时间不超过24小时。