基于解耦-融合网络的无透镜全息显微成像相位恢复方法

    专利查询2022-07-08  204



    1.本技术涉及计算机视觉及显微成像领域,具体而言,涉及一种基于解耦-融合网络的无透镜全息显微成像相位恢复方法,可用于同轴全息无透镜显微成像系统的振幅和相差显微成像。


    背景技术:

    2.在医学及生物学的研究中,显微镜是一种常用的研究工具,其在观察病理切片,微生物结构等方面起到了极其重要的作用。但是传统显微镜由于其结构特点和成像原理会带来例如视场与放大倍率不兼容,透镜的像差和色度失真等问题,并且无法记录样本深度信息,对于半透明的相位型物体成像不佳。无透镜全息显微成像技术是一种基于光学全息原理,利用cmos或 ccd等光电传感器靠近样本平面,在相干光场或部分相干光场中采集样本亮度图像,利用算法恢复样本平面完整波前信息的技术。
    3.无透镜全息显微成像系统中,将样本平面靠近cmos或 ccd光电传感器平面,两个平面的轴向距离称为离焦距离,通常在几百微米到几毫米之间,系统中使用发出完全相干光或部分相干光的光源照射样本平面使其在cmos或ccd光电传感器平面投影成像,该成像过程在近场区域近似菲涅尔衍射模型, cmos或ccd光电传感器记录下的亮度图像为光场中样本的干涉全息图,从采集的单帧或多帧全息图中,通过相位恢复算法,能够求解样本平面包含了振幅及相位的波前复振幅信息,从而实现对样本平面的振幅或相差成像。无透镜显微成像系统相较于传统光学显微镜拥有视场大,系统结构简单,无透镜畸变、像差等特点,并且从恢复的相位信息中可以计算深度信息进而实现三维成像。
    4.在无透镜全息显微成像系统中,利用采集的全息图亮度图像求解相位的常用方法可以分为基于传统迭代的相位恢复方法和基于神经网络的相位恢复方法两类,其中基于传统迭代方法的相位恢复方法,例如:gerchberg和saxton于1972年在题目为“a practical algorithm for the determination of the phase fromimage and diffraction plane pictures”的文章中提出的g-s相位迭代算法,该方法随机生成初始相位,与样本平面采集的亮度图像合成复振幅,将复振幅在样本平面和成像平面之间迭代投影,并利用两个平面上已知的亮度图像替换振幅,在迭代过程中修正相位信息,直到满足终止条件停止迭代。利用这种方法能够求得满足一定误差要求的相位信息。之后的一些研究提出的基于迭代方法的相位恢复算法,多在g-s迭代相位恢复算法上加以改进。这类迭代算法在数轮迭代之后会陷入局部最优解导致误差下降缓慢,并且都不可避免地需要进行大量的计算,时间成本较高。
    5.随着深度学习在图像恢复,图像重构等图像问题领域取得卓越的进展,众多学者开始探讨将神经网络应用在相位恢复问题上以解决传统方法所面临的诸多问题,目前,典型的基于深度学习的相位恢复方法有以下几种:yichen wu等人于2018年在期刊《optica》上发表了一篇题目为“extended depth-of-fieldin holographic imaging using deep-learning-based autofocusing andphase recovery”的文章,公开了一种基于深度学习
    的相位恢复方法,利用u型网络结构实现端到端的相位恢复。该方法在大量带有真实标签的数据集上进行训练,学习固定离焦距离下采集的单帧全息图的亮度图像到样本平面复振幅的映射关系,该方法的优点在于:在应用中,对于准确获取样本平面到成像平面的离焦距离的精度要求不高,因为该方法在一定的离焦距离范围内具有鲁棒性。但是,这种方法需要大量带有真实标签的数据用于训练,因此获数据集的工作量巨大,并且网络的可解释性差,另外,在脱离了数据集风格的实验数据上的重构性能不佳,具有泛化性能的局限性。
    6.fei wang等人于2020年在期刊《light:science& applications》上发表了一篇题目为“phase imaging with anuntrained neural network”的文章,公开了一种结合了物理模型到深度神经网络的相位恢复方法,该方法使用一种编解码的网络结构,编码端使用u型网络生成所求复振幅的预测,解码端利用已知的菲涅尔衍射物理模型,将编码端预测的复振幅正向传播到成像平面上并计算亮度信息,与成像平面上实际采集到的亮度图像计算像素值误差,使用梯度下降的方法优化网络参数,实现自监督学习,因而不需要获取数据的真实标签。另外,这种深度学习方法无需训练,由网络结构设计手工先验知识,无需从训练集中获得学习先验知识,使用时输入单帧采集的全息图,在自监督的学习过程中训练模型参数降低损失函数,最后将编码端网络输出的结果作为复振幅的预测,这种非端到端的网络结构在求解相位时同样存在大量迭代过程,时间成本较高,且该方法与前述yichen wu等人的方法都仅使用一张离焦全息图作约束,因此重构结果误差较高,视觉效果较差。
    7.综上所述,现有的相位恢复方法存在可解释性差、时间成本高、图像重构准确率低的问题。


    技术实现要素:

    8.本发明的目的在于,针对上述现有技术中的不足,提供一种基于解耦-融合网络的无透镜全息显微成像相位恢复方法,以解决现有相位恢复方法中存在的可解释性差、时间成本高、图像重构准确率低的问题。
    9.本发明相位恢复方法的核心技术思路是:使用不同离焦距离下采集的多帧全息图作为相位恢复网络的输入,将解耦-融合网络的输出作为所预测的复振幅,并将其结合已知的菲涅尔衍射模型正向传播到各个离焦平面,与各个离焦平面实际采集的亮度图像计算平均绝对误差,将各个离焦平面的平均绝对误差求和作为总的损失函数,并用梯度下降法更新相位恢复网络参数。相位恢复网络的训练过程是自监督的,因此不需要获取数据的真实复振幅标签,本发明在采集或仿真的小型数据集上进行预训练后保存参数作为良好的初始值,在解决实际相位恢复问题时无需由随机参数开始进行大量的梯度下降过程,其收敛速度快于未经训练的生成式网络,本发明方法需要的时间较少,时间成本低。由于卷积神经网络在本发明所提出的解耦-融合网络中具有明确的任务,学习的是简单的非线性映射,而非复杂的图像重构逆过程,因此提升了相位恢复网络的泛化性能和可解释性。另外,本发明方法使用多帧约束取代单帧约束,降低了重构误差,提升了振幅或相差成像的视觉效果,因此本发明方法的重构准确率较高,重构图像的视觉效果较好。
    10.具体地,本发明采用的技术方案如下:
    11.本技术提供一种基于解耦-融合网络的无透镜全息显微成像相位恢复方法,该方法包括如下步骤:s1,测量待恢复无透镜全息显微成像系统的参数;s2,获取样本并构建训
    练样本集和测试样本集;s3,构建相位恢复网络;s4,对构建的相位恢复网络进行训练;s5,进行相位恢复求解复振幅。
    12.更进一步地,步骤s1中的参数包括相干光源的中心波长、光电传感器的像素、离焦平面距离样本平面的离焦距离。
    13.更进一步地,步骤s2中的样本为待恢复无透镜全息显微成像系统中采集的m个样本在s个离焦平面的分辨率大小为n
    ×
    n 的亮度图像,得到m组亮度图像数据,共m
    ×
    s张亮度图像,其中m≥300,s≥2,n=768。
    14.更进一步地,步骤s2中的训练样本集和测试样本集为将m 组亮度图像数据按照9:1的比例划分得到。
    15.更进一步地,步骤s3中的相位恢复网络包括解耦网络、反向传播菲涅尔衍射层、融合网络、正向传播菲涅尔衍射层、亮度提取层。
    16.更进一步地,解耦网络包括四个下采样模块、四个上采样模块、两个普通卷积模块。
    17.更进一步地,下采样模块包括三个卷积层和一个用作下采样的最大池化层并使用relu激活函数,上采样模块包括两个卷积层和一个用作上采样的反卷积层并使用relu激活函数。
    18.更进一步地,融合网络包括四个下采样模块、四个上采样模块、两个普通卷积模块。
    19.更进一步地,反向传播菲涅尔衍射层包括离散傅里叶变换算子、传递函数乘积模块、离散傅里叶变换的逆变换算子。
    20.更进一步地,正向传播菲涅尔衍射层包括离散傅里叶变换算子、传递函数乘积模块、离散傅里叶变换的逆变换算子。
    21.与现有技术相比,本发明的有益效果:
    22.(1)本发明使用解耦网络从单通道全息亮度图像中解耦出双通道复数矩阵信息,使用融合网络融合多帧采集信息,并与菲涅尔衍射物理模型相结合,其网络学习目标明确,可解释性强;
    23.(2)本发明利用不同离焦距离下采集的多帧亮度图像进行信息的提取,和作为损失函数约束,相位恢复值相较单帧恢复方法更接近真实值,重构准确率较高,重构相差和振幅图像的视觉效果好;
    24.(3)本发明使用的相位恢复网络,在小型数据集上进行训练,保存参数作为梯度下降的初始值,相比于传统不训练的深度学习方法,所需梯度下降轮数更少,利用学习先验知识提升了相位恢复速度。
    附图说明
    25.图1为本发明提供的基于解耦-融合网络的无透镜全息显微成像相位恢复方法的示意图;
    26.图2为本发明提供的基于解耦-融合网络的无透镜全息显微成像相位恢复方法中步骤s3构建的相位恢复网络的示意图;
    27.图3为采集usaf1951分辨率板的在不同离焦距离下的亮度图像,其中图3(a)、图3
    (b)、图3(c)、图3(d)对应的离焦距离分别为0.710mm、1.185mm、1.685mm、2.178mm;
    28.图4为采集小肠上皮细胞样本切片在不同离焦距离下的亮度图像,其中图4(a)、图4(b)、图4(c)、图4(d)对应的离焦距离分别为0.865mm、1.305mm、1.804mm、2.304mm;
    29.图5为利用g-s迭代算法进行相位恢复的结果,其中图5(a)、图5(b)、图5(c)、图5(d)分别为利用g-s迭代算法300轮迭代后对usaf1951分辨率板振幅成像结果、usaf1951分辨率板相差成像结果、小肠上皮细胞样本切片振幅成像结果、小肠上皮细胞样本切片相差成像结果;
    30.图6为利用feiwang等人提出的深度学习算法进行相位恢复的结果,其中图6(a)、图6(b)、图6(c)、图6(d)分别为利用feiwang等人提出的深度学习算法300轮梯度下降后对usaf1951分辨率板振幅成像结果、usaf1951分辨率板相差成像结果、小肠上皮细胞样本切片振幅成像结果、小肠上皮细胞样本切片相差成像结果;
    31.图7为本发明方法进行相位恢复的结果,其中图7(a)、图7(b)、图7(c)、图7(d)分别为本发明方法100轮梯度下降后对usaf1951分辨率板振幅成像结果、usaf1951分辨率板相差成像结果、小肠上皮细胞样本切片振幅成像结果、小肠上皮细胞样本切片相差成像结果。
    具体实施方式
    32.为了使本发明的实施过程更加清楚,下面将会结合附图进行详细说明。
    33.本发明提供了一种基于解耦-融合网络的无透镜全息显微成像相位恢复方法,如图1所示,具体步骤如下:
    34.s1,测量待恢复无透镜全息显微成像系统的参数;
    35.无透镜全息显微成像技术是一种基于同轴全息原理,利用cmos/ccd等光电传感器靠近样本平面,在相干光场或部分相干光场中采集样本的亮度图像,亮度图像即为得到的全息图像,利用算法恢复样本平面完整波前信息的技术。具体地,相干光源的中心波长、光电传感器的像元尺寸、离焦平面距离样本平面的离焦距离,这些参数均为传递函数中的参数。为了得到传递函数中的参数,测量相干光源中心波长λ,获取光电传感器的像元尺寸p,本实施例中的传感器以cmos传感器为例,测量任意s个离焦平面距离样本平面的s个离焦距离{lr|r∈1,2,

    ,s},具体地,由于菲涅尔衍射发生在近场区域,离焦距离为0.1mm-3mm,这样才能够使用菲涅尔衍射公式近似光学传播过程。可以固定样本,即样本平面固定,移动光电传感器,即移动离焦平面,也可以固定光电传感器,移动样本;本发明以固定样本,移动光电传感器的系统为例进行阐述,这样有利于维持样本的稳定。
    36.s2,获取样本并构建训练样本集和测试样本集;
    37.本实施例的样本为在无透镜全息显微成像系统中采集的m个样本在s个离焦平面的分辨率大小为n
    ×
    n的亮度图像,得到m组亮度图像数据,共m
    ×
    s张亮度图像,其中,m≥300,这样能够保证训练数据集的充分性;s≥2,至少为两帧,以确保能够进行多帧重构;n=768,能够适应本实施例的显存大小。本实施例使用的是bmp格式图片,并且网络结构较大,对于12gb显存的显卡,使用768
    ×
    768分辨率的图像比较适合,而对于显存更小或更大的其他显卡设备,n的数值需要调整;另外,在768
    ×
    768分辨率的训练样本集上训练的参数,对于其他分辨率的输入也能完成恢复工作,实施时,使用512
    ×
    512或者1024
    ×
    1024分辨率的
    图像输入训练好的相位恢复网络都可以进行恢复,因为神经网络的卷积运算是3
    ×
    3的卷积核滑动运算,所以对于输入的分辨率没有强制要求。随机地,将m组亮度图像数据按照 9:1的比例划分为训练样本集和测试样本集,即m组亮度图像数据中9m/10组亮度图像数据组成训练样本集,其余1m/10组亮度图像数据组成测试样本集。
    38.s3,构建相位恢复网络;
    39.如图2所示,本发明用相位恢复网络代替图像重构逆问题中的非线性映射部分,相位恢复网络使用不同离焦距离下采集到的多帧亮度图像作为输入,解耦网络用于将每帧采集到的单通道亮度图像映射为双通道的复数矩阵,并通过菲涅尔衍射模型反向传播到样本平面。通过融合网络将多个复数矩阵进行信息融合,并输出所预测的复振幅。损失函数端将预测的复振幅通过已知的菲涅尔衍射模型正向传播到各个离焦距离下的采集平面上,与对应平面实际采集的亮度图像计算平均绝对误差,通过梯度的反向传播,使用梯度下降法优化相位恢复网络的参数。图2中的亮度提取层、重构损失、解耦网络、反向传播菲涅尔衍射层、正向传播菲涅尔衍射层均有s个,分别对应s个离焦距离下采集的样本,其中s个重构损失合为一个总损失函数,随着训练的进行由于映射关系不同,s个解耦网络的参数各不相同。
    40.s31,构建相位恢复网络;
    41.如图2所示,相位恢复网络包括解耦网络、反向传播菲涅尔衍射层、融合网络、正向传播菲涅尔衍射层、亮度提取层。解耦网络和融合网络均采用常见的u型网络结构,但每个卷积层的通道数不同。
    42.解耦网络括四个下采样模块、四个上采样模块、两个普通卷积模块,用于将单通道张量的离焦平面亮度图像亮度矩阵 {ir|r∈1,2,

    ,s}解耦为双通道张量的复数矩阵其中第一个通道张量为实部矩阵,第二个通道张量为虚部矩阵,而光波本身为一个复数矩阵,这样更加能够反映实际的成像过程。具体地,每个下采样模块中包括三个卷积层和一个用作下采样的最大池化层并使用relu函数作为前两个卷积层的激活函数,卷积层用于提取特征,使得通道数逐渐增加,其中池化操作会降低分辨率。每个上采样模块中包括一个用作上采样的反卷积层和两个卷积层并使用relu激活函数,其中反卷积层用于增加分辨率。使用残差连接将下采样模块中第二个卷积层的输出张量和第三个卷积层输出的同等大小张量相加,残差结构网络容易优化,能够缓解深度神经网络增加深度带来的梯度消失的问题,同时也能够提升解耦网络的训练速度,降低时间成本;采用跳层连接将下采样模块最大池化层输出的张量和对应上采样模块中反卷积层输出的同等大小张量沿通道方向连接,作为该上采样模块中第一个卷积层的输入,这样能够将较浅的卷积层特征引出,保留丰富的低层级信息,弥补由于池化操作带来的低层级图像信息丢失和分辨率降低,从而提高图像重构的准确率,同时还能够减少梯度消失和网络退化问题。下采样模块、上采样模块、普通卷积模块相关的具体参数设置详见表1。更具体地,解耦网络的设置依次为:第一下采样模块

    第二下采样模块

    第三下采样模块

    第四下采样模块

    第一普通卷积模块

    第一上采样模块

    第二上采样模块

    第三上采样模块

    第四上采样模块

    第二普通卷积模块,其中第一普通卷积模块用于连接解耦网络上采样和下采样的路径,第二普通卷积模块用于使解耦网络输出所需大小的张量信息。
    43.反向传播菲涅尔衍射层包括离散傅里叶变换算子、传递函数乘积模块、离散傅里叶变换的逆变换算子。用于将s个解耦网络输出的复数矩阵由离焦平面反向传播到样本平面,反向传播菲涅尔衍射的线性运算记为{f-1r
    |r∈1,2,

    ,s}:
    [0044][0045]
    其中,f代表离散傅里叶变换算子;f-1
    代表离散傅里叶变换的逆变换算子;f
    x
    和fy为频域单位,hr(f
    x
    ,fy)代表传递函数矩阵,表达式为:
    [0046][0047]
    其中,j为虚数单位;lr为第r个离焦平面到样本平面的离焦距离;λ为光源中心波长;波数k=2π/λ;不同离焦距离下产生的传递函数不同。
    [0048]
    融合网络包括四个下采样模块、四个上采样模块、两个普通卷积模块,用于融合多帧采集的全息图亮度图像的信息,并生成样本平面预测的复振幅具体地,输入层将反向传播菲涅尔衍射层输出的s个复数矩阵求和,每个下采样模块中包括三个卷积层和一个用作下采样的最大池化层并使用relu激活函数,卷积层用于提取特征,使得通道数逐渐增加,其中池化操作会降低分辨率。每个上采样模块中包括两个卷积层和一个用作上采样的反卷积层并使用relu激活函数,其中反卷积层用于增加分辨率,具体参数设置如表1所示。使用残差连接将下采样模块中第二个卷积层的输出张量和第三个卷积层输出的同等大小张量相加,残差结构网络容易优化,能够缓解深度神经网络增加深度带来的梯度消失的问题,同时也能够提升解耦网络的训练速度,降低时间成本;采用跳层连接将下采样模块最大池化层输出的张量和对应上采样模块中反卷积层输出的同等大小张量沿通道方向连接,作为该上采样模块中第一个卷积层的输入,这样能够将较浅的卷积层特征引出,保留丰富的低层级信息,弥补由于池化操作带来的低层级图像信息丢失和分辨率降低,从而提高图像重构的准确率,同时还能够减少梯度消失和网络退化问题。下采样模块、上采样模块、普通卷积模块相关的具体参数设置详见表1。更具体地,融合网络的设置依次为:第五下采样模块

    第六下采样模块

    第七下采样模块

    第八下采样模块

    第三普通卷积模块

    第五上采样模块

    第六上采样模块

    第七上采样模块

    第八上采样模块

    第四普通卷积模块,其中第三普通卷积模块用于连接融合网络上采样和下采样的路径,第四普通卷积模块用于使融合网络输出所需大小的张量信息。
    [0049]
    正向传播菲涅尔衍射层包括离散傅里叶变换算子、传递函数乘积模块、离散傅里叶变换的逆变换算子。用于将融合网络输出的预测复振幅由样本平面正向传播到s个离焦平面,输出s个离焦平面的复振幅预测矩阵
    [0050][0051]
    其中,f代表离散傅里叶变换算子;f-1
    代表离散傅里叶变换的逆变换算子;hr(f
    x
    ,fy)代表传递函数矩阵,f
    x
    和fy为频域单位,为融合网络在样本平面预测的复振幅。
    [0052]
    亮度提取层包括计算模块,用于从正向传播菲涅尔衍射层输出的s个离焦平面复
    振幅预测矩阵中提取出亮度图像矩阵这样方便与光电传感器探测到的实际亮度图像进行对比,求出损失。提取亮度信息的表达式为:
    [0053][0054]
    其中,代表张量的第一个通道,代表复振幅的实部;代表张量的第二个通道,代表复振幅的虚部。
    [0055]
    本发明使用解耦网络从单通道全息亮度图像中解耦出双通道复数矩阵信息,使用融合网络融合多帧采集信息,并与菲涅尔衍射物理模型相结合,网络学习目标明确,可解释性强。
    [0056]
    表1:相位恢复网络中解耦网络、融合网络的参数设置。
    [0057]
    [0058]
    [0059][0060]
    s32,定义相位恢复网络的总损失函数l。
    [0061]
    相位恢复网络的总损失函数l的表达式如下:
    [0062][0063]
    其中,mean(*)为逐像素取均值运算符,为亮度提取层输出的第 r个离焦平面预测的全息图亮度矩阵,ir为第r个离焦平面实际采集到的全息图亮度矩阵。采用1-范数,对细节信息友好,能够有效提高分辨率。由总损失函数l的表达式能够得到采集到的亮度和根据预测的复振幅通过亮度提取得到的亮度之间的差值,差值越小,说明预测的复振幅越准确,差值越大,说明预测的复振幅越不准确,从而能够反映出本发明方法相位恢复的准确度。
    [0064]
    本发明利用不同离焦距离下采集的多帧全息图进行信息的提取,和作为损失函数约束,相位恢复值相较单帧恢复方法更接近真实值,重构准确率较高,重构相差和振幅图像的视觉效果好。
    [0065]
    s4,对构建的相位恢复网络进行训练;
    [0066]
    将训练样本集中的9m/10组在s个离焦平面采集到的亮度图像{ir|r∈1,2,

    ,s}作为本发明相位恢复网络的输入,对相位恢复网络进行j次迭代训练,j大于100,这样确保网络得到充分的训练,具体地,本实施例为300次。每一轮需要遍历所有训练样本集和测试样本集,先将训练样本集中的所有样本依次输入相位恢复网络,用于训练网络,优化网络参数;再将测试样本集中的所有样本依次输入相位恢复网络,用于测试训练后的网络是否需要继续训练。在测试样本集达到一定的损失函数要求后,保存相位恢复网络的参数;在本实施例中选用pytorch框架提供的adam优化器用于优化相位恢复网络中的参数,学习率设置为0.0001,要求在测试样本集上的平均损失小于等于3,这样能够确保预测的准确度,平均损失指的是所有测试样本的总损失l求平均。
    [0067]
    本发明使用的相位恢复网络,只需在小型数据集上进行训练,不需要大量的数据,能够有效地减少训练的时间,减少时间成本,保存参数作为梯度下降的初始值,相比于传统不训练的深度学习方法,所需梯度下降轮数更少,利用学习先验知识提升了相位恢复速度。
    [0068]
    s5,进行相位恢复求解复振幅;
    [0069]
    将步骤s4中保存的参数加载入相位恢复网络中,在与相位恢复网络训练时相同的系统参数下,采集被测样本在s个离焦平面的亮度图像数据,将其输入相位恢复网络,并计算总损失函数,利用adam优化器再次进行梯度下降优化参数k轮,直至在输入数据上总损失函数满足l≤α,其中α为手工选定的损失函数阈值,具体地,损失函数阈值α等于0.5,以确保相位恢复网络的相位恢复准确度,融合网络输出的样本平面复振幅的预测结果即为所
    求复振幅,即求得复振幅完成了相位恢复。
    [0070]
    本发明实施例的实施条件及结果分析:
    [0071]
    1.实施条件;
    [0072]
    本发明方法适用于任何相互兼容的硬件和软件平台,本实施例采用的硬件测试平台是:主频为3.60ghz的intel core i7cpu,16gb的内存;gpu为:nvidia titan xp,12gb显存;软件仿真平台为:windows 10 64位操作系统;软件仿真语言: python;使用深度学习框架:pytorch。
    [0073]
    2.结果分析。
    [0074]
    使用本发明与g-s迭代算法及fei wang等人的方法对同一系统采集的实验数据进行相位恢复。采集的图像如图3所示,得到相差及振幅成像结果如图4所示。
    [0075]
    图3为采集usaf1951分辨率板的在不同离焦距离下的亮度图像,其中图3(a)、图3(b)、图3(c)、图3(d)对应的离焦距离分别为0.710mm、1.185mm、1.685mm、2.178mm。本发明使用多帧不同离焦距离下采集的亮度图像进行信息的提取,和作为损失函数约束,相位恢复值相较单帧恢复方法更接近真实值,重构准确率较高,重构相差和振幅图像的视觉效果好。
    [0076]
    图4为采集小肠上皮细胞样本切片在不同离焦距离下的亮度图像,其中图4(a)、图4(b)、图4(c)、图4(d)对应的离焦距离分别为0.865mm、1.305mm、1.804mm、2.304mm。本发明使用多帧不同离焦距离下采集的亮度图像进行信息的提取,和作为损失函数约束,相位恢复值相较单帧恢复方法更接近真实值,重构准确率较高,重构相差和振幅图像的视觉效果好。
    [0077]
    图5为利用g-s迭代算法进行相位恢复的结果,其中图5(a)、图5(b)、图5(c)、图5(d)分别为利用g-s迭代算法300轮梯度下降后对usaf1951分辨率板振幅成像结果、usaf1951分辨率板相差成像结果、小肠上皮细胞样本切片振幅成像结果、小肠上皮细胞样本切片相差成像结果。具体地,以gerchberg和 saxton于1972年在题目为“a practical algorithm for thedetermination of the phase from image and diffraction planepictures”的文章中公开的方法得到图5的结果。
    [0078]
    图6为利用fei wang等人提出的深度学习算法进行相位恢复的结果,其中图6(a)、图6(b)、图6(c)、图6(d)分别为利用 fei wang等人提出的深度学习算法300轮梯度下降后对 usaf1951分辨率板振幅成像结果、usaf1951分辨率板相差成像结果、小肠上皮细胞样本切片振幅成像结果、小肠上皮细胞样本切片相差成像结果。具体地,以fei wang等人于2020年在期刊《light:science&applications》上发表了一篇题目为“phase imaging with an untrained neural network”的文章中公开的方法得到图6中的结果。
    [0079]
    图7为本发明方法进行相位恢复的结果,其中图7(a)、图 7(b)、图7(c)、图7(d)分别为本发明方法100轮梯度下降后对 usaf1951分辨率板振幅成像结果、usaf1951分辨率板相差成像结果、小肠上皮细胞样本切片振幅成像结果、小肠上皮细胞样本切片相差成像结果。一方面,本发明方法在小型数据集上进行训练,保存参数作为梯度下降的初始值,相比于传统不训练的深度学习方法,所需梯度下降轮数更少,本发明方法迭代轮数100少于两种对比方法的300,本发明方法的相位恢复速度更快。另一方面,通过对比图5、图6、图7可以看出,g-s 迭代算法和现有深度学习方法在相位恢复的结果上,对于样本振幅成像存在明显噪声和阴影,说明g-s迭代算法会较快陷入局部最优解,导致相位恢复的数值不够平滑,本
    发明方法学习了大量数据的先验知识,所以图像更平滑,噪声少,阴影少;现有深度学习方法只使用单张图像,因此约束不够,导致相位恢复数值不够准确,本发明方法使用多帧,约束多,恢复效果更好,数值更准确。本发明方法得到的振幅恢复结果几乎不存在噪声和阴影;对于样本相差成像存在不同程度的过曝现象,本发明方法得到的相位恢复的结果没有明显的过曝现象,具有更好的视觉效果。由于本发明利用不同离焦距离下采集的多帧亮度图像进行信息的提取,和作为损失函数约束,相位恢复值相较单帧恢复方法更接近真实值,重构准确率较高,重构相差和振幅图像的视觉效果好。
    [0080]
    以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
    转载请注明原文地址:https://tc.8miu.com/read-2503.html

    最新回复(0)