用于训练卷积神经网络的方法和系统与流程

    专利查询2022-08-16  104



    1.本发明涉及一种用于训练卷积神经网络的方法。


    背景技术:

    2.图像去噪用于处理被加性噪声污染的图像,以在保持图像特征的同时实现降噪。本发明人已经确定,当用户试图通过最小化能量输入来最小化光漂白和光毒性时,可引入加性噪声,这可通过以增加噪声量为代价减少曝光时间或增益来实现。在典型的工作流程中,在低曝光时间或增益下采集图像,导致低质量图像,其可能包含来自电子源的噪声(例如高斯噪声、椒盐噪声和散粒噪声)或由于来自相机传感器的量化、灵敏度或热而导致的依赖于样本的高频噪声。


    技术实现要素:

    3.本发明解决的问题是如何获得具有更高信噪比(snr)的图像。
    4.在本发明的一个实施例中,提供了一种用于训练卷积神经网络的计算机实现的方法,包括:接收捕获图像;通过将卷积神经网络应用于捕获图像来生成去噪图像;以及基于高频损失函数、捕获图像和去噪图像来训练卷积神经网络。因此,可重新注入不同于噪声和伪影的高频图案,并且可增加snr。
    5.在实施例的一种可能的实现中,训练卷积神经网络包括最小化卷积神经网络的损失以及高频损失函数的损失。由此,可增加snr,因为在保持采集图像的更高频图案的同时可掩蔽更大量的噪声。
    6.在实施例的一种可能的实现中,高频损失函数包括用于应用于捕获图像和去噪图像的高通滤波函数。这使得采集图像的高频图案能够被重新注入,否则该高频图案可能被识别为噪声,并且随后被掩蔽。
    7.在实施例的一种可能的实现中,训练卷积神经网络包括训练卷积神经网络以识别不存在于去噪图像中但存在于捕获图像中的图案。这使得诸如高频图案的图案能够被识别,否则该图案可能会从采集图像中被掩蔽。
    8.在实施例的一种可能的实现中,损失函数包括高斯拉普拉斯算子函数。其它可能的高通滤波函数包括高斯差分(dog)、盒差分(dob)、小波滤波、sobel滤波、gabor滤波或其它梯度或相位叠加滤波。
    9.在实施例的一种可能的实现中,在应用高斯拉普拉斯算子函数之前,对捕获图像和去噪图像应用高斯平滑。高斯平滑的替代选择包括平均滤波(例如,通过平均像素加权)、双边滤波、非局部均值(nlm)平滑以及块匹配和3d滤波(bm3d)。
    10.在实施例的一种可能的实现中,方法包括将训练的卷积神经网络应用于捕获图像。
    11.在实施例的一种可能的实现中,卷积神经网络是编码器-解码器卷积神经网络。
    12.在实施例的一种可能的实现中,训练卷积神经网络包括:将捕获图像和去噪图像
    划分为随机块;用相邻像素值交换每个随机块中的像素值;以及基于包括交换像素值的捕获图像和包括交换像素值的去噪图像的随机块来训练卷积神经网络。
    13.在实施例的一种可能的实现中,通过以下方式训练卷积神经网络:将捕获图像划分为随机块;用相邻像素值交换每个随机块中的像素值;以及基于包括交换像素值的捕获图像的随机块来训练卷积神经网络。
    14.在实施例的一种可能的实现中,通过基于包括交换像素值的捕获图像的随机块最小化卷积神经网络的均方误差来训练卷积神经网络。
    15.在本发明的另一个实施例中,提供了一种系统,该系统包括一个或多个处理器和一个或多个存储设备,其中系统被配置为执行上述方法。
    16.在实施例的一种可能的实现中,系统包括耦接到处理器的成像设备,成像设备用于采集显微图像。
    17.在本发明的另一个实施例中,提供了一种训练的卷积神经网络,该训练的卷积神经网络是通过以下来训练的:接收捕获图像;通过将卷积神经网络应用于捕获图像来生成去噪图像;以及基于高频损失函数、捕获图像和去噪图像来调整卷积神经网络以获得训练的卷积神经网络。
    18.在本发明的另一个实施例中,提供了一种计算机程序,该计算机程序具有用于执行上述方法的程序代码。
    附图说明
    19.结合附图,参考以下给出的实施例的描述,可理解本公开,其中:
    20.图1示出了根据本发明的一个实施例的用于训练卷积神经网络的方法;
    21.图2示出了根据本发明的另一个实施例的用于训练卷积神经网络的方法;
    22.图3为处理前的采集图像;
    23.图4是根据本发明的一个实施例的使用训练的卷积神经网络处理后的图像;
    24.图5是采集图像的真实状况;以及
    25.图6示出了根据本发明的另一个实施例的用于执行用于训练卷积神经网络的方法的系统。
    具体实施方式
    26.发明人已经确定,使用已知方法的去噪图像常常丢失高频信息,这可能导致图像看起来比原始图像更模糊,并且常常丢失小细节。发明人已经确定,通过应用高通滤波器,可将去噪图像与原始噪声图像进行比较,并且可训练神经网络以识别在去噪图像中缺失但存在于原始噪声图像中的图案。这些图案是成像对象的细节,而不是噪声或其它伪影的细节。换言之,发明人已经确定,重新注入不同于噪声和伪影的高频图案可加强小细节上的边缘。当应用于已知的去噪方法时,本文所述的方法增强了(基于峰值信噪比(psnr)和结构相似性指数测量(ssim)的)snr。
    27.图1示出了根据本发明的一个实施例的用于训练卷积神经网络的方法。卷积神经网络形成动态训练系统的一部分,其可由制造商预训练,但是在其应用期间由客户训练。由制造商执行的预训练可包括应用本发明实施例的方法。卷积神经网络是机器学习算法或模
    型的形式。
    28.在图1中,有三个整体过程步骤。这些步骤是预训练100,训练102和处理104。
    29.在步骤100中,例如,使用数个显微图像来预训练卷积神经网络。步骤100可由制造商和/或客户执行。采集捕获图像106,并将其剪切或划分为随机块108。这些块108通常是正方形的并且表示采集图像106的部分,并且每个块可与相邻的块重叠。基于图像的大小和所使用的图像处理设备的处理能力来确定每个块的大小,并且例如,可高达256
    ×
    256像素。典型的块可以是64
    ×
    64像素,使得512
    ×
    512像素的图像能被划分为64个块。使用均匀随机分布从每个随机块108中选择一些像素,并且所选择的像素的像素值被来自相邻像素的值交换或替换,以产生包括交换像素值112的捕获图像的随机块。通常,在块内可交换或替换1%到10%之间的像素。图像110示出了随机块108中的一个的放大部分,图像114示出了包括交换像素值112的捕获图像的随机块中的一个的放大部分。
    30.包括交换像素值112的捕获图像的随机块随后被用于预训练卷积神经网络(cnn)116,以便获得用于对图像进行去噪的分割掩膜118。在该示例中,训练了u-net,但是应当理解,也可使用其它收缩-扩展或编码器-解码器cnn,诸如resnet(例如,resnet-18)。具体而言,可使用在合并层中具有子像素卷积(像素混洗)的动态u-net(编码器resnet-18)。此外,例如,该示例中的卷积神经网络基于像素概率估计,以及最小化卷积神经网络的均方误差。
    31.对于若干采集的显微图像重复步骤100。
    32.在步骤102中,基于高频损失函数、捕获图像和去噪图像来训练来自步骤100的预训练的卷积神经网络。步骤102可由制造商和/或客户执行。通过将cnn116应用于采集图像106来获得图像120,其可被称为去噪图像120。在步骤102中对捕获图像106和去噪图像120两者重复步骤100中所描述的过程。即,将捕获图像106和去噪图像120划分为随机块并且用相邻像素值交换或替换每个随机块中的像素值以获得包括交换像素值112的捕获图像的随机块和包括交换像素值122的去噪图像的随机块。
    33.基于包括交换像素值112的捕获图像的随机块和包括交换像素值122的去噪图像的随机块以及高频损失函数来训练cnn116。在本示例中使用的损失函数可被表示为:
    34.hfen loss:l=α||hp(x-f(x))||235.其中α是在0和1之间的值,其随着时期(epoch)的数目的增加向1增大,f(x)是包括交换像素值122的去噪图像的随机块,x是包括交换像素值112的捕获图像的随机块。hp是高通滤波器。例如,高通滤波器是高斯拉普拉斯算子函数,二阶导数。高斯平滑也可在用于训练cnn116之前应用于图像。高斯平滑的替代选择包括平均滤波(例如,通过平均像素加权)、双边滤波、非局部均值(nlm)平滑以及块匹配和3d滤波(bm3d)。在该示例中,高斯拉普拉斯算子函数用于高通滤波,但其它高通滤波器包含高斯差分(dog)、盒差分(dob)、小波滤波、sobel滤波、gabor滤波或其它梯度或相位叠加滤波。
    36.通过最小化以下表达式126来训练卷积神经网络116:
    [0037][0038]
    其中n是当前批次的随机块的数量,m是被掩蔽的像素(即交换或替换的像素)的数
    量,α是在0和1之间的值,其随着时期的数量的增加向1增大,f(x)是包括交换像素值122的去噪图像的随机块,x是包括交换像素值112的捕获图像的随机块,hp是高通滤波器,并且loss是基于去噪图像的分割图。
    [0039]
    对所得到的cnn124训练以最小化卷积神经网络的损失以及高频损失函数的损失。通过使用捕获图像106和去噪图像120两者,所得到的cnn124能够识别不存在于去噪图像中但存在于捕获图像中的图案。这是因为发明人已经确定,高频特征有时可被cnn识别为噪声,而高通滤波器使得这些高频特征不能被识别为噪声。
    [0040]
    在步骤104中,应用训练的cnn124对用于训练的图像或类似的图像进行去噪,实现比用于去噪的默认方法更高的psnr。例如,cnn124被应用于图像128以获得处理图像130,图像128表示原始的采集图像106或与其类似的图像。
    [0041]
    可根据步骤102和104处理另外的显微图像。
    [0042]
    图2示出了根据本发明的另一个实施例的用于训练卷积神经网络的方法200。该方法包括:接收捕获图像202;通过将卷积神经网络应用于捕获图像来生成去噪图像204;以及基于高频损失函数、捕获图像和去噪图像来训练卷积神经网络206。
    [0043]
    图3为处理前的采集图像,例如显微图像。
    [0044]
    图4是根据本发明的一个实施例的使用训练的卷积神经网络处理后的图像。从图4中的图像可明显看出,snr相对于采集图像得到了改善。
    [0045]
    图5是采集图像的真实状况。
    [0046]
    图6示出了被配置为执行本文所述的方法的系统600的示意图。系统600包括显微镜602和计算机系统604。显微镜602被配置为拍摄图像并连接到计算机系统604。计算机系统604被配置为执行本文所述的方法的至少一部分。计算机系统604可被配置为执行机器学习算法。计算机系统604和显微镜602可以是分离的实体,但也可一起集成在一个共同的外壳中。计算机系统604可以是显微镜602的中央处理系统的一部分和/或计算机系统604可以是显微镜602的子组件,诸如显微镜602的传感器、致动器、照相机或照明单元等,的一部分。
    [0047]
    计算机系统604可以是具有一个或多个处理器和一个或多个存储设备的本地计算机设备(例如,个人计算机、笔记本电脑、平板电脑或手机)或者可以是分布式计算机系统(例如,具有分布在各个位置(例如,在本地客户端和/或一个或多个远程服务器场和/或数据中心)的一个或多个处理器和一个或多个存储设备的云计算系统616)。计算机系统604可包括任何电路或电路的组合。在一个实施例中,计算机系统604可包括可以是任何类型的一个或多个处理器606。如本文所使用的,处理器可指任何类型的计算电路,诸如但不限于微处理器、微控制器、复杂指令集计算(cisc)微处理器、精简指令集计算(risc)微处理器,超长指令字(vliw)微处理器、图形处理器608、数字信号处理器(dsp)、多核处理器、例如显微镜或显微镜部件(例如,照相机)的现场可编程门阵列(fpga)或任何其它类型的处理器或处理电路。可包括在计算机系统604中的其它类型的电路可以是定制电路、专用集成电路(asic)等,诸如用于无线设备如移动电话、平板电脑、便携计算机、双向无线电设备和类似电子系统中的一个或多个电路(诸如通信电路)。计算机系统604可包括一个或多个存储设备610,其可包括适合于特定应用的一个或多个存储器元件,诸如随机存取存储器(ram)形式的主存储器、一个或多个硬盘驱动器和/或处理诸如光盘(cd)、闪存卡、数字视频盘(dvd)等可移动介质的一个或多个驱动器。计算机系统602还可包括显示设备612、一个或多个扬
    声器以及键盘和/或控制器614,其可包括鼠标、追踪球、触摸屏、语音识别设备或允许系统用户向计算机系统604输入信息和从计算机系统604接收信息的任何其他设备。
    [0048]
    如本文所用,术语“和/或”包括一个或多个相关联的所列项目的任何和所有组合,并且可缩写为“/”。
    [0049]
    虽然已经在装置的上下文中描述了一些方面,但是清楚的是,这些方面还表示对应的方法的描述,其中块或设备对应于方法步骤或方法步骤的特征。类似地,在方法步骤的上下文中描述的方面也表示对对应装置的对应块或项目或特征的描述。
    [0050]
    一些或所有方法步骤可由(或使用)硬件装置来执行,例如,处理器、微处理器、可编程计算机或电子电路。在一些实施例中,一些最重要的方法步骤中的一个或多个可由此类装置执行。
    [0051]
    根据某些实现要求,本发明的实施例可用硬件或软件来实现。该实现可使用非瞬态存储介质来执行,诸如数字存储介质,例如,软盘、dvd、蓝光、cd、rom、prom和eprom、eeprom或flash存储器,其上存储有电子可读控制信号,该电子可读控制信号与可编程计算机系统协作(或能够协作),从而执行相应的方法。因此,该数字存储介质可以是计算机可读的。
    [0052]
    根据本发明的一些实施例包括具有电可读控制信号的数据载体,该电可读控制信号能够与可编程计算机系统协作,从而执行本文所述的方法之一。
    [0053]
    通常,本发明的实施例可实现为具有程序代码的计算机程序产品,当计算机程序产品在计算机上运行时,程序代码可操作用于执行方法之一。例如,该程序代码可存储在机器可读载体上。
    [0054]
    其它实施例包括计算机程序,计算机程序存储在机器可读载体上用于执行本文所述的方法之一。
    [0055]
    换言之,因此,本发明的一个实施例是具有程序代码的计算机程序,当计算机程序在计算机上运行时,程序代码用于执行本文所述的方法之一。
    [0056]
    因此,本发明的另一个实施例是一种存储介质(或数据载体或计算机可读介质),包括存储在其上的计算机程序,当处理器执行该计算机程序时,该计算机程序用于执行本文所述的方法之一。该数据载体、数字存储介质或记录介质通常是有形的和/或非过渡性的。本发明的另一个实施例是本文所述的包括处理器和存储介质的装置。
    [0057]
    因此,本发明的另一个实施例是表示用于执行本文所述的方法之一的该计算机程序的数据流或信号序列。例如,该数据流或信号序列可被配置为经由数据通信连接(例如,经由因特网)传输。
    [0058]
    另一个实施例包括处理装置,例如,计算机或可编程逻辑器件,其被配置为或适于执行本文所述的方法之一。
    [0059]
    另一个实施例包括其上安装有用于执行本文所述的方法之一的该计算机程序的计算机。
    [0060]
    根据本发明的另一个实施例包括被配置为将用于执行本文所述的方法之一的计算机程序(例如,电子地或光学地)传送到接收机的装置或系统。例如,该接收机可以是计算机、移动设备、存储设备等。例如,该装置或系统可包括用于将该计算机程序传送到该接收机的文件服务器。
    [0061]
    在一些实施例中,可编程逻辑器件(例如,现场可编程门阵列)可用于执行本文所述的方法的一些或全部功能。在一些实施例中,现场可编程门阵列可与微处理器协作以执行本文所述的方法之一。通常,该方法优选地由任何硬件装置执行。
    [0062]
    实施例可基于使用机器学习模型或机器学习算法。机器学习可指算法和统计模型,计算机系统可用该算法和统计模型来执行特定任务而不使用显式指令,而是依赖于模型和推理。例如,在机器学习中,代替基于规则的数据变换,可使用从历史和/或训练数据的分析推断的数据变换。例如,可使用机器学习模型或使用机器学习算法来分析图像的内容。为了使机器学习模型分析图像的内容,可使用训练图像作为输入并使用训练内容信息作为输出来训练机器学习模型。通过使用大量的训练图像和/或训练序列(例如,单词或句子)和相关联的训练内容信息(例如,标签或注释)来训练机器学习模型,机器学习模型“学习”以识别图像的内容,因此可使用机器学习模型来识别不包括在训练数据中的图像的内容。相同的原理也可用于其他类型的传感器数据:通过使用训练传感器数据和期望的输出来训练机器学习模型,机器学习模型“学习”传感器数据和输出之间的变换,该变换可用于基于提供给机器学习模型的非训练传感器数据来提供输出。所提供的数据(例如:传感器数据,元数据和/或图像数据)可被预处理以获得特征向量,该特征向量被用作机器学习模型的输入。
    [0063]
    可使用训练输入数据来训练机器学习模型。上面指定的例子使用称为“监督学习”的训练方法。在监督学习中,使用多个训练样本来训练机器学习模型,其中每个样本可包括多个输入数据值和多个期望的输出值,即每个训练样本与期望的输出值相关联。通过指定训练样本和期望的输出值两者,机器学习模型基于与训练期间提供的样本相似的输入样本“学习”要提供的输出值。除了监督学习之外,还可使用半监督学习。在半监督学习中,一些训练样本缺少对应的期望输出值。监督式学习可基于监督式学习算法(例如,分类算法,回归算法或相似性学习算法)。当输出被限制为有限的一组值(分类变量)时,即输入被分类为有限的一组值中的一个时,可使用分类算法。当输出可具有任何数值(在范围内)时,可使用回归算法。相似性学习算法可类似于分类和回归算法两者,但是基于使用相似性函数从示例中学习,该相似性函数测量两个对象如何相似或相关。除了监督或半监督学习之外,可使用无监督学习来训练机器学习模型。在无监督学习中,可(仅)提供输入数据,并且可使用无监督学习算法来找到输入数据中的结构(例如,通过对输入数据进行分组或聚类,在数据中找到共性)。聚类是将包括多个输入值的输入数据分配到子集(集群)中,使得同一集群内的输入值根据一个或多个(预定义的)相似性准则而相似,而与包括在其它聚类中的输入值不相似。
    [0064]
    强化学习是第三组机器学习算法。换言之,强化学习可用于训练机器学习模型。在强化学习中,一个或多个软件行为者(称为“软件代理”)被训练为在环境中采取行动。基于所采取的动作,计算奖励。强化学习是基于训练一个或多个软件代理来选择增加累积奖励的动作,从而导致软件代理在其所给予的任务中变得更好(如通过增加奖励所证明的)。
    [0065]
    此外,一些技术可应用于机器学习算法中的一些。例如,可使用特征学习。换言之,机器学习模型可至少部分地使用特征学习来训练,和/或机器学习算法可包括特征学习组件。特征学习算法(可称为表征学习算法)可将信息保存在它们的输入中,而且还以使其有用的方式对其进行变换,常常作为执行分类或预测之前的预处理步骤。例如,特征学习可基
    于主成分分析或聚类分析。
    [0066]
    在一些示例中,可使用异常检测(即异常值检测),其目的在于提供通过与大多数输入或训练数据显著不同而引起怀疑的输入值的标识。换言之,机器学习模型可至少部分地使用异常检测来训练,和/或机器学习算法可包括异常检测组件。
    [0067]
    在一些示例中,机器学习算法可使用决策树作为预测模型。换言之,机器学习模型可基于决策树。在决策树中,关于项目(例如,一组输入值)的观察可由决策树的分支来表示,并且对应于项目的输出值可由决策树的叶子来表示。决策树可支持离散值和连续值两者作为输出值。如果使用离散值,则决策树可表示为分类树,如果使用连续值,则决策树可表示为回归树。
    [0068]
    关联规则是可在机器学习算法中使用的另一种技术。换言之,机器学习模型可基于一个或多个关联规则。通过识别大量数据中的变量之间的关系来创建关联规则。机器学习算法可识别和/或利用一个或多个关系规则,该关系规则表示从数据导出的知识。例如,该规则可用于存储、操作或应用该知识。
    [0069]
    机器学习算法通常基于机器学习模型。换言之,术语“机器学习算法”可表示可用于创建、训练或使用机器学习模型的一组指令。术语“机器学习模型”可表示数据结构和/或规则集,该数据结构和/或规则集表示所学习的知识(例如,基于由机器学习算法执行的训练)。在实施例中,机器学习算法的使用可暗示底层机器学习模型(或多个底层机器学习模型)的使用。机器学习模型的使用可暗示机器学习模型和/或作为机器学习模型的数据结构/规则集由机器学习算法来训练。
    [0070]
    例如,机器学习模型可以是人工神经网络(ann)。ann是受生物神经网络启发的系统,诸如可在视网膜或大脑中找到。ann包括多个互连的节点和节点之间的多个连接,即所谓的边缘。通常有三种类型的节点,接收输入值的输入节点、(仅)连接到其它节点的隐藏节点以及提供输出值的输出节点。每个节点可表示人工神经元。每个边缘可从一个节点向另一个节点发送信息。节点的输出可被定义为其输入的(非线性)函数(例如,其输入之和)。节点的输入可在基于边缘或提供输入的节点的“权重”的函数中使用可在学习过程中调整节点和/或边的权重。换言之,人工神经网络的训练可包括调整人工神经网络的节点和/或边缘的权重,即,针对给定的输入实现期望的输出。
    [0071]
    可替换地,机器学习模型可以是支持向量机、随机森林模型或梯度增强模型。支持向量机(即,支持向量网络)是具有相关联的学习算法的监督学习模型,学习算法可用于分析数据(例如,在分类或回归分析中)。支持向量机(即,支持向量网络)是具有相关联的学习算法的监督学习模型,学习算法可用于分析数据(例如,在分类或回归分析中)。可训练支持向量机以将新的输入值分配给两个类别之一。可替换地,机器学习模型可以是贝叶斯网络,其是概率有向非循环图形模型。贝叶斯网络可使用有向非循环图来表示一组随机变量及其条件依赖性。可替换地,机器学习模型可基于遗传算法,其是模拟自然选择过程的搜索算法和启发式技术。
    [0072]
    附图标记
    [0073]
    100:预训练步骤
    [0074]
    102:训练步骤
    [0075]
    104:处理步骤
    [0076]
    106:采集图像
    [0077]
    108:随机块
    [0078]
    110:随机块的放大部分
    [0079]
    112:包括交换像素值的捕获图像的随机块
    [0080]
    114:包括交换像素值的随机块的放大部分
    [0081]
    116:预训练的卷积神经网络(cnn)
    [0082]
    118:分割掩模
    [0083]
    120:去噪图像
    [0084]
    122:包括交换像素值的去噪图像的随机块
    [0085]
    124:训练的卷积神经网络(cnn)
    [0086]
    126:待最小化的函数
    [0087]
    128:类似于采集图像106的采集的图像
    [0088]
    130:去噪图像
    [0089]
    200:用于训练卷积神经网络的方法
    [0090]
    202:接收捕获图像
    [0091]
    204:通过将卷积神经网络应用于捕获图像来生成去噪图像
    [0092]
    206:基于高频损失函数、捕获图像和去噪图像来训练卷积神经网络
    [0093]
    600:系统
    [0094]
    602:显微镜
    [0095]
    604:计算机系统
    [0096]
    606:一个或多个处理器
    [0097]
    608:图形处理器
    [0098]
    610:一个或多个存储设备
    [0099]
    612:显示设备
    [0100]
    614:键盘和/或控制器
    [0101]
    616:云计算系统

    技术特征:
    1.一种用于训练卷积神经网络(116)的计算机实现的方法(200),包括:接收(202)捕获图像(106);通过将所述卷积神经网络应用于所述捕获图像来生成(204)去噪图像(120);以及基于高频损失函数、所述捕获图像和所述去噪图像来训练(206)所述卷积神经网络。2.根据权利要求1所述的方法,其中训练所述卷积神经网络包括最小化所述卷积神经网络的损失以及所述高频损失函数的损失。3.根据上述任一项权利要求所述的方法,其中所述高频损失函数包括用于应用于所述捕获图像和所述去噪图像的高通滤波函数。4.根据上述任一项权利要求所述的方法,其中训练所述卷积神经网络包括训练所述卷积神经网络以识别不存在于所述去噪图像中但存在于所述捕获图像中的图案。5.根据上述任一项权利要求所述的方法,其中所述损失函数包括高斯拉普拉斯算子函数。6.根据权利要求5所述的方法,包括在应用所述高斯拉普拉斯算子函数之前,对所述捕获图像和所述去噪图像应用高斯平滑。7.根据上述任一项权利要求所述的方法,包括将训练的卷积神经网络应用于所述捕获图像。8.根据上述任一项权利要求所述的方法,其中所述卷积神经网络是编码器-解码器卷积神经网络。9.根据上述任一项权利要求所述的方法,其中训练所述卷积神经网络包括:将所述捕获图像和所述去噪图像划分为随机块;用相邻像素值交换每个随机块中的像素值;以及基于包括交换像素值(112)的所述捕获图像和包括交换像素值(122)的所述去噪图像的所述随机块来训练所述卷积神经网络。10.根据上述任一项权利要求所述的方法,其中通过以下方式训练所述卷积神经网络:将所述捕获图像划分为随机块(108);用相邻像素值交换每个随机块中的像素值;以及基于包括交换像素值(112)的所述捕获图像的所述随机块来训练所述卷积神经网络。11.根据权利要求10所述的方法,其中通过基于包括交换像素值的所述捕获图像的所述随机块最小化卷积神经网络的均方误差来训练所述卷积神经网络。12.一种系统(600),所述系统包括一个或多个处理器(606)和一个或多个存储设备(610),其中所述系统被配置为执行权利要求1至11中任一项所述的方法。13.根据权利要求12所述的系统,包括耦接到所述处理器的成像设备(602),所述成像设备(602)用于采集显微图像。14.一种训练的卷积神经网络,所述训练的卷积神经网络通过以下方式训练:接收捕获图像;通过将卷积神经网络应用于所述捕获图像来生成去噪图像;以及基于高频损失函数、所述捕获图像和所述去噪图像来调整所述卷积神经网络以获得所述训练的卷积神经网络。15.一种计算机程序,所述计算机程序具有用于执行根据权利要求1至11中任一项所述
    的方法的程序代码。

    技术总结
    描述了一种用于训练卷积神经网络的计算机实现的方法。该方法包括:接收捕获图像;通过将卷积神经网络应用于捕获图像来生成去噪图像;以及基于高频损失函数、捕获图像和去噪图像来训练卷积神经网络。像来训练卷积神经网络。像来训练卷积神经网络。


    技术研发人员:何塞
    受保护的技术使用者:莱卡微系统CMS有限责任公司
    技术研发日:2021.11.05
    技术公布日:2022/5/25
    转载请注明原文地址:https://tc.8miu.com/read-8315.html

    最新回复(0)