样本采样方法、装置、系统、电子设备及存储介质与流程

    专利查询2022-07-07  157



    1.本公开涉及人工智能技术领域,特别涉及深度学习领域的样本采样方法、装置、系统、电子设备及存储介质。


    背景技术:

    2.梯度提升决策树(gbdt,gradient boosting decision tree)算法是目前广泛使用的一种机器学习算法。任何机器学习算法都离不开数据,随着隐私保护法律法规的健全以及人们对数据隐私的日益重视,gbdt算法面临着数据孤岛问题,即数据被分割在不同的公司、部门间,而直接进行数据交换存在着用户数据隐私泄露的风险。
    3.为了解决上述数据孤岛和隐私泄露问题,提出了联邦gbdt算法,即通过密码学手段,联合多方进行共同训练,在参与方不直接共享明文数据的情况下,联合进行算法模型的训练。但是,联邦gbdt算法的训练过程需要耗费较大的计算开销,且训练速度较慢,这也限制了联邦gbdt算法的广泛应用。


    技术实现要素:

    4.本公开提供了样本采样方法、装置、系统、电子设备及存储介质。
    5.一种样本采样方法,包括:
    6.在联邦梯度提升决策树算法模型训练过程中,第一参与方利用基于梯度的采样方式对对应的第一样本集中的样本进行采样,得到采样出的样本;
    7.所述第一参与方将采样出的样本的样本标识发送给第二参与方,用于所述第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本,所述采样出的样本用于进行模型的训练,其中,所述第二样本集与所述第一样本集中的样本标识一一对应,所述第二参与方的数量为n-1,n为大于一的正整数,表示参与训练的参与方数量。
    8.一种样本采样方法,包括:
    9.在联邦梯度提升决策树算法模型训练过程中,第二参与方获取来自第一参与方的样本标识,所述样本标识为所述第一参与方利用基于梯度的采样方式对对应的第一样本集中的样本进行采样后、采样出的样本的样本标识;
    10.所述第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本,所述第二样本集与所述第一样本集中的样本标识一一对应,所述采样出的样本用于进行模型的训练。
    11.一种样本采样装置,包括:第一采样模块以及信息发送模块;
    12.所述第一采样模块,用于在联邦梯度提升决策树算法模型训练过程中,利用基于梯度的采样方式对第一样本集中的样本进行采样,得到采样出的样本,所述第一样本集为第一参与方对应的样本集;
    13.所述信息发送模块,用于将采样出的样本的样本标识发送给第二参与方,用于所述第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本,所述
    采样出的样本用于进行模型的训练,其中,所述第二样本集与所述第一样本集中的样本标识一一对应,所述第二参与方的数量为n-1,n为大于一的正整数,表示参与训练的参与方数量。
    14.一种样本采样装置,包括:信息获取模块以及第二采样模块;
    15.所述信息获取模块,用于在联邦梯度提升决策树算法模型训练过程中,获取来自第一参与方的样本标识,所述样本标识为所述第一参与方利用基于梯度的采样方式对对应的第一样本集中的样本进行采样后、采样出的样本的样本标识;
    16.所述第二采样模块,用于将第二样本集中与所述样本标识对应的样本作为采样出的样本,所述第二样本集为第二参与方对应的样本集,所述第二样本集与所述第一样本集中的样本标识一一对应,所述采样出的样本用于进行模型的训练。
    17.一种样本采样系统,包括:如以上所述的两种样本采样装置。
    18.一种电子设备,包括:
    19.至少一个处理器;以及
    20.与所述至少一个处理器通信连接的存储器;其中,
    21.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上所述的方法。
    22.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行如以上所述的方法。
    23.一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现如以上所述的方法。
    24.上述公开中的一个实施例具有如下优点或有益效果:通过样本采样,可减少用于算法模型训练的样本的数量,从而减少了计算开销,并提升了训练速度,即达到了加速训练的目的,而且,采用基于梯度的采样方式,可确保采样出的样本是对训练提升比较有帮助的样本,进而确保了模型的精度等。
    25.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
    附图说明
    26.附图用于更好地理解本方案,不构成对本公开的限定。其中:
    27.图1为本公开所述样本采样方法第一实施例的流程图;
    28.图2为本公开所述样本采样方法第二实施例的流程图;
    29.图3为本公开所述样本采样方法第三实施例的流程图;
    30.图4为本公开所述样本采样装置第一实施例400的组成结构示意图;
    31.图5为本公开所述样本采样装置第二实施例500的组成结构示意图;
    32.图6为本公开所述样本采样系统实施例600的组成结构示意图;
    33.图7示出了可以用来实施本公开的实施例的电子设备700的示意性框图。
    具体实施方式
    34.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种
    细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
    35.另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
    36.图1为本公开所述样本采样方法第一实施例的流程图。如图1所示,包括以下具体实现方式。
    37.在步骤101中,在联邦gbdt算法模型训练过程中,第一参与方利用基于梯度的采样方式对对应的第一样本集中的样本进行采样,得到采样出的样本。
    38.在步骤102中,第一参与方将采样出的样本的样本标识发送给第二参与方,用于第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本,采样出的样本用于进行模型的训练,其中,第二样本集与第一样本集中的样本标识一一对应,第二参与方的数量为n-1,n为大于一的正整数,表示参与训练的参与方数量。
    39.可以看出,采用上述方法实施例所述方案,通过样本采样,可减少用于算法模型训练的样本的数量,从而减少了计算开销,并提升了训练速度,而且,采用基于梯度的采样方式,可确保采样出的样本是对训练提升比较有帮助的样本,进而确保了模型的精度等。
    40.在实际应用中,参与训练的参与方数量可根据实际需要而定,但至少为2个,也就是说,第二参与方的数量至少为1个。
    41.本公开所述方案尤其适用于参与训练的参与方中仅有一个参与方的样本具有标签的情况,相应地,该参与方可根据所述标签确定出各样本(即训练样本)对应的梯度,如何确定出各样本对应的梯度不作限制,另外,每次进行样本采样时,可重新确定出各样本对应的梯度。
    42.为便于表述,将样本具有标签的参与方称为第一参与方,将其它参与方称为第二参与方。第一参与方和第二参与方分别对应自身的样本集,即第一样本集和第二样本集。第一样本集和第二样本集中的样本是对齐的,即两个样本集中的样本标识(id)是一一对应的。
    43.在进行联邦gbdt算法模型训练过程中,针对每轮训练,可分别进行样本采样,进而可利用采样出的样本进行模型训练,或者,也可在某些轮进行样本采样,而在其它轮则利用全部的样本进行模型训练。无论采用哪种方式,当需要进行样本采样时,即可按照图1所示方式进行处理。
    44.首先,第一参与方可利用基于梯度的采样方式对第一样本集中的样本进行采样,从而得到采样出的样本。
    45.本公开的一个实施例中,针对第一样本集中的任一样本,可分别进行以下处理:将该样本作为待处理样本,根据待处理样本对应的梯度确定出待处理样本的采样概率,根据所述采样概率确定出待处理样本的采样结果,若采样结果为预定取值,则将待处理样本作为采样出的样本。
    46.本公开的一个实施例中,可通过以下方式一或方式二来确定出待处理样本的采样概率。
    47.1)方式一
    48.本方式中,可对待处理样本对应的梯度进行归一化处理,并可根据归一化后的梯度、预定的采样率以及第一样本集中的样本数量确定出待处理样本的采样概率。
    49.本公开的一个实施例中,可按照第一样本集中的各样本归一化后的梯度相加之和为1的原则,对待处理样本对应的梯度进行归一化处理。
    50.比如,可有:
    51.其中,gi表示归一化前的梯度,πi表示归一化后的梯度,n表示第一样本集中的样本数量。
    52.以上仅为举例说明,并不用于限制本公开的技术方案,在实际应用中,也可以采用其它归一化方式,只要满足即可,非常的灵活方便。
    53.之后,可根据归一化后的梯度、预定的采样率以及第一样本集中的样本数量确定出待处理样本的采样概率。
    54.比如,可计算归一化后的梯度、预定的采样率以及第一样本集中的样本数量的乘积,将计算结果作为待处理样本的采样概率。
    55.即可有:pi=r*n*πi;
    ꢀꢀꢀ
    (2)
    56.其中,pi表示采样概率,即表示样本被采样出的概率,r表示采样率,可预先设定,且不同轮对应的采样率可不同。
    57.2)方式二
    58.本方式中,可对待处理样本对应的梯度进行归一化处理,并可为归一化后的梯度添加差分隐私噪声,进而可根据添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量确定出待处理样本的采样概率。
    59.采样基于梯度的采样方式,可能会泄露样本的隐私信息,本方式中,可结合差分隐私机制来保护第一参与方的隐私信息。
    60.本公开的一个实施例中,可按照第一样本集中的各样本归一化后的梯度相加之和为1的原则,对待处理样本对应的梯度进行归一化处理。比如,可按照上述公式(1)所示方式对待处理样本对应的梯度进行归一化处理。
    61.之后,可为归一化后的梯度添加差分隐私噪声。本公开的一个实施例中,所述差分隐私噪声可包括:拉普拉斯噪声或高斯噪声。当然,如果需要,也可以为其它噪声。本公开所述方案中对于差分隐私噪声具体为何种噪声不作限制。
    62.以拉普拉斯(laplace)噪声为例,可通过以下方式为归一化后的梯度添加差分隐私噪声:πi'=πi laplace(1/ε);
    ꢀꢀꢀ
    (3)
    63.其中,ε表示隐私预算,可预先设定,πi'表示添加差分隐私噪声后的梯度。
    64.之后,可根据添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量确定出待处理样本的采样概率。
    65.比如,可计算添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量的乘积,将计算结果作为待处理样本的采样概率,即可按照公式(2)计算出采样概率,只是将
    其中的πi替换为πi'。
    66.通常来说,采样概率需要位于[0,1]的范围内,但由于加入了噪声,得到的采样概率可能会不在[0,1]的范围内,相应地,本公开的一个实施例中,若采样概率小于0,可将0作为采样概率,若采样概率大于1,可将1作为采样概率,若采样概率为其它取值,可保持原取值不变。
    [0067]
    即可对采样概率进行裁剪,将其裁剪到[0,1]的范围内,从而便于后续的计算等。
    [0068]
    具体采样方式一还是方式二来确定出待处理样本的采样概率可根据实际需要而定,非常的灵活方便,优选地,可采用方式二,即为梯度添加噪声,以使其满足差分隐私要求,噪声大小可通过隐私预算ε进行自定义控制。
    [0069]
    在确定出待处理样本的采样概率后,可根据采样概率确定出待处理样本的采样结果。
    [0070]
    本公开的一个实施例中,可将采样概率作为参数,根据伯努利分布确定出采样结果。比如,可将采样概率pi作为参数从伯努利分布中采样出si,si即为采样结果。
    [0071]
    进一步地,若采样结果为预定取值,则可将待处理样本作为采样出的样本。本公开的一个实施例中,采样结果可包括:1和0,相应地,若采样结果为1,则可将待处理样本作为采样出的样本,反之,若采样结果为0,则不会将待处理样本作为采样出的样本。
    [0072]
    通过上述处理,可高效准确地确定出待处理样本是否为采样出的样本,从而实现第一参与方的样本采样,采样出的样本数量约为n*r。
    [0073]
    第一参与方还可将采样结果同步给第二参与方,即第一参与方可将采样出的样本的样本标识发送给第二参与方,用于第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本。
    [0074]
    可以看出,本公开所述方案中采用了联合采样方式,确保了双方采样出的样本的一致性和隐私性。
    [0075]
    图2为本公开所述样本采样方法第二实施例的流程图。如图2所示,包括以下具体实现方式。
    [0076]
    在步骤201中,在联邦gbdt算法模型训练过程中,第二参与方获取来自第一参与方的样本标识,所述样本标识为第一参与方利用基于梯度的采样方式对对应的第一样本集中的样本进行采样后、采样出的样本的样本标识。
    [0077]
    在步骤202中,第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本,第二样本集与第一样本集中的样本标识一一对应,采样出的样本用于进行模型的训练。
    [0078]
    比如,第一样本集和第二样本集中均包括1000(实际可能远大于此,仅为举例说明)个样本,第一参与方从第一样本集中采样出了300个样本,那么可将这300个样本的样本标识发送给第二参与方,相应地,第二参与方可将第二样本集中这300个样本标识对应的样本作为采样出的样本。
    [0079]
    采用上述方法实施例所述方案,通过样本采样,可减少用于算法模型训练的样本的数量,从而减少了计算开销,并提升了训练速度,而且,采用基于梯度的采样方式,可确保采样出的样本是对训练提升比较有帮助的样本,进而确保了模型的精度等。
    [0080]
    图3为本公开所述样本采样方法第三实施例的流程图。所述方法可应用于联邦
    gbdt算法模型训练过程中。如图3所示,可包括以下具体实现方式。
    [0081]
    在步骤301中,第一参与方针对第一样本集中的每个样本,分别按照步骤302-步骤307所示方式进行处理。
    [0082]
    在步骤302中,将该样本作为待处理样本,对待处理样本对应的梯度进行归一化处理。
    [0083]
    比如,可按照第一样本集中的各样本归一化后的梯度相加之和为1的原则,对待处理样本对应的梯度进行归一化处理。
    [0084]
    在步骤303中,为归一化后的梯度添加差分隐私噪声。
    [0085]
    所述差分隐私噪声可包括:拉普拉斯噪声或高斯噪声。
    [0086]
    在步骤304中,根据添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量确定出待处理样本的采样概率。
    [0087]
    比如,可计算添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量的乘积,将计算结果作为待处理样本的采样概率。
    [0088]
    在步骤305中,将采样概率裁剪到[0,1]的范围内。
    [0089]
    比如,若采样概率小于0,则可将0作为采样概率,若采样概率大于1,则可将1作为采样概率。
    [0090]
    在步骤306中,将采样概率作为参数,根据伯努利分布确定出待处理样本的采样结果。
    [0091]
    采样结果可包括:1和0。
    [0092]
    在步骤307中,若采样结果为1,则将待处理样本作为采样出的样本,若采样结果为0,则不将待处理样本作为采样出的样本。
    [0093]
    在步骤308中,将采样出的样本的样本标识发送给第二参与方。
    [0094]
    在步骤309中,第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本。
    [0095]
    需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开并不受所描述的动作顺序的限制,因为依据本公开,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本公开所必须的。另外,某个实施例中没有详述的部分,可以参见其它实施例中的相关说明。
    [0096]
    总之,本公开方法实施例所述方案中,采用了基于梯度的采样方式,在确保了模型精度的情况下,可大大减少计算开销,提升训练速度,同时,融合了差分隐私机制,可有效保护标签方的隐私信息等。
    [0097]
    以上是关于方法实施例的介绍,以下通过装置实施例,对本公开所述方案进行进一步说明。
    [0098]
    图4为本公开所述样本采样装置第一实施例400的组成结构示意图。如图4所示,包括:第一采样模块401以及信息发送模块402。
    [0099]
    第一采样模块401,用于在联邦gbdt算法模型训练过程中,利用基于梯度的采样方式对第一样本集中的样本进行采样,得到采样出的样本,第一样本集为第一参与方对应的样本集。
    [0100]
    信息发送模块402,用于将采样出的样本的样本标识发送给第二参与方,用于第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本,采样出的样本用于进行模型的训练,其中,第二样本集与第一样本集中的样本标识一一对应,第二参与方的数量为n-1,n为大于一的正整数,表示参与训练的参与方数量。
    [0101]
    采用上述装置实施例所述方案,通过样本采样,可减少用于算法模型训练的样本的数量,从而减少了计算开销,并提升了训练速度,而且,采用基于梯度的采样方式,可确保采样出的样本是对训练提升比较有帮助的样本,进而确保了模型的精度等。
    [0102]
    本公开的一个实施例中,第一采样模块401可针对第一样本集中的任一样本,分别进行以下处理:将该样本作为待处理样本,根据待处理样本对应的梯度确定出待处理样本的采样概率;根据采样概率确定出待处理样本的采样结果;若采样结果为预定取值,则将待处理样本作为采样出的样本。
    [0103]
    本公开的一个实施例中,可通过以下方式一或方式二来确定出待处理样本的采样概率。
    [0104]
    方式一:
    [0105]
    第一采样模块401可对待处理样本对应的梯度进行归一化处理,并可根据归一化后的梯度、预定的采样率以及第一样本集中的样本数量确定出待处理样本的采样概率。
    [0106]
    本公开的一个实施例中,第一采样模块401可按照第一样本集中的各样本归一化后的梯度相加之和为1的原则,对待处理样本对应的梯度进行归一化处理。
    [0107]
    另外,第一采样模块401可计算归一化后的梯度、预定的采样率以及第一样本集中的样本数量的乘积,将计算结果作为待处理样本的采样概率。
    [0108]
    方式二:
    [0109]
    第一采样模块401可对待处理样本对应的梯度进行归一化处理,并可为归一化后的梯度添加差分隐私噪声,进而可根据添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量确定出采样概率。
    [0110]
    本公开的一个实施例中,第一采样模块401可按照第一样本集中的各样本归一化后的梯度相加之和为1的原则,对待处理样本对应的梯度进行归一化处理。
    [0111]
    之后,第一采样模块401可为归一化后的梯度添加差分隐私噪声。本公开的一个实施例中,所述差分隐私噪声可包括:拉普拉斯噪声或高斯噪声。
    [0112]
    进一步地,第一采样模块401可计算添加噪声后的梯度、预定的采样率以及第一样本集中的样本数量的乘积,将计算结果作为待处理样本的采样概率。
    [0113]
    通常来说,采样概率需要位于[0,1]的范围内,但由于加入了噪声,得到的采样概率可能会不在[0,1]的范围内,相应地,本公开的一个实施例中,若采样概率小于0,可将0作为采样概率,若采样概率大于1,可将1作为采样概率,若采样概率为其它取值,可保持原取值不变。
    [0114]
    本公开的一个实施例中,第一采样模块401可将采样概率作为参数,根据伯努利分布确定出采样结果。比如,可将采样概率pi作为参数从伯努利分布中采样出si,si即为采样结果。
    [0115]
    进一步地,若采样结果为预定取值,第一采样模块401可将待处理样本作为采样出的样本。本公开的一个实施例中,采样结果可包括:1和0,相应地,若采样结果为1,则可将待
    处理样本作为采样出的样本,反之,若采样结果为0,则不会将待处理样本作为采样出的样本。
    [0116]
    信息发送模块402可将采样结果同步给第二参与方,即可将采样出的样本的样本标识发送给第二参与方,用于第二参与方将对应的第二样本集中与所述样本标识对应的样本作为采样出的样本。
    [0117]
    图5为本公开所述样本采样装置第二实施例500的组成结构示意图。如图5所示,包括:信息获取模块501以及第二采样模块502。
    [0118]
    信息获取模块501,用于在联邦gbdt算法模型训练过程中,获取来自第一参与方的样本标识,所述样本标识为第一参与方利用基于梯度的采样方式对对应的第一样本集中的样本进行采样后、采样出的样本的样本标识。
    [0119]
    第二采样模块502,用于将第二样本集中与所述样本标识对应的样本作为采样出的样本,第二样本集为第二参与方对应的样本集,第二样本集与第一样本集中的样本标识一一对应,采样出的样本用于进行模型的训练。
    [0120]
    采用上述装置实施例所述方案,通过样本采样,可减少用于算法模型训练的样本的数量,从而减少了计算开销,并提升了训练速度,而且,采用基于梯度的采样方式,可确保采样出的样本是对训练提升比较有帮助的样本,进而确保了模型的精度等。
    [0121]
    图6为本公开所述样本采样系统实施例600的组成结构示意图。如图6所示,包括:第一样本采样装置601以及第二样本采样装置602。
    [0122]
    其中,第一样本采样装置601可为图4所示实施例中的样本采样装置,第二样本采样装置602可为图5所示实施例中的样本采样装置。
    [0123]
    以上装置和系统实施例的具体工作流程请参照前述方法实施例中的相关说明,不再赘述。
    [0124]
    总之,本公开装置和系统实施例所述方案中,采用了基于梯度的采样方式,在确保了模型精度的情况下,可大大减少计算开销,提升训练速度,同时,融合了差分隐私机制,可有效保护标签方的隐私信息等。
    [0125]
    本公开所述方案可应用于人工智能领域,特别涉及深度学习等领域。人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术,人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术,人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
    [0126]
    本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
    [0127]
    根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
    [0128]
    图7示出了可以用来实施本公开的实施例的电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的
    部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
    [0129]
    如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(rom)702中的计算机程序或者从存储单元708加载到随机访问存储器(ram)703中的计算机程序,来执行各种适当的动作和处理。在ram 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、rom 702以及ram 703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。
    [0130]
    设备700中的多个部件连接至i/o接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
    [0131]
    计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如本公开所述的方法。例如,在一些实施例中,本公开所述的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由rom 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到ram 703并由计算单元701执行时,可以执行本公开所述的方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行本公开所述的方法。
    [0132]
    本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、复杂可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
    [0133]
    用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
    [0134]
    在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计
    算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
    [0135]
    为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
    [0136]
    可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
    [0137]
    计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
    [0138]
    应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
    [0139]
    上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
    转载请注明原文地址:https://tc.8miu.com/read-1311.html

    最新回复(0)