1.本技术涉及音频处理技术领域,更具体地说,涉及干声音频的时间戳确定方法、装置及电子设备和计算机可读存储介质。
背景技术:
2.近些年来,在线k歌平台在智能科技方面的应用日渐凸显,k歌平台能够支持大部分歌曲的一键修音功能,实现自动对用户演唱作品进行优化的效果,降低在线k歌的难度和门槛。而在一键修音功能中,自动分析出用户干声的时间戳信息是实现自动修音的前提。
3.在相关技术中,可以基于hmm(隐马尔科夫模型,hidden markov model)的自动语音识别技术或者强制对齐技术来估计用户干声时间戳信息。该方案的精度不够高,特别是遇到长元音时,容易出现对长元音截断的问题,另外每个语种都需要单独训练模型,效率较低。
4.另外,还可以通过提取干声音频的梅尔倒谱系数,然后进行动态时间规整得到时间戳对齐信息。但是,由于梅尔倒谱系数是对每一帧音频信号单独提取的,没有连续帧之间的连续性和聚类,对噪声等适应性比较差。
5.因此,如何提高确定干声音频的时间戳的精度是本领域技术人员需要解决的技术问题。
技术实现要素:
6.本技术的目的在于提供一种干声音频的时间戳确定方法及一种电子设备和一种计算机可读存储介质,提高了确定干声音频的时间戳的精度。
7.为实现上述目的,本技术第一方面提供了一种干声音频的时间戳确定方法,包括:
8.获取目标干声音频和所述目标干声音频对应的标准干声音频;
9.利用声码器提取所述目标干声音频的第一基础音频特征和所述标准干声音频的第二基础音频特征;
10.将所述第一基础音频特征和所述第二基础音频特征分别输入基于神经网络的特征提取模型中,分别得到所述第一基础音频特征对应的第一增强音频特征和所述第二基础音频特征对应的第二增强音频特征;
11.利用动态时间归整方法对所述第一增强音频特征和所述第二增强音频特征进行对齐,以确定所述标准干声音频中的每帧音频与所述目标干声音频中的每帧音频之间的对应关系;
12.基于所述标准干声音频的时间戳信息和所述对应关系确定所述目标干声音频的时间戳信息。
13.为实现上述目的,本技术第二方面提供了一种电子设备,包括:
14.存储器,用于存储计算机程序;
15.处理器,用于执行所述计算机程序时实现如上述干声音频的时间戳确定方法的步
骤。
16.为实现上述目的,本技术第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述干声音频的时间戳确定方法的步骤。
17.通过以上方案可知,本技术提供的一种干声音频的时间戳确定方法,包括:获取目标干声音频和所述目标干声音频对应的标准干声音频;利用声码器提取所述目标干声音频的第一基础音频特征和所述标准干声音频的第二基础音频特征;将所述第一基础音频特征和所述第二基础音频特征分别输入基于神经网络的特征提取模型中,分别得到所述第一基础音频特征对应的第一增强音频特征和所述第二基础音频特征对应的第二增强音频特征;利用动态时间归整方法对所述第一增强音频特征和所述第二增强音频特征进行对齐,以确定所述标准干声音频中的每帧音频与所述目标干声音频中的每帧音频之间的对应关系;基于所述标准干声音频的时间戳信息和所述对应关系确定所述目标干声音频的时间戳信息。
18.本技术提供的干声音频的时间戳确定方法,利用基于神经网络的特征提取模型提取用户的目标干声音频和原唱的标准干声音频分别对应的鲁棒性和连续性更强的特征表示,取代相关技术中梅尔倒谱系数等声学特征,在克服噪声干扰以及发音不标准的场景下有更加明显的优势。进一步的,对目标干声音频对应的第一增强音频特征和标准干声音频对应的第二增强音频特征进行动态时间规整,可以得到目标干声音频和标准干声音频帧级别的对应关系,由于标准干声音频的时间戳信息是已知的,通过上述对应关系可以反推出目标干声音频的时间戳信息。由此可见,本技术提供的干声音频的时间戳确定方法,提高了确定干声音频的时间戳的精度。本技术还公开了一种电子设备和一种计算机可读存储介质,同样能实现上述技术效果。
19.应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本技术。
附图说明
20.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
21.图1为本技术实施例提供的一种干声音频的时间戳确定方法的流程图;
22.图2为本技术实施例提供的一种特征提取模型的结构示意图;
23.图3为本技术实施例提供的一种电子设备的结构图。
具体实施方式
24.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他
实施例,都属于本技术保护的范围。
25.本技术实施例公开了一种干声音频的时间戳确定方法,提高了确定干声音频的时间戳的精度。
26.参见图1,本技术实施例提供的一种干声音频的时间戳确定方法的流程图,如图1所示,包括:
27.s101:获取目标干声音频和所述目标干声音频对应的标准干声音频;
28.本实施例的目的在于确定用户演唱的目标干声音频的时间戳信息,也即确定用户演唱的每个字的开始和结束时间,后续可以按照原唱曲谱规定的每个字的音高信息,对每个字的对应的干声片段进行变调处理,实现修音功能。本实施例的执行主体可以为提供k歌的客户端,也可以为电子设备,也即客户端将采集到的用户演唱的目标干声音频发送至电子设备进行后端处理。
29.在本步骤中,获取用户演唱的目标干声音频和对应的标准干声音频,标准干声音频可以理解为原唱的干声音频。
30.s102:利用声码器提取所述目标干声音频的第一基础音频特征和所述标准干声音频的第二基础音频特征;
31.在本步骤中,利用声码器分别提取目标干声音频的第一基础音频特征和标准干声音频的第二基础音频特征,本实施例中的基础音频特征可以包括梅尔倒谱系数、频谱包络等声学特征,在此不进行具体限定。
32.作为一种优选实施方式,本步骤包括:利用声码器提取所述目标干声音频的频谱包络作为第一基础音频特征、提取所述标准干声音频的频谱包络作为第二基础音频特征。可以理解的是,声带振动产生的声波通过由口腔、鼻腔等构成的声道时将产生共振,共振的结果会使频谱的某些区域得到加强,从而形成峰,频谱上存在多个峰,频谱上每个峰的高度是不一样的,这些峰的高度之比决定了音色,将这些峰值通过平滑的曲线连接起来即为频谱包络。需要说明的是,由于频谱包络与基频的关联性较低,只与发音内容、发音音色以及发音能量相关,因此使用频谱包络可以使得后续确定的时间戳信息的准确度较高。
33.作为一种可行的实施方式,所述利用声码器提取所述目标干声音频的频谱包络作为第一基础音频特征、提取所述标准干声音频的频谱包络作为第二基础音频特征,包括:利用声码器提取所述目标干声音频的目标基频,对所述目标干声音频的功率谱进行逆傅里叶变化得到目标倒谱,基于所述目标基频对所述目标倒谱进行低通处理得到所述目标干声音频的频谱包络作为第一基础音频特征;利用声码器提取所述标准干声音频的标准基频,对所述标准干声音频的功率谱进行逆傅里叶变化得到标准倒谱,基于所述标准基频对所述标准倒谱进行低通处理得到所述标准干声音频的频谱包络作为第二基础音频特征。在具体实施中,首先提取干声音频的基频,此处不对提取基频的具体方式进行限定,可以采用world声码器的harvest算法、pyin、dio算法等,harvest算法的基本原理是对干声音频使用不同的截止频率的低通滤波器进行滤波,分析滤波后的音频的波形的标准程度,将与标准正弦信号最相似的波形对应的截止频率作为基频。其次可以使用world声码器的cheaptrick算法,对干声音频的功率谱进行逆傅里叶变化得到倒谱,然后可以基于基频对倒谱进行低通处理得到干声音频的频谱包络。优选的,此处提取到的干声音频中每一帧音频信号对应的频谱包络的维度可以为60维。
34.s103:将所述第一基础音频特征和所述第二基础音频特征分别输入基于神经网络的特征提取模型中,分别得到所述第一基础音频特征对应的第一增强音频特征和所述第二基础音频特征对应的第二增强音频特征;
35.在本步骤中,利用基于神经网络的特征提取模型将第一基础音频特征和第二基础音频特征分别转换为鲁棒性和连续性更强的特征,即第一增强音频特征和第二增强音频特征。
36.作为一种可行的实施方式,本实施例中的特征提取模型如图2所示,包括线性变换层(linear)、泄露修正线性单元(leakyrelu)、空洞卷积层(dilated conv),其中,由leakyrelu和dilated conv组成的基础模块共重复了5次。若第一基础音频特征和第二基础音频特征均为60维的频谱包络,则其经过第一个linear层后,维度由[t,60]变成[t,128],五个基础模块中dilated conv的卷积核大小均为3,通道数均为128,但是膨胀系数分别为[2,4,8,2,4],由此来增大模型的感受野,最后同样经过一个linear层,得到的特征表示,维度由[t,128]变成[t,64]。
[0037]
上述特征提取模型的训练过程为:获取训练数据集;其中,所述训练数据集包括多个训练干声音频;利用声码器提取所述训练干声音频的训练基础音频特征;利用所述训练基础音频特征对基于神经网络的特征提取模型进行训练。在具体实施中,获取包含多个训练干声音频的训练数据集,利用声码器提取训练干声音频的训练基础音频特征,具体的提取过程与步骤s102中介绍的提取过程类似,在此不再赘述。每次训练时,在训练数据集选取预设数量的训练干声音频作为训练样本,利用训练样本对应的训练基础音频特征训练特征提取模型。
[0038]
作为一种优选实施方式,所述利用所述训练基础音频特征对基于神经网络的特征提取模型进行训练,包括:确定所述训练干声音频对应的采样权重;在每次训练的过程中,根据所述采样权重在所述训练数据集中选取本次训练的训练样本,并利用所述训练样本对应的训练基础音频特征对基于神经网络的特征提取模型进行训练。
[0039]
需要说明的是,人的发声频率在60hz-1200hz之间,范围比较广。而用于人在演唱不同的音高时,对应的声学特征也有相应的变化,因此训练数据集需要覆盖60hz-1200hz的训练干声音频。但是,若不加特殊规则收集训练干声音频,其音高主要集中在120hz-480hz之间,因此在每次训练选取训练样本时容易造成训练样本不均衡的问题,导致训练得到特征提取模型的适应性的不理想。在具体实施中,为训练数据集中的每个训练干声音频分配对应的采样权重,也即在每次训练过程中每个训练干声音频被选取的概率。为120hz-480hz之间的训练干声音频分配较低的权重,使得在该范围内训练干声音频虽然数量众多但更不容易被选取,为60hz-120hz、480hz-1200hz之间的训练干声音频分配较高的权重,使得在该范围内训练干声音频虽然数量较少但更容易被选取,实现了训练样本的数据分布均衡。
[0040]
作为一种可行的实施方式,所述确定所述训练干声音频对应的采样权重,包括:根据所述训练干声音频中包含的每个音高对应的帧数构建所述训练干声音频对应的音高分布向量;根据所述训练数据集中所有所述训练干声音频对应的音高分布向量构建音高分布矩阵;基于所述音高分布矩阵和目标矩阵计算权重矩阵,并基于所述权值矩阵确定所述训练干声音频对应的采样权重;其中,所述目标矩阵中的每个元素均为目标值,所述目标值为所述音高分布矩阵中所有元素的和与所述训练数据集中训练干声音频的数量之间的比值。
[0041]
在具体实施中,为每个训练干声音频构建对应的音高分布向量,音高分布向量的维度n为覆盖的音高范围,例如1200维,每个元素为训练干声音频中包含的对应的音高的帧数,每一帧的长度可以为16毫秒。其次,根据训练数据集中所有训练干声音频对应的音高分布向量构建音高分布矩阵a,例如训练数据集中包含m个训练干声音频,则音高分布矩阵的尺寸为m
×
n。然后,通过下式计算权重矩阵:
[0042]at
x=b,s.t.xi>0;
[0043]
其中,x为权重矩阵,其尺寸为m
×
1,xi为第i个训练干声音频对应的采样权重,b为目标矩阵,其尺寸为n
×
1,b中每个元素都相等,bi=sum(a)/m。
[0044]
作为一种优选实施方式,在每次训练的过程中,基于所述特征提取模型输出的相邻帧的增强音频特征之间的相似度和非相邻帧的增强音频特征之间的相似度构建目标损失函数;其中,所述目标损失函数的函数值与相邻帧的增强音频特征之间的相似度呈正相关、与非相邻帧的增强音频特征之间的相似度呈负相关。在具体实施中,可以使用对比损失的监督函数作为损失函数训练特征提取模型,其基本思想是相同音素的增强音频特征之间的相似度越小越好,也即相邻帧的增强音频特征之间的相似度越小越好,不同音素的增强音频特征之间的相似度越大越好,也即非相邻帧的增强音频特征之间的相似度越大越好。
[0045]
优选的,所述目标损失函数具体为:
[0046][0047]
其中,zi为所述特征提取模型输出的第i帧的增强音频特征,z
i 1
为所述特征提取模型输出的第i 1帧的增强音频特征,zj为所述特征提取模型输出的第j帧的增强音频特征,sim(zi,z
i 1
)为zi与z
i 1
之间的余弦相似距离,sim(zi,zj)为zi与zj之间的余弦相似距离。
[0048]
基于上述目标损失函数进行特征提取模型的训练,可以使得相邻帧的增强音频特征之间的相似度较高,即相同音素的增强音频特征具有聚类效果,而不同的音素之间的增强音频特征更具有区分度。
[0049]
s104:利用动态时间归整方法对所述第一增强音频特征和所述第二增强音频特征进行对齐,以确定所述标准干声音频中的每帧音频与所述目标干声音频中的每帧音频之间的对应关系;
[0050]
s105:基于所述标准干声音频的时间戳信息和所述对应关系确定所述目标干声音频的时间戳信息。
[0051]
在具体实施中,利用dtw(dynamic time warping,动态时间归整)的方法对第一增强音频特征和第二增强音频特征进行帧级别的对齐,其原理为计算目标干声音频中的每帧音频对应的第一增强音频特征与标准干声音频中的对应帧音频和相邻帧音频对应的第二增强音频特征之间的欧氏距离,建立欧式距离最小的对应的两帧音频之间的对应关系。例如,目标干声音频对应的第一增强音频特征和标准干声音频对应的第二增强音频特征均包含t帧,利用动态时间归整方法得到t
×
t的规整矩阵,记录了目标干声音频中的第i帧与标准干声音频中的第j帧之间的对应关系,如表1所示:
[0052]
表1
[0053] 1234567
1(1,1)
ꢀꢀꢀꢀꢀꢀ
2 (2,2)
ꢀꢀꢀꢀꢀ3ꢀꢀ
(3,3)(3,4)
ꢀꢀꢀ4ꢀꢀꢀꢀ
(4,5)
ꢀꢀ5ꢀꢀꢀꢀ
(5,5)
ꢀꢀ6ꢀꢀꢀꢀꢀ
(6,6) 7
ꢀꢀꢀꢀꢀꢀ
(7,7)
[0054]
在表1中,列表示用户演唱的目标干声音频对应的第一增强音频特征,行表示原唱的标准干声音频对应的第二增强音频特征。(3,3)和(3,4)表示目标干声音频的第3帧对应标准干声音频的第3帧和第4帧,(4,5)和(5,5)表示目标干声音频的第4帧和第5帧对应标准干声音频的第5帧,依次类推。进一步的,由于标准干声音频的时间戳信息是已知的,通过上述对应关系可以反推出目标干声音频的时间戳信息。
[0055]
本技术实施例提供的干声音频的时间戳确定方法,利用基于神经网络的特征提取模型提取用户的目标干声音频和原唱的标准干声音频分别对应的鲁棒性和连续性更强的特征表示,取代相关技术中梅尔倒谱系数等声学特征,在克服噪声干扰以及发音不标准的场景下有更加明显的优势。进一步的,对目标干声音频对应的第一增强音频特征和标准干声音频对应的第二增强音频特征进行动态时间规整,可以得到目标干声音频和标准干声音频帧级别的对应关系,由于标准干声音频的时间戳信息是已知的,通过上述对应关系可以反推出目标干声音频的时间戳信息。由此可见,本技术实施例提供的干声音频的时间戳确定方法,提高了确定干声音频的时间戳的精度。
[0056]
下面对本技术实施例提供的一种干声音频的时间戳确定装置进行介绍,下文描述的一种干声音频的时间戳确定装置与上文描述的一种干声音频的时间戳确定方法可以相互参照,具体的,包括:
[0057]
第一获取模块,用于获取目标干声音频和所述目标干声音频对应的标准干声音频;
[0058]
第一提取模块,用于利用声码器提取所述目标干声音频的第一基础音频特征和所述标准干声音频的第二基础音频特征;
[0059]
输入模块,用于将所述第一基础音频特征和所述第二基础音频特征分别输入基于神经网络的特征提取模型中,分别得到所述第一基础音频特征对应的第一增强音频特征和所述第二基础音频特征对应的第二增强音频特征;
[0060]
对齐模块,用于利用动态时间归整方法对所述第一增强音频特征和所述第二增强音频特征进行对齐,以确定所述标准干声音频中的每帧音频与所述目标干声音频中的每帧音频之间的对应关系;
[0061]
确定模块,用于基于所述标准干声音频的时间戳信息和所述对应关系确定所述目标干声音频的时间戳信息。
[0062]
本技术实施例提供的干声音频的时间戳确定装置,利用基于神经网络的特征提取模型提取用户的目标干声音频和原唱的标准干声音频分别对应的鲁棒性和连续性更强的特征表示,取代相关技术中梅尔倒谱系数等声学特征,在克服噪声干扰以及发音不标准的场景下有更加明显的优势。进一步的,对目标干声音频对应的第一增强音频特征和标准干
声音频对应的第二增强音频特征进行动态时间规整,可以得到目标干声音频和标准干声音频帧级别的对应关系,由于标准干声音频的时间戳信息是已知的,通过上述对应关系可以反推出目标干声音频的时间戳信息。由此可见,本技术实施例提供的干声音频的时间戳确定装置,提高了确定干声音频的时间戳的精度。
[0063]
在上述实施例的基础上,作为一种优选实施方式,所述提第一取模块具体为利用声码器提取所述目标干声音频的频谱包络作为第一基础音频特征、提取所述标准干声音频的频谱包络作为第二基础音频特征的模块。
[0064]
在上述实施例的基础上,作为一种优选实施方式,所述第一提取模块包括:
[0065]
第一提取单元,用于利用声码器提取所述目标干声音频的目标基频,对所述目标干声音频的功率谱进行逆傅里叶变化得到目标倒谱,基于所述目标基频对所述目标倒谱进行低通处理得到所述目标干声音频的频谱包络作为第一基础音频特征;
[0066]
第二提取单元,用于利用声码器提取所述标准干声音频的标准基频,对所述标准干声音频的功率谱进行逆傅里叶变化得到标准倒谱,基于所述标准基频对所述标准倒谱进行低通处理得到所述标准干声音频的频谱包络作为第二基础音频特征。
[0067]
在上述实施例的基础上,作为一种优选实施方式,还包括:
[0068]
第二获取模块,用于获取训练数据集;其中,所述训练数据集包括多个训练干声音频;
[0069]
第二提取模块,用于利用声码器提取所述训练干声音频的训练基础音频特征;
[0070]
训练模块,用于利用所述训练基础音频特征对基于神经网络的特征提取模型进行训练。
[0071]
在上述实施例的基础上,作为一种优选实施方式,所述训练模块包括:
[0072]
确定单元,用于确定所述训练干声音频对应的采样权重;
[0073]
训练单元,用于在每次训练的过程中,根据所述采样权重在所述训练数据集中选取本次训练的训练样本,并利用所述训练样本对应的训练基础音频特征对基于神经网络的特征提取模型进行训练。
[0074]
在上述实施例的基础上,作为一种优选实施方式,所述确定单元包括:
[0075]
第一构建子单元,用于根据所述训练干声音频中包含的每个音高对应的帧数构建所述训练干声音频对应的音高分布向量;
[0076]
第二构建子单元,用于根据所述训练数据集中所有所述训练干声音频对应的音高分布向量构建音高分布矩阵;
[0077]
确定子单元,用于基于所述音高分布矩阵和目标矩阵计算权重矩阵,并基于所述权值矩阵确定所述训练干声音频对应的采样权重;其中,所述目标矩阵中的每个元素均为目标值,所述目标值为所述音高分布矩阵中所有元素的和与所述训练数据集中训练干声音频的数量之间的比值。
[0078]
在上述实施例的基础上,作为一种优选实施方式,所述训练模块还包括:
[0079]
构建单元,用于在每次训练的过程中,基于所述特征提取模型输出的相邻帧的增强音频特征之间的相似度和非相邻帧的增强音频特征之间的相似度构建目标损失函数;其中,所述目标损失函数的函数值与相邻帧的增强音频特征之间的相似度呈正相关、与非相邻帧的增强音频特征之间的相似度呈负相关。
[0080]
在上述实施例的基础上,作为一种优选实施方式,所述目标损失函数具体为:
[0081][0082]
其中,zi为所述特征提取模型输出的第i帧的增强音频特征,z
i 1
为所述特征提取模型输出的第i 1帧的增强音频特征,zj为所述特征提取模型输出的第j帧的增强音频特征,sim(zi,z
i 1
)为zi与z
i 1
之间的余弦相似距离,sim(zi,zj)为zi与zj之间的余弦相似距离。
[0083]
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
[0084]
本技术还提供了一种电子设备,参见图3,本技术实施例提供的一种电子设备30的结构图,如图3所示,可以包括处理器31和存储器32。
[0085]
其中,处理器31可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器31可以采用dsp(digital signal processing,数字信号处理)、fpga(field-programmable gate array,现场可编程门阵列)、pla(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器31也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称cpu(central processing unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器31可以在集成有gpu(graphics processing unit,图像处理器),gpu用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器31还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。
[0086]
存储器32可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器32还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。本实施例中,存储器32至少用于存储以下计算机程序321,其中,该计算机程序被处理器31加载并执行之后,能够实现前述任一实施例公开的由电子设备侧执行的干声音频的时间戳确定方法中的相关步骤。另外,存储器32所存储的资源还可以包括操作系统322和数据323等,存储方式可以是短暂存储或者永久存储。其中,操作系统322可以包括windows、unix、linux等。
[0087]
在一些实施例中,电子设备30还可包括有显示屏33、输入输出接口34、通信接口35、传感器36、电源37以及通信总线38。
[0088]
当然,图3所示的电子设备的结构并不构成对本技术实施例中电子设备的限定,在实际应用中电子设备可以包括比图3所示的更多或更少的部件,或者组合某些部件。
[0089]
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述任一实施例电子设备所执行的干声音频的时间戳确定方法的步骤。
[0090]
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还
可以对本技术进行若干改进和修饰,这些改进和修饰也落入本技术权利要求的保护范围内。
[0091]
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
转载请注明原文地址:https://tc.8miu.com/read-3419.html