一种GPU卡分配的方法、系统、设备和存储介质与流程

    专利查询2025-01-17  18


    一种gpu卡分配的方法、系统、设备和存储介质
    技术领域
    1.本发明涉及人工智能训练领域,更具体地,特别是指一种gpu卡分配的方法、系统、设备和存储介质。


    背景技术:

    2.ai(人工智能)训练场景中,当ai服务器存在多个gpu(graphics processing unit,图形处理器)卡时,为了获得最优的训练效果,有时单台ai服务器会搭载2个、4个、8个高性能网卡(roce网卡或者infiniband网卡),当gpu服务器搭载多个roce网卡时,由于roce(rdma over converged ethernet,基于融合以太网的远程直接内存访问)协议基于udp(user datagram protocol,用户数据报协议)实现rdma传输,需要为每个roce网卡配置ip地址,当服务器存在多个roce网卡时,通常会配置多个属于不同子网的ip,当分布式训练任务使用的gpu卡与不同子网的roce网卡满足亲和性时,此时存在跨子网通信的需求,这通常需要配置复杂的网络来实现跨子网通信,会增加集群的运维难度,并且跨在交换机实现跨子网通信时,通常对交换机的上行带宽要要求,否则会出现性能瓶颈,这同样会带来运维以及价格成本的提高。


    技术实现要素:

    3.有鉴于此,本发明实施例的目的在于提出一种gpu卡分配的方法、系统、计算机设备及计算机可读存储介质,本发明在多roce网卡场景下运行分布式人工智能训练任务,对gpu与roce网络资源分配方案的优化,使得同一分布式训练任务的多个worker(工作者)使用的vf(本发明实施例指虚拟roce网卡)都会在一个子网内,从而能够避免训练任务跨子网通信的需求,避免集群引入更复杂的跨子网通信需求,降低集群运维成本。
    4.基于上述目的,本发明实施例的一方面提供了一种gpu卡分配的方法,包括如下步骤:将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;检测是否存在节点存在属于不同numa组的roce网卡;响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。
    5.在一些实施方式中,所述统计全部节点当前不同gpu资源的空闲数量包括:确定每个节点当前空余数量最多的gpu资源,对全部节点中每种gpu资源分别进行求和。
    6.在一些实施方式中,所述将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类包括:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。
    7.在一些实施方式中,所述将当前空闲数量最多的gpu资源分配给所述训练任务包括:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。
    8.本发明实施例的另一方面,提供了一种gpu卡分配的系统,包括:分类模块,配置用于将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;检测模块,配置用于检测是否存在节点存在属于不同numa组的roce网卡;执行模块,配置用于响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及分配模块,配置用于响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。
    9.在一些实施方式中,所述分配模块配置用于:确定每个节点当前空余数量最多的gpu资源,对全部节点中每种gpu资源分别进行求和。
    10.在一些实施方式中,所述分类模块配置用于:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。
    11.在一些实施方式中,所述分配模块配置用于:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。
    12.本发明实施例的又一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现如上方法的步骤。
    13.本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
    14.本发明具有以下有益技术效果:在多roce网卡场景下运行分布式人工智能训练任务,对gpu与roce网络资源分配方案的优化,使得同一分布式训练任务的多个工作者使用的虚拟roce网卡都会在一个子网内,从而能够避免训练任务跨子网通信的需求,避免集群引入更复杂的跨子网通信需求,降低集群运维成本。
    附图说明
    15.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
    16.图1为本发明提供的gpu卡分配的方法的实施例的示意图;
    17.图2为本发明提供的gpu卡分配的系统的实施例的示意图;
    18.图3为本发明提供的gpu卡分配的计算机设备的实施例的硬件结构示意图;
    19.图4为本发明提供的gpu卡分配的计算机存储介质的实施例的示意图。
    具体实施方式
    20.为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
    21.需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
    22.本发明实施例的第一个方面,提出了一种gpu卡分配的方法的实施例。图1示出的是本发明提供的gpu卡分配的方法的实施例的示意图。如图1所示,本发明实施例包括如下步骤:
    23.s1、将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;
    24.s2、检测是否存在节点存在属于不同numa组的roce网卡;
    25.s3、响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及
    26.s4、响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。
    27.本发明实施例基于kubernetes搭建ai训练平台,基于sriov实现物理roce网卡的虚拟化,并基于自研的节点资源管理组件将节点内的gpu卡按照与物理roce网卡的亲和性进行分类,当节点中存在两个属于不同numa组的roce网卡时,将该节点的gpu资源定义为两类gpu资源,并上报到ai训练平台,ai训练平台在创建训练任务时,基于一定的策略申请这两类gpu资源。使用同一类gpu资源的分布式任务,会运行在多个节点,nccl会基于gpu与roce网卡的亲和性选择roce网卡,会选择属于同一子网的roce网卡。
    28.本发明实施例中的pf指物理roce网卡,vf指虚拟roce网卡。
    29.将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类。
    30.gpu服务器包含两个属于不同numa(non uniform memory access,非统一内存访问)组的roce网卡,并配置属于不同子网的ip地址,部署自研的ai训练平台,以两个节点为例,如下表所示,其中pf与vf的虚拟化比例,按照与物理roce卡亲和的gpu数量,例如,有4个gpu卡与物理roce网卡亲和,则将一个pf虚拟化为4个vf。
    [0031][0032]
    检测是否存在节点存在属于不同numa组的roce网卡。响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台。
    [0033]
    每个gpu服务器部署资源管理组件,自动发现gpu卡与物理roce网卡的亲和性关系。如下所示:
    [0034]
    (gpu0、gpu1、gpu2、gpu3)与roce1网卡基于numa亲和,也就是与vf(mlx5_4、mlx5_5、mlx5_6、mlx5_7)亲和,nccl在运行训练任务时,当使用(gpu0、gpu1、gpu2、gpu3)时,会选择roce1网卡对应的vf,将这4个gpu和4个vf定义为一类资源,可以用资源名称inspur.com/gpu-roce1表示,按照以下组合上报到kubernetes管理平台:
    [0035]
    [“gpu0/mlx5_4”,“gpu1/mlx5_5”,“gpu2/mlx5_6”,“gpu3/mlx5_7”]。
    [0036]
    当训练任务申请这类资源时,同时将gpu和vf一起分配给容器。
    [0037]
    (gpu4、gpu5、gpu6、gpu7)与roce1网卡基于numa亲和,也就是与vf(mlx5_8、mlx5_9、mlx5_10、mlx5_11)亲和,nccl在运行训练任务时,当使用(gpu4、gpu5、gpu6、gpu7)时,会选择roce2网卡对应的vf,将这4个gpu和4个vf定义为一类gpu资源,可以用资源名称inspur.com/gpu-roce2表示,按照以下组合上报到kubernetes管理平台:
    [0038]
    [“gpu4/mlx5_8”,“gpu5/mlx5_9”,“gpu6/mlx5_10”,“gpu7/mlx5_11”]。
    [0039]
    当训练任务申请这类资源时,同时将gpu和vf一起分配给容器。
    [0040]
    响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。
    [0041]
    在一些实施方式中,所述统计全部节点当前不同gpu资源的空闲数量包括:确定每个节点当前空余数量最多的gpu资源,对全部节点中每种gpu资源分别进行求和。
    [0042]
    创建训练任务时,只需申请inspur.com/gpu-roce1或者inspur.com/gpu-roce2,资源对应的值表示真实的gpu卡数,如果inspur.com/gpu-roce1的空闲数量大于inspur.com/gpu-roce2的空闲数量,则该节点建议申请inspur.com/gpu-roce1资源,反之该节点建议申请inspur.com/gpu-roce2。分别将建议申请inspur.com/gpu-roce1和inspur.com/gpu-roce2资源的节点的数量进行相加,当集群中建议申请inspur.com/gpu-roce1资源的节点数多于建议申请inspur.com/gpu-roce2的节点数,则新创建的训练任务申请inspur.com/gpu-roce1资源;如果集群中建议申请inspur.com/gpu-roce1资源的节点数少于建议申请inspur.com/gpu-roce2的节点数,则新创建的训练任务申请inspur.com/gpu-roce2资源;如果集群中建议申请inspur.com/gpu-roce1资源的节点数等于建议申请inspur.com/gpu-roce2的节点数,则新创建的训练任务可以申请inspur.com/gpu-roce1,也可以申请inspur.com/gpu-roce2。
    [0043]
    在一些实施方式中,所述将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类包括:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。
    [0044]
    在一些实施方式中,所述将当前空闲数量最多的gpu资源分配给所述训练任务包括:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。
    [0045]
    底层资源分配组件为训练任务的容器分配gpu资源和roce网卡资源时,根据训练任务申请的资源类型,同时为其分配gpu资源和vf资源,当训练任务申请的资源为inspur.com/gpu-roce1=2时,表示为该任务分配两个gpu卡,同时分配该gpu卡对应的vf,其中gpu资源按照kubernetes分配的gpu id进行处理,vf只需要选择一个就可以,并通过透传
    ‑‑
    device参数,返回给kubernetes。
    [0046]
    设置环境变量,例如nvidia_device_ids=gpu-aaaf4930-07bd-00a5-c751-e173757cad99,gpu-b04a7a3d-f538-58d7-29c4-c1a4fff1a45c(表示gpu0和gpu1的gpu device id)。设置vf设备名称
    ‑‑
    devices=00:5e:00.1(表示mlx5_4的pci id)。以此方式传递给容器的gpu卡和vf卡默认满足亲和性,nccl会自动为该gpu选择该vf,(资源管理组件同时需要将该vf对应的设备名称设置到/etc/nccl.conf文件中)。训练任务容器启动时完成vf的ip配置与激活。
    [0047]
    需要特别指出的是,上述gpu卡分配的方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于gpu卡分配的方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
    [0048]
    基于上述目的,本发明实施例的第二个方面,提出了一种gpu卡分配的系统。如图2所示,系统200包括如下模块:分类模块,配置用于将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;检测模块,配置用于检测是否存在节点存在属于不同numa组的roce网卡;执行模块,配置用于响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及分配模块,配置用于响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。
    [0049]
    在一些实施方式中,所述分配模块配置用于:确定每个节点当前空余数量最多的
    gpu资源,对全部节点中每种gpu资源分别进行求和。
    [0050]
    在一些实施方式中,所述分类模块配置用于:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。
    [0051]
    在一些实施方式中,所述分配模块配置用于:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。
    [0052]
    基于上述目的,本发明实施例的第三个方面,提出了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行以实现如下步骤:s1、将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;s2、检测是否存在节点存在属于不同numa组的roce网卡;s3、响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及s4、响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。
    [0053]
    在一些实施方式中,所述统计全部节点当前不同gpu资源的空闲数量包括:确定每个节点当前空余数量最多的gpu资源,对全部节点中每种gpu资源分别进行求和。
    [0054]
    在一些实施方式中,所述将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类包括:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。
    [0055]
    在一些实施方式中,所述将当前空闲数量最多的gpu资源分配给所述训练任务包括:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。
    [0056]
    如图3所示,为本发明提供的上述gpu卡分配的计算机设备的一个实施例的硬件结构示意图。
    [0057]
    以如图3所示的装置为例,在该装置中包括一个处理器301以及一个存储器302。
    [0058]
    处理器301和存储器302可以通过总线或者其他方式连接,图3中以通过总线连接为例。
    [0059]
    存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本技术实施例中的gpu卡分配的方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现gpu卡分配的方法。
    [0060]
    存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据gpu卡分配的方法的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
    [0061]
    一个或者多个gpu卡分配的方法对应的计算机指令303存储在存储器302中,当被处理器301执行时,执行上述任意方法实施例中的gpu卡分配的方法。
    [0062]
    执行上述gpu卡分配的方法的计算机设备的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
    [0063]
    本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时执行gpu卡分配的方法的计算机程序。
    [0064]
    如图4所示,为本发明提供的上述gpu卡分配的计算机存储介质的一个实施例的示意图。以如图4所示的计算机存储介质为例,计算机可读存储介质401存储有被处理器执行时执行如上方法的计算机程序402。
    [0065]
    最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,gpu卡分配的方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(rom)或随机存储记忆体(ram)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
    [0066]
    以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
    [0067]
    应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
    [0068]
    上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
    [0069]
    本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
    [0070]
    所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

    技术特征:
    1.一种gpu卡分配的方法,其特征在于,包括如下步骤:将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;检测是否存在节点存在属于不同numa组的roce网卡;响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。2.根据权利要求1所述的方法,其特征在于,所述统计全部节点当前不同gpu资源的空闲数量包括:确定每个节点当前空余数量最多的gpu资源,对全部节点中每种gpu资源分别进行求和。3.根据权利要求1所述的方法,其特征在于,所述将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类包括:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。4.根据权利要求3所述的方法,其特征在于,所述将当前空闲数量最多的gpu资源分配给所述训练任务包括:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。5.一种gpu卡分配的系统,其特征在于,包括:分类模块,配置用于将人工智能训练平台中每个节点内的gpu卡按照与物理roce网卡的亲和性进行分类;检测模块,配置用于检测是否存在节点存在属于不同numa组的roce网卡;执行模块,配置用于响应于存在节点存在属于不同numa组的roce网卡,将所述节点的gpu资源定义为不同gpu资源,并上报到所述人工智能训练平台;以及分配模块,配置用于响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同gpu资源的空闲数量,并将当前空闲数量最多的gpu资源分配给所述训练任务。6.根据权利要求5所述的系统,其特征在于,所述分配模块配置用于:确定每个节点当前空余数量最多的gpu资源,对全部节点中每种gpu资源分别进行求和。7.根据权利要求5所述的系统,其特征在于,所述分类模块配置用于:按照与物理roce网卡亲和的gpu卡的数量将物理roce网卡虚拟化为对应数量的虚拟roce网卡。8.根据权利要求7所述的系统,其特征在于,所述分配模块配置用于:确定所述gpu资源对应的虚拟roce网卡,在所述虚拟roce网卡中选择一个分配给所述训练任务。9.一种计算机设备,其特征在于,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处
    理器执行时实现权利要求1-4任意一项所述方法的步骤。10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任意一项所述方法的步骤。

    技术总结
    本发明提供一种GPU卡分配的方法、系统、设备和存储介质,方法包括:将人工智能训练平台中每个节点内的GPU卡按照与物理ROCE网卡的亲和性进行分类;检测是否存在节点存在属于不同NUMA组的ROCE网卡;响应于存在节点存在属于不同NUMA组的ROCE网卡,将所述节点的GPU资源定义为不同GPU资源,并上报到所述人工智能训练平台;以及响应于所述人工智能训练平台创建训练任务,统计全部节点当前不同GPU资源的空闲数量,并将当前空闲数量最多的GPU资源分配给所述训练任务。本发明能够避免训练任务跨子网通信的需求,避免集群引入更复杂的跨子网通信需求,降低集群运维成本。降低集群运维成本。降低集群运维成本。


    技术研发人员:王德奎
    受保护的技术使用者:苏州浪潮智能科技有限公司
    技术研发日:2022.01.28
    技术公布日:2022/5/25
    转载请注明原文地址:https://tc.8miu.com/read-25932.html

    最新回复(0)