配置算力节点后,在创建工作负载时,支持设置算力资源的类型和上限,还可以在容器组的注解中配置算力资源的调度策略。

前提条件

  • 已部署算力节点。

  • KubeSphere 平台需要安装并启用算力设备管理扩展组件。

  • 您需要加入一个集群或项目,并在集群或项目中具有应用负载管理权限。有关更多信息,请参阅集群角色项目角色

操作步骤

  1. 以具有应用负载管理权限的用户登录 KubeSphere Web 控制台并进入您的集群或企业空间。

  2. 在左侧导航栏选择工作负载

  3. 点击部署有状态副本集守护进程集打开工作负载列表。

  4. 在页面点击创建

  5. 基本信息页签,设置工作负载的基本信息,然后点击下一步

  6. 容器组设置页签,为工作负载管理的容器组设置 GPU/NPU 类型、GPU/NPU 使用数量上限。

    use computing node 1
    说明

    当 “GPU 类型”设置为 GPU 虚拟卡时,方可配置算力和显存上限。

  7. 容器组设置页签,还可以添加注解以配置 GPU/NPU 资源的调度策略。

    use computing node 2

    注解示例:

    说明

    hami.io/node-scheduler-policyhami.io/gpu-scheduler-policy

    binpack 或 spread

    • binpack: 优先填满单卡/单节点,多个 Pod 会优先使用同一个节点。适用于提高利用率的场景。

    • spread: 多个 Pod 会分散在不同节点、不同显卡上,优先选择资源剩余量较多的节点。适用于高可用场景。

    nvidia.com/use-gputype

    A100,V100

    指定 GPU 卡的类型,使用逗号分隔,不会在未指定的卡上启动作业

    nvidia.com/nouse-gputype

    1080,2080

    指定黑名单中 GPU 卡的类型,使用逗号分隔,不会在指定的卡上启动作业

    nvidia.com/use-gpuuuid

    GPU-123456

    任务将被分配到 UUID 为 GPU-123456 的设备上

    说明

    更多信息,可参阅 HAMi 官方文档

有关创建工作负载的更多信息,请参阅创建工作负载