下载
中文
注册

模型推理测试

以ChatGLM3-6B为例,查看大语言模型列表该模型支持的卡数,使用命令“npu-smi info”可查看当前昇腾卡的占用情况。

  • 若为Atlas 800I A2 推理服务器请执行以下步骤。
    进入容器后,执行以下命令,运行ChatGLM3-6B推理样例。“/home/weight/chatglm3-6b”为容器的模型权重路径。
    cd /usr/local/Ascend/llm_model
    bash examples/models/chatglm/v2_6b/run_800i_a2_pa.sh /home/weight/chatglm3-6b

    回显如图1所示信息,表示推理成功。

    图1 推理样例
  • 若为Atlas 800 推理服务器(型号:3000)配置Atlas 300I Duo 推理卡请执行以下步骤。
    进入容器后,执行以下命令,运行ChatGLM3-6B推理样例。“/home/weight/chatglm3-6b”为容器的模型权重路径。
    cd /usr/local/Ascend/llm_model
    bash examples/models/chatglm/v2_6b/run_300i_duo_pa.sh /home/weight/chatglm3-6b

    回显如图2所示信息,表示推理成功。

    图2 推理样例