下载
中文
注册

模型选取与约束说明(必读)

模型选取

建议用户在选取迁移模型时,尽可能选取权威PyTorch模型实现仓,包括但不限于PyTorch(imagenet/vision等)、Meta Research(Detectron/detectron2等)、open-mmlab(MMDetection/mmpose等)。

对于大模型,使用较为广泛的资源仓库是HuggingFaceMegatron-LMLlama-Factory等仓库,可以在其中选取目标模型。

约束说明

在进行模型迁移前,需要了解如下模型迁移约束:

  • 迁移前要保证选定的模型能在三方平台(如GPU)上运行,并输出精度和性能基线。
  • 模型迁移前需参考Ascend Extension for PyTorch 配置与安装完成昇腾PyTorch训练环境安装,以便完成迁移支持度分析与后续的模型训练,包括NPU驱动固件、CANN软件(Toolkit、Kernels和NNAL)、以及PyTorch框架和torch_npu插件的安装。

目前已知的不支持场景:

  • 当前不支持使用DP(Data Parallel,数据并行)模式的模型迁移。若用户训练脚本中包含NPU平台不支持的torch.nn.parallel.DataParallel接口,则需手动修改该接口为torch.nn.parallel.DistributedDataParallel接口,以执行多卡训练。原脚本需要在GPU环境下基于Python3.8及以上跑通。
  • APEX库中的FusedAdam融合优化器,目前不支持使用自动迁移或PyTorch GPU2Ascend工具迁移该优化器,需用户手工进行迁移,具体修改方法可单击Link
  • 大模型迁移暂不支持bmtrain框架的迁移。
  • bitsandbytes已支持在昇腾上进行安装,具体可单击Supported Backends进行参考,目前仅支持NF4量化/反量化迁移,用于LLM QLoRA微调,其余功能暂不支持。
  • 大模型迁移暂不支持colossai三方库中HybridAdam优化器相关接口的迁移。
  • 目前暂不原生支持xFormers训练,如需使用xFormers中的FlashAttentionScore融合算子的迁移,用户可参考FlashAttentionScore章节进行替换。
  • 当前NPU不支持grouped_gemm第三方库安装。
  • 当前NPU支持composer第三方库安装,但NPU未做适配,无法使用。