混合专家模型(MoE)

前期准备

  1. 参考软件安装模型迁移完成安装依赖、安装MindSpeed、获取Megatron-LM并指定commit id。
  2. MindSpeed目录下的tests_extend文件夹拷贝到Megatron-LM目录下。
    # {PATH_TO_MEGATRON_LM}: the root path of `Megatron-LM`
    cp -r MindSpeed/tests_extend {PATH_TO_MEGATRON_LM}

操作步骤

进入Megatron-LM目录,执行pretrain_llama_tp4_ep2_dp2.sh脚本。
cd {PATH_TO_MEGATRON_LM}
bash tests_extend/system_tests/llama2/pretrain_llama_tp4_ep2_dp2.sh

上述脚本pretrain_llama_tp4_ep2_dp2.sh,包括但不限于以下并行与优化特性