CKPT_DIR=./ckpt_llama DATA_PATH="/home/dataset/llama2/alpaca_text_document" TOKENIZER_MODEL="/home/dataset/model/llama-2-7b-hf/tokenizer.model"
以上路径请根据实际情况进行替换。
cd {PATH_TO_MEGATRON_LM} bash tests_extend/system_tests/llama2/pretrain_llama2_70B_4k_tp2_pp2_vpp1_dp2.sh
--tensor-model-parallel-size # 张量并行 --pipeline-model-parallel-size # 流水线并行 --num-layers-per-virtual-pipeline-stage 1 # 每个虚拟流水线阶段的层数为1 --sequence-parallel # 序列并行
--use-flash-attn # Flash Attention融合算子 --normalization RMSNorm # RMSNorm归一化 --use-fused-rmsnorm # RMSNorm融合算子 --swiglu # SwiGLU激活函数 --use-fused-swiglu # SwiGLU融合算子