批量算子模型文件生成
用法 |
python3 run_generate_model.py -m <mode> -t <npu_type> -p <pipeline> -pool <pool_size> |
---|---|
参数名称 |
<mode>:算法模式,<mode>支持ALL以及Flat,SQ8,IVFSQ8,INT8中的一种或多种,多种之间用逗号隔开,如:python3 run_generate_model.py -m Flat,IVFSQ8。默认全选,可以直接执行python3 run_generate_model.py。 <npu_type>:硬件形态,当前<npu_type>支持Atlas 200/300/500 推理产品、Atlas 推理系列产品(Ascend 310P AI处理器)以及Atlas 800I A2推理产品,默认为“310”。其中Atlas 800I A2推理产品只支持生成Flat算子。如果无法确定具体的npu_type,则在安装昇腾AI处理器的服务器执行npu-smi info命令进行查询,查询到的“Name”即是npu_type。 <pipeline>:是否使用多线程并行流水生成算子模型,默认为“true”。设置为“true”时,使用默认的“pool_size”的值为“32”。 <pool_size>:批量生成算子多进程调度的进程池大小。 --help | -h:查询帮助信息。 |
说明 |
|
父主题: 算子生成说明