手册阅读概览
手册 |
介绍 |
---|---|
比对自有实现的算子运算结果与用业界标准算子(如Caffe、TensorFlow)运算结果存在的偏差,帮助开发人员快速解决算子精度问题。
|
|
Auto Tune调优工具可以自动对算子进行性能优化,提升算子的运行效率。生成网络模型时,你可以使能Auto Tune工具实现算子性能的自动优化,调优完成后,调优的结果会放入自定义知识库,则后续调用相关算子时便可以直接享受调优后的算子性能。 |
|
用于分析在训练阶段或运行在昇腾AI处理器上的APP工程各个运行阶段的关键性能瓶颈,并提出针对性能优化的建议,最终实现产品的极致性能。 |
|
在执行推理/训练发现AI Core error问题时,使用AI Core Error Analyzer工具可以自动快速准确地收集定位AI Core Error问题所需的关键信息,提升开发者对AI Core Error的排查效率。 |
|
介绍如何使用脚本转换工具将脚本转换为支持在NPU上运行的脚本,解决基于GPU的训练和在线推理脚本不能直接在NPU上运行的问题。 |
|
提供了查询当前版本CANN支持的模型和算子功能。 |
|
专家系统(MindStudio Advisor)是用于聚焦模型和算子的性能调优TOP问题,识别性能瓶颈Pattern,重点构建瓶颈分析、优化推荐模型,支撑开发效率提升的工具。 |
|
不要求在Atlas 训练系列产品环境上运行的工具使用场景: |
介绍如何通过昇腾模型压缩工具(Ascend Model Compression Toolkit,简称AMCT)对原始网络模型进行量化,量化是指对模型的权重(weight)和数据(activation)进行低比特处理,让最终生成的网络模型更加轻量化,从而达到节省网络模型存储空间、降低传输时延、提高计算效率,达到性能提升与优化的目标。 |
要求在Atlas 训练系列产品环境上运行的工具使用场景: |