下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

核函数NPU上板精度验证

NPU调测支持一键PIPE_ALL等调试功能,更多相关介绍参见NPU调测功能

本场景以AddCustom算子为例,通过torch生成输入数据和标杆数据,核函数NPU上板调测过程如下。请根据自身实际情况,按需修改示例代码。

import torch
import numpy as np
import ascendebug

# 设置和清理日志文件
ascendebug.set_log_file('test.log', clean=True)

# 1.生成输入/标杆数据
x = torch.rand(size=(1, 16384), dtype=torch.float16)
y = torch.rand(size=(1, 16384), dtype=torch.float16)
z = x + y

# 2.构建算子信
debug_op = ascendebug.create_debug_op('add_custom', 'VectorCore', '${chip_version}') \
	.scalar_input('tileNumIn', 'uint32', 10) \
	.tensor_input('x', x) \
	.tensor_input('y', y) \
	.tensor_output('z', z)

# 3.创建调试对象并初始化工作空间
install_pkg = "/home/run_pkg/"
op_executor = ascendebug.create_op_executor(debug_op=debug_op, install_path=install_pkg)

# 4.配置核函数源码信息
kernel_info = ascendebug.OpKernelInfo("/src_path/add_custom.cpp", 'add_custom', [])

# 5.调用NPU编译接口
npu_option = ascendebug.CompileNpuOptions()
kernel_name, kernel_file, extern = op_executor.compile_call_kernel_npu(kernel_info, npu_option)

# 6.调用NPU运行接口,完成上板精度比对
run_npu_options = ascendebug.RunNpuOptions(block_num=32)
npu_compile_info = ascendebug.NpuCompileInfo(syncall=extern['cross_core_sync'], task_ration=extern['task_ration'])
op_executor.run_npu(kernel_file, npu_options=run_npu_options, npu_compile_info=npu_compile_info)

算子在NPU板端运行调测的精度比对结果示例可以参见“NPU调测功能 > 调测产物”。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词