接口列表
用户可以基于深度学习框架TensorFlow 2.6.5进行训练或在线推理脚本的开发,TF Adapter提供了适配TensorFlow 2.6.5框架的用户接口。
图1 TF Adapter接口
接口路径:{install_path}/python/site-packages/npu_device。
接口名称 |
接口简介 |
---|---|
用于注册NPU设备,当前必须连续调用as_default设置NPU为默认设备。 |
|
返回NPU设备初始化全局单例配置对象,通过修改该全局单例对象的属性值,可以控制NPU设备初始化时的选项。该接口必须在调用npu.open接口初始化NPU设备前完成设置。 |
|
用于NPU分布式部署场景下,worker间的聚合运算。 |
|
用于NPU分布式部署场景下,worker间的变量同步。 |
|
在更新梯度前,添加npu的allreduce操作对梯度进行聚合,然后再更新梯度。该接口仅在分布式场景下使用。 |
|
用于NPU分布式部署场景下,不同worker上数据集分片及batch大小调整。 |
|
指定哪些算子保持原有精度,如果原始网络模型中的算子精度在昇腾AI处理器上不支持,则系统内部自动采用算子支持的高精度来计算。 |
|
用于设置NPU循环下沉执行时的循环次数。 |
|
NPU提供的LossScaleOptimizer,浮点计算的溢出模式为“饱和模式”的场景下,由于NPU上的溢出运算不保证输出Inf或者NaN,所以此种场景下,使用LossScaleOptimizer的脚本应当替换为该优化器,来屏蔽溢出检测的差异。 |
|
计算高斯误差线性单元 (GELU) 激活函数。将输入Tensor乘以1个P(X <= x),其中P(X) ~ N(0, 1)。 |
|
设置针对浮点计算的进程级溢出模式,当前可支持两种溢出模式:饱和模式与INF/NAN模式。
|