下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

readable_cache

函数功能

开启模型缓存编译功能时需要调用该接口读取封装的func函数缓存文件compiled_module,并以可读文件(格式不限,如py、txt)格式呈现。

函数原型

def readable_cache(cache_bin, print_output=True, file=None)

参数说明

参数

输入/输出

说明

是否必选

cache_bin

输入

指定被封装func函数缓存文件的路径。例如/home/workspace/.torchair_cache/Model_dynamic_f2df0818d06118d4a83a6cacf8dc6d28/prompt/compiled_module。

print_output

输入

是否打屏显示func函数缓存文件解析后的内容。

  • True:默认开启打屏显示。
  • False:不开启打屏显示。

file

输出

解析生成的可读文件路径。缺省为None,即不生成可读文件。

  • 绝对路径:如/home/workspace/prompt.py
  • 相对路径:如prompt.py,默认在调用该接口的脚本所在工作目录下。

返回值说明

返回文件内容,String类型。

约束说明

调用示例

1
2
import torch_npu, torchair
torchair.inference.readable_cache("/home/workspace/.torchair_cache/Model_dynamic_f2df0818d06118d4a83a6cacf8dc6d28/prompt/compiled_module", file="prompt.py")
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词