文档
注册

概述

X2MindSpore工具可将基于PyTorch和TensorFlow开发的模型及其训练脚本根据适配规则迁移为可基于MindSpore运行的代码,大幅度提高了脚本迁移速度,降低了开发者的工作量。

  • 该分析迁移工具支持对包括但不限于模型列表列出的模型进行迁移,迁移成功后可直接运行,部分模型需要根据实际情况进行少量适配。
  • X2MindSpore工具当前仅支持PyTorch和TensorFlow训练脚本的迁移。
  • X2MindSpore工具会在迁移后的目录中生成适配层文件目录x2ms_adapter。该目录中保存的是基于MindSpore实现的PyTorch/TensorFlow API替换接口,工具会将原PyTorch/TensorFlow API按照映射关系迁移至适配层API,迁移后代码依赖适配层运行。
  • X2MindSpore工具能支持模型列表中的模型迁移后训练成功且收敛,对最终精度和性能暂不作保证。
  • 通过该分析迁移工具迁移后的训练工程支持在MindSpore1.7及更新版本上运行。

使用限制

  • MindSpore支持两种运行模式(Graph模式和PyNative模式),由于Graph模式存在Python语法限制,当前仅有表1中的ResNet和BiT系列(PyTorch)的模型支持迁移至Graph模式,其余模型只支持迁移至PyNative模式,训练性能较Graph模式有所降低。具体差异详见MindSpore文档
  • 当前为了规避MindSpore中数据处理不支持创建Tensor的限制,在PyTorch迁移过程中将运行模式设置成了算子同步下发模式,可能存在训练性能的部分降低;用户可通过将context.set_context中的pynative_synchronize=True去除,使用算子异步下发模式提升性能;此时若报错,可检查数据处理部分代码,去除其中的创建Tensor行为,改为使用numpy的ndarray。
  • 当其他程序占用当前卡,导致可用内存不足,可在context.set_context语句中添加device_id = **为指定卡号。
  • 当前TensorFlow 1迁移结果不支持多卡运行。
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词