Distributed RPC Framework

若API未标明支持情况,则代表该API的支持情况待验证。

API名称

是否支持

限制与说明

torch.distributed.rpc.init_rpc

     

torch.distributed.rpc.rpc_sync

     

torch.distributed.rpc.rpc_async

     

torch.distributed.rpc.remote

     

torch.distributed.rpc.get_worker_info

     

torch.distributed.rpc.shutdown

     

torch.distributed.rpc.WorkerInfo

     

torch.distributed.rpc.functions.async_execution

     

torch.distributed.rpc.BackendType

     

torch.distributed.rpc.RpcBackendOptions

     

torch.distributed.rpc.TensorPipeRpcBackendOptions

     

torch.distributed.rpc.TensorPipeRpcBackendOptions.set_device_map

     

torch.distributed.rpc.TensorPipeRpcBackendOptions.set_devices

     

torch.distributed.rpc.RRef

     

torch.distributed.rpc.RRef.backward

     

torch.distributed.rpc.RRef.confirmed_by_owner

     

torch.distributed.rpc.RRef.is_owner

     

torch.distributed.rpc.RRef.local_value

     

torch.distributed.rpc.RRef.owner

     

torch.distributed.rpc.RRef.owner_name

     

torch.distributed.rpc.RRef.remote

     

torch.distributed.rpc.RRef.rpc_async

     

torch.distributed.rpc.RRef.rpc_sync

     

torch.distributed.rpc.RRef.to_here

     

torch.distributed.nn.api.remote_module.RemoteModule

     

torch.distributed.nn.api.remote_module.RemoteModule.get_module_rref

     

torch.distributed.nn.api.remote_module.RemoteModule.remote_parameters

     

torch.distributed.autograd.backward

     

torch.distributed.autograd.context

     

torch.distributed.autograd.get_gradients