torch.backends

若API未标明支持情况则代表该API暂无验证结果,待验证后更新表格。

API名称

是否支持

限制与说明

torch.backends.cpu.get_cpu_capability

  

torch.backends.cuda.is_built

支持fp32

torch.backends.cuda.matmul.allow_tf32

支持fp32

torch.backends.cuda.matmul.allow_fp16_reduced_precision_reduction

     

torch.backends.cuda.matmul.allow_bf16_reduced_precision_reduction

     

torch.backends.cuda.cufft_plan_cache

     

torch.backends.cuda.cufft_plan_cache.size

     

torch.backends.cuda.cufft_plan_cache.max_size

     

torch.backends.cuda.cufft_plan_cache.clear

     

torch.backends.cuda.preferred_linalg_library

支持fp32

torch.backends.cuda.SDPBackend

支持fp32

torch.backends.cuda.flash_sdp_enabled

支持fp32

shape最大支持128X128

torch.backends.cuda.enable_mem_efficient_sdp

支持fp32

torch.backends.cuda.mem_efficient_sdp_enabled

支持fp32

torch.backends.cuda.enable_flash_sdp

  

torch.backends.cuda.math_sdp_enabled

支持fp32

torch.backends.cuda.enable_math_sdp

支持fp32

torch.backends.cuda.sdp_kernel

支持fp32

torch.backends.cudnn.version

     

torch.backends.cudnn.is_available

支持fp32

torch.backends.cudnn.enabled

支持fp32

torch.backends.cudnn.allow_tf32

支持fp32

torch.backends.cudnn.deterministic

  

torch.backends.cudnn.benchmark

支持fp32

torch.backends.cudnn.benchmark_limit

     

torch.backends.mps.is_available

  

torch.backends.mps.is_built

支持bf16,fp32

torch.backends.mkl.is_available

支持bf16,fp16,fp32

torch.backends.mkl.verbose

  

torch.backends.mkldnn.is_available

  

torch.backends.mkldnn.verbose

  

torch.backends.openmp.is_available

支持fp32

torch.backends.opt_einsum.is_available

支持fp32

torch.backends.opt_einsum.get_opt_einsum

支持fp32

torch.backends.opt_einsum.enabled

     

torch.backends.opt_einsum.strategy