文档
注册

torch

若API未标明支持情况则代表该API暂无验证结果,待验证后更新表格。

API名称

是否支持

限制与说明

torch.default_generator

     

torch.SymInt

支持fp32

torch.SymFloat

支持fp32

torch.SymBool

支持fp32

torch.Tag

  

torch.Tag.name

     

torch.is_tensor

支持fp32

torch.is_storage

  

torch.is_complex

支持fp32

torch.is_conj

  

torch.is_floating_point

支持fp32

torch.is_nonzero

支持fp32

torch.set_default_dtype

  

torch.get_default_dtype

  

torch.set_default_device

  

torch.set_default_tensor_type

不支持传入torch.npu.DtypeTensor类型

torch.numel

  

torch.set_printoptions

  

torch.set_flush_denormal

  

torch.tensor

支持fp32

torch.sparse_coo_tensor

     

torch.sparse_csr_tensor

     

torch.sparse_csc_tensor

     

torch.sparse_bsr_tensor

     

torch.sparse_bsc_tensor

     

torch.asarray

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.as_tensor

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.as_strided

支持fp32

torch.from_file

     

torch.from_numpy

支持输出fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.from_dlpack

     

torch.frombuffer

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.zeros

  

torch.zeros_like

支持bf16,fp16,fp32,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.ones

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.ones_like

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.arange

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.range

  

torch.linspace

支持bf16,fp16,fp32,fp64

torch.logspace

     

torch.eye

支持fp16,fp32

torch.empty

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.empty_like

支持bf16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.empty_strided

  

torch.full

支持fp32

torch.full_like

支持uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.quantize_per_tensor

  

torch.quantize_per_channel

  

torch.dequantize

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.complex

     

torch.polar

  

torch.heaviside

  

torch.adjoint

     

torch.argwhere

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cat

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.concat

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.concatenate

支持bf16,fp16,fp32,int64,bool

torch.conj

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.chunk

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.dsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.column_stack

     

torch.dstack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.gather

支持fp32,fp16,int16,int32,int64,bool

torch.hsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.hstack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.index_add

支持fp32,fp16,int64,bool

torch.index_copy

支持fp32

torch.index_reduce

支持bf16,fp16,fp32,int64,bool

torch.index_select

支持bf16,fp32,fp16,int16,int32,int64,bool

torch.masked_select

支持fp32,fp16,int16,int32,int64,bool

torch.movedim

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.moveaxis

支持torch.int64, torch.float, torch.complex128

torch.narrow

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.narrow_copy

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.nonzero

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.permute

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.reshape

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.row_stack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.select

     

torch.scatter

支持int16,int32,int64

torch.diagonal_scatter

支持bf16,fp32,fp16,int16,int32,int64,bool

torch.select_scatter

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.slice_scatter

  

torch.scatter_add

     

torch.scatter_reduce

     

torch.split

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.squeeze

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.stack

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.swapaxes

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.swapdims

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.t

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.take

支持fp32,fp16,int16,int32,int64,bool

torch.take_along_dim

支持fp32

torch.tensor_split

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.tile

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.transpose

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.unbind

     

torch.unravel_index

     

torch.unsqueeze

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.vsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.vstack

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.where

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持8维度的shape

torch.Generator

  

torch.Generator.device

     

torch.Generator.get_state

  

torch.Generator.initial_seed

  

torch.Generator.manual_seed

  

torch.Generator.seed

  

torch.Generator.set_state

  

torch.seed

  

torch.manual_seed

  

torch.initial_seed

  

torch.get_rng_state

  

torch.set_rng_state

  

torch.bernoulli

支持fp32

torch.multinomial

支持fp32,fp16

torch.normal

支持fp32,fp16

torch.poisson

  

torch.rand

  

torch.rand_like

支持int8,uint8,int16,int32,int64

torch.randint

  

torch.randint_like

支持fp32,fp16,int64

torch.randn

  

torch.randn_like

支持fp32

torch.randperm

  

torch.quasirandom.SobolEngine

     

torch.quasirandom.SobolEngine.draw

     

torch.quasirandom.SobolEngine.draw_base2

     

torch.quasirandom.SobolEngine.fast_forward

     

torch.quasirandom.SobolEngine.reset

     

torch.save

  

torch.load

  

torch.get_num_threads

  

torch.set_num_threads

  

torch.get_num_interop_threads

  

torch.set_num_interop_threads

  

torch.no_grad

  

torch.enable_grad

  

torch.set_grad_enabled

  

torch.is_grad_enabled

  

torch.inference_mode

  

torch.is_inference_mode_enabled

  

torch.abs

支持bf16,fp32,fp16,fp64,uint8,int8,int16,int32,int64,bool

torch.absolute

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.acos

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arccos

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.acosh

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.arccosh

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.add

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.addcdiv

支持fp16,fp32,int64

在int64类型不支持三个tensor同时广播

torch.addcmul

支持bf16,fp16,fp32,fp64,uint8,int8,int32,int64

在int8,uint8,int64,fp64类型不支持三个tensor同时广播

torch.angle

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.asin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arcsin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.asinh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.arcsinh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.atan

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arctan

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.atanh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.arctanh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.atan2

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arctan2

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.bitwise_not

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_and

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_or

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_xor

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_left_shift

     

torch.bitwise_right_shift

     

torch.ceil

支持fp32,fp16

torch.clamp

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.clip

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.conj_physical

     

torch.copysign

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cos

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.cosh

支持fp16,fp32,fp64

torch.deg2rad

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.div

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.divide

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.digamma

     

torch.erf

支持fp32,fp16,int64,bool

torch.erfc

支持fp32,fp16,int64,bool

torch.erfinv

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.exp

支持bf16,fp16,fp32,fp64,int64,bool,complex64,complex128

torch.exp2

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.expm1

支持fp32,fp16,int64,bool

torch.fake_quantize_per_channel_affine

     

torch.fake_quantize_per_tensor_affine

     

torch.fix

支持fp16,fp32

torch.float_power

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex128

torch.floor

支持fp32,fp16

torch.floor_divide

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.fmod

支持fp32,fp16,uint8,int8,int32,int64

torch.frac

     

torch.frexp

     

torch.gradient

支持bf16,fp32,fp16,int8,int16,int32,int64

torch.imag

     

torch.ldexp

支持fp16,fp64,complex64

torch.lerp

支持fp32,fp16

torch.lgamma

     

torch.log

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.log10

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.log1p

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.log2

支持bf16,fp32,int64,bool,fp16

torch.logaddexp

不支持double数据类型

torch.logaddexp2

不支持double数据类型

torch.logical_and

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logical_not

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.logical_or

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logical_xor

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logit

     

torch.hypot

     

torch.i0

     

torch.igamma

     

torch.igammac

     

torch.mul

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.multiply

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.mvlgamma

     

torch.nan_to_num

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.neg

支持bf16,fp32,fp16,int8,int32,int64,complex64,complex128

torch.negative

支持bf16,fp32,fp16,int8,int32,int64,complex64,complex128

torch.nextafter

     

torch.polygamma

     

torch.positive

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,complex64,complex128

torch.pow

     

torch.quantized_batch_norm

     

torch.quantized_max_pool1d

     

torch.quantized_max_pool2d

     

torch.rad2deg

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.real

支持fp32,fp16,complex64,complex128

torch.reciprocal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.remainder

支持fp32,fp16,int16,int32,int64

torch.round

支持fp32,fp16

torch.rsqrt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sigmoid

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sign

支持bf16,fp32,fp16,int32,int64,bool

torch.sgn

支持bf16,fp32,fp16,int32,int64,bool,complex64,complex128

torch.signbit

     

torch.sin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sinc

     

torch.sinh

支持fp16,fp32,fp64

torch.softmax

支持fp32

支持Named Tensor

torch.sqrt

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.square

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64

torch.sub

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.subtract

     

torch.tan

支持fp16,fp32,fp64

torch.tanh

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.true_divide

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.trunc

支持fp32,fp16

torch.xlogy

支持fp16,fp32,uint8,int8,int16,int32,int64,bool

torch.argmax

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.argmin

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.amax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.amin

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.aminmax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.all

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.any

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.max

支持bf16,fp32,fp16,int64,bool

torch.min

支持bf16,fp32,fp16,int64,bool

torch.dist

支持bf16,fp32,fp16

torch.logsumexp

支持fp32,uint8,int8,int16,int32,int64,bool,fp16

torch.mean

支持bf16,fp32,fp16,complex64,complex128

torch.nanmean

     

torch.median

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64

torch.nanmedian

     

torch.mode

     

torch.norm

支持bf16,fp32,fp16,complex128

参数p为负数时,计算结果可能存在精度误差

参数dim指定为输入tensor中shape维度值为1的轴时,计算结果可能存在精度误差

torch.nansum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.prod

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.quantile

     

torch.nanquantile

  

torch.std

支持fp16,fp32

torch.std_mean

  

torch.sum

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持dtype参数

torch.unique

支持fp16,fp32,int8,uint8,int16,int32,int64,bool

带dim场景不支持fp16

torch.unique_consecutive

  

torch.var

支持fp16,fp32

torch.var_mean

  

torch.count_nonzero

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.allclose

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.argsort

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.eq

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.equal

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.ge

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.greater_equal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.gt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.greater

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isclose

支持fp32,uint8,int8,int16,int32,int64,bool,fp16

torch.isfinite

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.isin

     

torch.isinf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.isposinf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isneginf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isnan

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.isreal

     

torch.kthvalue

支持fp16,fp32和int32

torch.le

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.less_equal

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64

torch.lt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.less

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.maximum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.minimum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.fmax

     

torch.fmin

     

torch.ne

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.not_equal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sort

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.topk

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

不支持sorted=False场景

torch.msort

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.stft

若算子超时,需要用官方接口set_op_execute_time_out进行设置,调高超时阈值判断时间

torch.istft

     

torch.bartlett_window

     

torch.blackman_window

     

torch.hamming_window

     

torch.hann_window

支持bf16,fp16,fp32

torch.kaiser_window

     

torch.atleast_1d

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.atleast_2d

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.atleast_3d

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.bincount

支持uint8,int8,int16,int32,int64

torch.block_diag

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.broadcast_tensors

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.broadcast_to

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.broadcast_shapes

  

torch.bucketize

     

torch.cartesian_prod

     

torch.cdist

  

torch.clone

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.combinations

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.corrcoef

     

torch.cov

支持fp32

torch.cross

支持fp32,fp16,uint8,int8,int16,int32,int64,complex64,complex128

两个输入的shape要保持一致

torch.cummax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cummin

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

输入为int32时,数值范围在[-16777216, 16777216]内

torch.cumprod

支持fp16,fp32,int32

torch.cumsum

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

支持Named Tensor

torch.diag

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.diag_embed

支持bf16,fp16,fp32,uint8,int8,int16,int32,int64

torch.diagflat

     

torch.diagonal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.diff

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.einsum

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.flatten

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.flip

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.fliplr

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.flipud

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.kron

不支持5维度及以上输入。

torch.rot90

     

torch.gcd

     

torch.histc

支持fp32,fp16

当输入tensor值处于计数区间交界时,归于左区间计数还是右区间计数可能存在误差

torch.histogram

     

torch.histogramdd

     

torch.meshgrid

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.lcm

     

torch.logcumsumexp

     

torch.ravel

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.renorm

     

torch.repeat_interleave

支持fp32,fp16,int16,int32,int64,bool

输入张量在重复后得到输出,输出中元素个数需小于222

torch.roll

支持fp32,fp16,int32,int64,bool

torch.searchsorted

支持fp16,fp32,int32,int64,fp64,int8,uint8,int16

torch.tensordot

支持fp32,fp16

torch.trace

     

torch.tril

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.tril_indices

  

torch.triu

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.triu_indices

  

torch.unflatten

  

torch.vander

     

torch.view_as_real

支持complex64

torch.view_as_complex

     

torch.resolve_conj

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.resolve_neg

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.addbmm

支持fp32,fp16

torch.addmm

支持fp32,fp16

torch.addmv

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.addr

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.baddbmm

支持fp32,fp16

torch.bmm

支持fp32,fp16

torch.chain_matmul

     

torch.cholesky

     

torch.cholesky_inverse

     

torch.cholesky_solve

     

torch.dot

支持fp32,fp16

torch.geqrf

     

torch.ger

     

torch.inner

     

torch.inverse

     

torch.det

     

torch.logdet

     

torch.slogdet

支持fp32,complex64,complex128

torch.lu

     

torch.lu_solve

     

torch.lu_unpack

     

torch.matmul

支持fp32,fp16

支持Named Tensor

torch.matrix_power

     

torch.matrix_exp

     

torch.mm

支持fp32,fp16

torch.mv

     

torch.orgqr

     

torch.ormqr

     

torch.outer

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.pinverse

     

torch.qr

     

torch.svd

     

torch.svd_lowrank

     

torch.pca_lowrank

     

torch.lobpcg

     

torch.trapz

     

torch.trapezoid

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.cumulative_trapezoid

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64

torch.triangular_solve

     

torch.vdot

支持fp32,fp16

torch._foreach_abs

     

torch._foreach_abs_

     

torch._foreach_acos

     

torch._foreach_acos_

     

torch._foreach_asin

     

torch._foreach_asin_

     

torch._foreach_atan

     

torch._foreach_atan_

     

torch._foreach_ceil

     

torch._foreach_ceil_

     

torch._foreach_cos

     

torch._foreach_cos_

     

torch._foreach_cosh

     

torch._foreach_cosh_

     

torch._foreach_erf

     

torch._foreach_erf_

     

torch._foreach_erfc

     

torch._foreach_erfc_

     

torch._foreach_exp

     

torch._foreach_exp_

     

torch._foreach_expm1

     

torch._foreach_expm1_

     

torch._foreach_floor

     

torch._foreach_floor_

     

torch._foreach_log

     

torch._foreach_log_

     

torch._foreach_log10

     

torch._foreach_log10_

     

torch._foreach_log1p

     

torch._foreach_log1p_

     

torch._foreach_log2

     

torch._foreach_log2_

     

torch._foreach_neg

     

torch._foreach_neg_

     

torch._foreach_tan

     

torch._foreach_tan_

     

torch._foreach_sin

     

torch._foreach_sin_

     

torch._foreach_sinh

     

torch._foreach_sinh_

     

torch._foreach_round

     

torch._foreach_round_

     

torch._foreach_sqrt

     

torch._foreach_sqrt_

     

torch._foreach_lgamma

     

torch._foreach_lgamma_

     

torch._foreach_frac

     

torch._foreach_frac_

     

torch._foreach_reciprocal

     

torch._foreach_reciprocal_

     

torch._foreach_sigmoid

     

torch._foreach_sigmoid_

     

torch._foreach_trunc

     

torch._foreach_trunc_

     

torch._foreach_zero_

     

torch.compiled_with_cxx11_abi

  

torch.result_type

支持fp32

torch.can_cast

  

torch.promote_types

  

torch.use_deterministic_algorithms

  

torch.are_deterministic_algorithms_enabled

  

torch.is_deterministic_algorithms_warn_only_enabled

     

torch.set_deterministic_debug_mode

  

torch.get_deterministic_debug_mode

  

torch.set_float32_matmul_precision

     

torch.get_float32_matmul_precision

     

torch.set_warn_always

  

torch.is_warn_always_enabled

  

torch.vmap

  

torch._assert

  

torch.sym_float

支持fp32

torch.sym_int

支持fp32

torch.sym_max

支持fp32

torch.sym_min

支持fp32

torch.sym_not

支持fp32

torch.sym_ite

     

torch.cond

     

torch.compile

  
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词