下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

torch

若API未标明支持情况则代表该API暂无验证结果,待验证后更新表格。

API名称

是否支持

限制与说明

torch.is_tensor

支持fp32

torch.is_storage

  

torch.is_complex

支持fp32

torch.is_conj

  

torch.is_floating_point

支持fp32

torch.is_nonzero

支持fp32

torch.set_default_dtype

  

torch.get_default_dtype

  

torch.set_default_tensor_type

不支持传入torch.npu.DtypeTensor类型

torch.numel

  

torch.set_printoptions

  

torch.set_flush_denormal

  

torch.tensor

支持fp32

torch.sparse_coo_tensor

  

torch.asarray

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.as_tensor

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.as_strided

支持fp32

torch.from_numpy

支持输出fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.frombuffer

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.zeros

  

torch.zeros_like

支持bf16,fp16,fp32,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.ones

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.ones_like

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.arange

支持bf16,fp16,fp32,fp64,int32,int64

torch.range

  

torch.linspace

支持bf16,fp16,fp32,fp64

torch.logspace

     

torch.eye

支持fp16,fp32

torch.empty

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.empty_like

支持bf16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.empty_strided

  

torch.full

支持fp32

torch.full_like

支持uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.quantize_per_tensor

  

torch.quantize_per_channel

  

torch.dequantize(tensor) ->Tensor

  

torch.dequantize(tensors) ->sequence of Tensors

  

torch.complex

  

torch.polar

  

torch.heaviside

  

torch.adjoint

可通过CPU实现

torch.argwhere

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cat

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.concat

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.conj

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.chunk

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.dsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.column_stack

     

torch.dstack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.gather

支持fp32,fp16,int16,int32,int64,bool

torch.hsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.hstack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.index_add

支持fp32,fp16,int64,bool

torch.index_select

支持bf16,fp32,fp16,int16,int32,int64,bool

torch.masked_select

支持fp32,fp16,int16,int32,int64,bool

torch.movedim

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.moveaxis

支持torch.int64, torch.float, torch.complex128

torch.narrow

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.nonzero

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.permute

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.reshape

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.row_stack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.select

     

torch.scatter

支持int16,int32,int64

torch.diagonal_scatter

支持bf16,fp32,fp16,int16,int32,int64,bool

torch.select_scatter

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.slice_scatter

     

torch.scatter_add

     

torch.scatter_reduce

  

torch.split

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.squeeze

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.stack

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.swapaxes

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.swapdims

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.t

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.take

支持fp32,fp16,int16,int32,int64,bool

torch.take_along_dim

支持fp32

torch.tensor_split

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.tile

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.transpose

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.unbind

     

torch.unsqueeze

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.vsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.vstack

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.where(condition, x, y) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持8维度的shape

torch.where(condition) ->tuple of LongTensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持8维度的shape

torch.Generator

  

torch.Generator.get_state

  

torch.Generator.initial_seed

  

torch.Generator.manual_seed

  

torch.Generator.seed

  

torch.Generator.set_state

  

torch.seed

  

torch.manual_seed

  

torch.initial_seed

  

torch.get_rng_state

  

torch.set_rng_state

  

torch.bernoulli

支持fp32

torch.multinomial

支持fp32,fp16

torch.normal(mean, std, *, generator=None, out=None) ->Tensor

  

torch.normal(mean=0.0, std, *, out=None) ->Tensor

  

torch.normal(mean, std=1.0, *, out=None) ->Tensor

  

torch.normal(mean, std, size, *, out=None) ->Tensor

  

torch.poisson

可以走CPU实现。

torch.rand

  

torch.rand_like

支持int8,uint8,int16,int32,int64

torch.randint

  

torch.randint_like

支持fp32,fp16,int64

torch.randn

  

torch.randn_like

支持fp32

torch.randperm

  

torch.quasirandom.SobolEngine

     

torch.quasirandom.SobolEngine.draw

     

torch.quasirandom.SobolEngine.draw_base2

     

torch.quasirandom.SobolEngine.fast_forward

     

torch.quasirandom.SobolEngine.reset

     

torch.save

  

torch.load

  

torch.get_num_threads

  

torch.set_num_threads

  

torch.get_num_interop_threads

  

torch.set_num_interop_threads

  

torch.no_grad

  

torch.enable_grad

  

torch.set_grad_enabled

  

torch.is_grad_enabled

  

torch.inference_mode

  

torch.is_inference_mode_enabled

  

torch.abs

支持bf16,fp32,fp16,fp64,uint8,int8,int16,int32,int64,bool

torch.absolute

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.acos

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arccos

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.acosh

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.arccosh

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.add

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.addcdiv

支持fp16,fp32,int64

在int64类型不支持三个tensor同时广播

torch.addcmul

支持bf16,fp16,fp32,fp64,uint8,int8,int32,int64

在int8,uint8,int64,fp64类型不支持三个tensor同时广播

torch.angle

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.asin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arcsin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.asinh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.arcsinh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.atan

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arctan

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.atanh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.arctanh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.atan2

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arctan2

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.bitwise_not

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_and

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_or

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_xor

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_left_shift

  

torch.bitwise_right_shift

  

torch.ceil

支持fp32,fp16

torch.clamp

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.clip

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.conj_physical

  

torch.copysign

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cos

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.cosh

支持fp16,fp32,fp64

torch.deg2rad

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.div

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.divide

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.digamma

可以走CPU实现。

torch.erf

支持fp32,fp16,int64,bool

torch.erfc

支持fp32,fp16,int64,bool

torch.erfinv

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.exp

支持bf16,fp16,fp32,fp64,int64,bool,complex64,complex128

torch.exp2

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.expm1

支持fp32,fp16,int64,bool

torch.fake_quantize_per_channel_affine

  

torch.fake_quantize_per_tensor_affine

  

torch.fix

支持fp16,fp32

torch.float_power

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex128

torch.floor

支持fp32,fp16

torch.floor_divide

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.fmod

支持fp32,fp16,uint8,int8,int32,int64

torch.frac

     

torch.frexp

  

torch.gradient

支持bf16,fp32,fp16,int8,int16,int32,int64

torch.imag

  

torch.ldexp

支持fp16,fp64,complex64

torch.lerp

支持fp32,fp16

torch.lgamma

可以走CPU实现。

torch.log

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.log10

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.log1p

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.log2

支持bf16,fp32,int64,bool,fp16

torch.logaddexp

不支持double数据类型

torch.logaddexp2

不支持double数据类型

torch.logical_and

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logical_not

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.logical_or

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logical_xor

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logit

可以走CPU实现。

torch.hypot

  

torch.i0

  

torch.igamma

  

torch.igammac

  

torch.mul

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.multiply

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.mvlgamma

可以走CPU实现。

torch.nan_to_num

  

torch.neg

支持bf16,fp32,fp16,int8,int32,int64,complex64,complex128

torch.negative

支持bf16,fp32,fp16,int8,int32,int64,complex64,complex128

torch.nextafter

  

torch.polygamma

  

torch.positive

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,complex64,complex128

torch.pow(input, exponent, *, out=None) ->Tensor

支持bf16,fp16,fp32,fp64,int16,int64

torch.pow(self, exponent, *, out=None) ->Tensor

支持bf16,fp16,fp32,fp64,int16,int64

torch.quantized_batch_norm

  

torch.quantized_max_pool1d

  

torch.quantized_max_pool2d

  

torch.rad2deg

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.real

支持fp32,fp16,complex64,complex128

torch.reciprocal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.remainder

支持fp32,fp16,int16,int32,int64

torch.round

支持fp32,fp16

torch.rsqrt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sigmoid

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sign

支持bf16,fp32,fp16,int32,int64,bool

torch.sgn

支持bf16,fp32,fp16,int32,int64,bool,complex64,complex128

torch.signbit

  

torch.sin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sinc

  

torch.sinh

支持fp16,fp32,fp64

torch.sqrt

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.square

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64

torch.sub

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.subtract

     

torch.tan

支持fp16,fp32,fp64

torch.tanh

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.true_divide

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.trunc

支持fp32,fp16

torch.xlogy

支持fp16,fp32,uint8,int8,int16,int32,int64,bool

torch.argmax(input) ->LongTensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.argmax(input, dim, keepdim=False) ->LongTensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.argmin

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.amax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.amin

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.aminmax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.all(input) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.all(input, dim, keepdim=False, *, out=None) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.any(input) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.any(input, dim, keepdim=False, *, out=None) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.max(input) ->Tensor

支持bf16,fp32,fp16,int64,bool

torch.max(input, dim, keepdim=False, *, out=None)

支持bf16,fp32,fp16,int64,bool

torch.max(input, other, *, out=None) ->Tensor

支持bf16,fp32,fp16,int64,bool

torch.min(input) ->Tensor

支持bf16,fp32,fp16,int64,bool

torch.min(input, dim, keepdim=False, *, out=None)

支持bf16,fp32,fp16,int64,bool

torch.min(input, other, *, out=None) ->Tensor

支持bf16,fp32,fp16,int64,bool

torch.dist

支持bf16,fp32,fp16

torch.logsumexp

支持fp32,uint8,int8,int16,int32,int64,bool,fp16

torch.mean(input, *, dtype=None) ->Tensor

支持bf16,fp32,fp16,complex64,complex128

torch.mean(input, dim, keepdim=False, *, dtype=None, out=None) ->Tensor

支持bf16,fp32,fp16,complex64,complex128

torch.nanmean

  

torch.median(input) ->Tensor

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64

torch.median(input, dim=- 1, keepdim=False, *, out=None)

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64

torch.nanmedian(input) ->Tensor

可以走CPU实现。

torch.nanmedian(input, dim=- 1, keepdim=False, *, out=None)

可以走CPU实现。

torch.mode

可以走CPU实现。

torch.norm

支持bf16,fp32,fp16,complex128

参数p为负数时,计算结果可能存在精度误差

参数dim指定为输入tensor中shape维度值为1的轴时,计算结果可能存在精度误差

torch.nansum(input, *, dtype=None) ->Tensor

可以走CPU实现。

torch.nansum(input, dim, keepdim=False, *, dtype=None) ->Tensor

可以走CPU实现。

torch.prod(input, *, dtype=None) ->Tensor

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.prod(input, dim, keepdim=False, *, dtype=None) ->Tensor

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.quantile

     

torch.nanquantile

  

torch.std(input, dim, unbiased, keepdim=False, *, out=None) ->Tensor

支持fp16,fp32

torch.std(input, unbiased) ->Tensor

支持fp16,fp32

torch.std_mean(input, dim, unbiased, keepdim=False, *, out=None)

     

torch.std_mean(input, unbiased)

     

torch.sum(input, *, dtype=None) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持dtype参数

torch.sum(input, dim, keepdim=False, *, dtype=None) ->Tensor

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持dtype参数

torch.unique

支持fp16,fp32,int8,uint8,int16,int32,int64,bool

带dim场景不支持fp16

torch.unique_consecutive

     

torch.var(input, dim, unbiased, keepdim=False, *, out=None) ->Tensor

支持fp16,fp32

torch.var(input, unbiased) ->Tensor

支持fp16,fp32

torch.var_mean(input, dim, unbiased, keepdim=False, *, out=None)

     

torch.var_mean(input, unbiased)

     

torch.count_nonzero

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.allclose

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.argsort

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.eq

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.equal

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.ge

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.greater_equal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.gt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.greater

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isclose

支持fp32,uint8,int8,int16,int32,int64,bool,fp16

torch.isfinite

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.isin

  

torch.isinf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.isposinf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isneginf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isnan

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.isreal

     

torch.kthvalue

支持fp16,fp32和int32

torch.le

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.less_equal

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64

torch.lt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.less

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.maximum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.minimum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.fmax

  

torch.fmin

     

torch.ne

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.not_equal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sort

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.topk

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

不支持sorted=False场景

torch.msort

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.stft

若算子超时,需要用官方接口set_op_execute_time_out进行设置,调高超时阈值判断时间

torch.istft

  

torch.bartlett_window

  

torch.blackman_window

  

torch.hamming_window

  

torch.hann_window

支持bf16,fp16

torch.kaiser_window

  

torch.atleast_1d

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.atleast_2d

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.atleast_3d

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.bincount

支持uint8,int8,int16,int32,int64

torch.block_diag

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.broadcast_tensors

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.broadcast_to

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.broadcast_shapes

  

torch.bucketize

可以走CPU实现。

torch.cartesian_prod

     

torch.cdist

  

torch.clone

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.combinations(input, r=2, with_replacement=False) ->seq

     

torch.corrcoef

     

torch.cov

支持fp32

torch.cross

支持fp32,fp16,uint8,int8,int16,int32,int64,complex64,complex128

两个输入的shape要保持一致

torch.cummax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cummin

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

输入为int32时,数值范围在[-16777216, 16777216]内

torch.cumprod

支持fp16,fp32,int32

torch.cumsum

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

支持Named Tensor

torch.diag

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.diag_embed

支持bf16,fp16,fp32,uint8,int8,int16,int32,int64

torch.diagflat

     

torch.diagonal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.diff

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.einsum

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.flatten

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.flip

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.fliplr

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.flipud

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.kron

不支持5维度及以上输入。

torch.rot90

     

torch.gcd

     

torch.histc

支持fp32,fp16

当输入tensor值处于计数区间交界时,归于左区间计数还是右区间计数可能存在误差

torch.histogram

  

torch.histogramdd

  

torch.meshgrid

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.lcm

  

torch.logcumsumexp

  

torch.ravel

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.renorm

     

torch.repeat_interleave(input, repeats, dim=None, *, output_size=None) ->Tensor

支持fp32,fp16,int16,int32,int64,bool

输入张量在重复后得到输出,输出中元素个数需小于222

torch.repeat_interleave(repeats, *, output_size=None) ->Tensor

支持fp32,fp16,int16,int32,int64,bool

输入张量在重复后得到输出,输出中元素个数需小于222

torch.roll

支持fp32,fp16,int32,int64,bool

torch.searchsorted

支持fp16,fp32,int32,int64,fp64,int8,uint8,int16

torch.tensordot

支持fp32,fp16

torch.trace

     

torch.tril

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.tril_indices

  

torch.triu

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.triu_indices

  

torch.vander

  

torch.view_as_real

支持complex64

torch.view_as_complex

  

torch.resolve_conj

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.resolve_neg

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.addbmm

支持fp32,fp16

torch.addmm

支持fp32,fp16

torch.addmv

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.addr

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.baddbmm

支持fp32,fp16

torch.bmm

支持fp32,fp16

torch.chain_matmul

     

torch.cholesky

  

torch.cholesky_inverse

  

torch.cholesky_solve

  

torch.dot

支持fp32,fp16

torch.eig

  

torch.geqrf

  

torch.ger

     

torch.inner

     

torch.inverse

     

torch.det

  

torch.logdet

  

torch.slogdet

支持fp32,complex64,complex128

torch.lstsq

  

torch.lu

  

torch.lu_solve

  

torch.lu_unpack

  

torch.matmul

支持fp32,fp16

支持Named Tensor

torch.matrix_power

     

torch.matrix_rank

     

torch.matrix_exp

  

torch.mm

支持fp32,fp16

torch.mv

     

torch.orgqr

  

torch.ormqr

  

torch.outer

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.pinverse

     

torch.qr

     

torch.solve

  

torch.svd

     

torch.svd_lowrank

可以走CPU实现。

torch.pca_lowrank

可以走CPU实现。

torch.symeig

     

torch.lobpcg

  

torch.trapz

     

torch.trapezoid

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.cumulative_trapezoid

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64

torch.triangular_solve

     

torch.vdot

可以走CPU实现。

torch.compiled_with_cxx11_abi

  

torch.result_type

支持fp32

torch.can_cast

  

torch.promote_types

  

torch.use_deterministic_algorithms

  

torch.are_deterministic_algorithms_enabled

  

torch.is_deterministic_algorithms_warn_only_enabled

  

torch.set_deterministic_debug_mode

  

torch.get_deterministic_debug_mode

  

torch.set_warn_always

  

torch.is_warn_always_enabled

  

torch._assert

  
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词