bbq是什么意思网络用语(bbq是什么意思梗抖音)
6572023-12-05
各位老铁们好,相信很多人对Tensorflow中的张量是什么意思都不是特别的了解,因此呢,今天就来为大家分享下关于Tensorflow中的张量是什么意思以及张量维度问题解决办法的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!
本文目录
张量(Tensor)是在坐标变化下不变的一种形式量,比如数量、线性空间里的向量,通常以分量形式表现,是近代表述流形的几何性质和物理规律的重要数学工具。最初在19世纪末,意大利数学家Ricci利用分量的变换规律来定义张量,近代数学则已经将张量优雅地看做向量空间及其对偶空间上的多重线性函数,使得张量的性质和意义愈加明确。
张量的数学定义设V是向量空间,V*是其对偶空间。笛卡尔乘积空间
上的一个p+q重线性函数,称作一个(p,q)型张量。其中p为反变(contravariant)阶数,q为协变(covariant)阶数。
注:这里多重线性函数是指:
对偶空间是指:向量空间V上所有的线性函数所组成的线性空间,称为V的对偶空间,记作V*.
特别地,(1,0)型张量就是向量空间V中的元素,(0,0)型张量即为实数。
张量的分量我们知道,要确定一个线性函数,只要知道它在向量空间基底上的取值即可。如果在n维向量空间V中取定一个基底
相应地,对偶空间V*的对偶基底记为
即满足
则
称为(p,q)型张量f的分量,一共有个。
如果V的基底变成另一组对偶基底为
基底之间的变换关系为:
其中a'是a的逆矩阵,即:这里用到了Einstein求和约定:在一单项式里,上指标和下指标有重复,代表对该指标求和,比如:
这时,对应张量f的分量变为
满足可以看到,张量f的分量中,上指标的变换系数是基底变换矩阵的逆的乘积,下指标的变换系数恰就是基底变换矩阵的乘积。这就是称上指标为逆变阶数,下指标为协变阶数的原因。历史上,Ricci就是用上述分量的变换规律来定义(p,q)型张量,这与线性映射的定义方式是一致的。也就是说,每一个张量在基底变换时,其分量必定满足上述的变换规律;反过来,满足上述变换规律的一组分量必定可以对应一个p+q重线性函数。
根据指标的对称性,张量可以分为对称张量与反对称张量,其中流形上的反对称协变张量是外微分理论的基础。物理里很多重要的方程都是张量方程,比如广义相对论中著名的爱因斯坦场方程:
这里R和g分别是时空的Ricci曲率和度量,都是二阶对称协变张量。
首先,避开几何直接谈张量肯定是不完备的,此处先从一特殊角度引入黎曼几何下的基础观点,黎曼做过一个猜想,假若我们所处的空间不是平直的,是可能发生弯曲的,那么这样的空间就不能再用欧氏几何的架构来分析了,于是乎黎曼几何开始一展拳脚(不过黎曼并不具备爱因斯坦一般所掌有的大量物理基础和证据,相对论还是没能出自黎曼)
一旦空间确定,那么描述空间关系的量就成为首要问题,比如在配有笛卡尔坐标系下的欧氏空间内,空间内两点距离可以由大名鼎鼎的勾股定理推导所得:ds^2=dx^2+dy^2+dz^2。同样是在欧式空间下,如果把坐标系改为球坐标,点的坐标形式变为(ρ,φ,θ),三个值分别为该点到原点的距离,纬度,经度,那么此时的ds^2=dρ^2+ρ^2dφ^2+ρ^2sin^2φdθ^2
所以这个时候我们就发现,在不同的坐标系和空间下,我们用来描述空间尺度的“尺子”是不同的,黎曼度规就是用来描述黎曼空间下空间尺度的量。
对于n维非欧式空间:ds^2=∑(i=1到n)∑(j=1到n)×gij×dxi×dxj,这里的gij就是二阶张量,也叫度规张量。
量子簇态(quantumclusterstate)是一种特殊的量子态,它是量子信息处理中的重要资源。量子簇态由相互纠缠的多个量子比特(或量子系统)组成,通过对这些量子比特进行测量和操作,可以进行一系列的量子计算和通信任务。
最简单的量子簇态是所谓的图状簇态(graphstate),图状簇态是由一个图形结构(通常是二维或三维的几何图形)中的量子比特构成的。图状簇态通过将量子比特之间的纠缠来实现量子信息的存储和传输。
量子簇态具有以下特点:
1.短程纠缠:量子簇态中的量子比特通过局部纠缠相互连接,纠缠关联是局部的而不是全局的。
2.长程纠缠:尽管量子簇态中的量子比特之间的纠缠是局部的,但通过适当的测量和操作,可以实现远距离的纠缠。
3.计算和通信:量子簇态可以用于量子计算和量子通信任务,例如量子纠错码、量子密钥分发、量子远程态制备等。
量子簇态是一种强大的量子资源,在量子信息处理领域具有广泛的应用潜力。簇态计算和簇态通信是量子计算和量子通信研究的重要方向之一。
TensorFlow的tensor(张量)来自于数学上的张量概念。
(柯西应力张量,图片来源:维基百科)
什么是张量19世纪末,TullioLevi-Civita和GregorioRicci-Curbastro提出了张量,张量的提出是为了研究一些不依赖于坐标系的内在的几何性质和物理性质。相对论出现以后,张量这个概念被发扬光大了(相对论需要研究不同参考系下的同一物理系统的规律)。在现代数学上,张量定义为多重线性映射(multilinearmap)。
不过以上其实都不重要。-_-!!!
实际上你需要记住的只有一点,在进行张量运算的时候,经常把张量当成多维数组进行计算。
张量和多维数组没错,TensorFlow中的Tensor或者说张量就是多维数组!
(我猜之所以叫TensorFlow,不叫ArrayFlow,是因为TensorFlow听起来比较高大上。)
举几个例子吧:
1是一个0维张量/0维数组,又叫标量(scalar),形状为[]。[1,2,3]是一个1维张量/1维数组,又叫向量(vector),形状为[3].[[1,2,3],[4,5,6]]是一个2维张量/2维数组,又叫矩阵(matrix),形状为[2,3]。[[[1,2,3]],[[4,5,6]]]是一个3维张量/3维数组,有时候,张量特指3维以上的张量(低于3维的,如前所述,分别叫标量、向量、矩阵),形状为[2,1,3]。文章到此结束,如果本次分享的Tensorflow中的张量是什么意思和张量维度问题解决办法的问题解决了您的问题,那么我们由衷的感到高兴!