加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

量子纠缠:从量子物质态到深度学习

发布时间:2018-04-17 13:58:04 所属栏目:大数据 来源:站长网
导读:1引言 经典物理学的主角是物质和能量。20 世纪初,爱因斯坦写下E =mc2 ,将质量和能量统一在了一起。而从那之后,一个新角色信息(Information)逐渐走向了物理学舞台的中央。信息是关于不确定程度的度量。Shannon 创立信息论的初衷是为了定量化地描述信息的

对于这个问题, 邓东灵、李晓鹏和Das Sarma给出了一个构造性的回答。他们举例说明限制玻尔兹曼机的函数形式可以表达几种受到普遍关注的拓扑态。而蔡子直接训练图1(a)所示的前馈神经网络以测试它们能否学会表达一些典型的玻色子、费米子、阻挫磁性态的波函数。这些尝试进一步展示了人工神经网络作为量子多体波函数的潜力。可是,是否有更一般的理论定量地描述这类人工神经网络变分波函数的优势和局限性呢?为了回答这些问题,邓东灵等人 研究了限制玻尔兹曼机的纠缠表达能力。他们发现稠密连接的限制玻尔兹曼机原则上能够承载超越面积定律的量子纠缠。本文作者与谢海东、向涛利用等价变换的思路,在玻尔兹曼机和张量网络态之间建立起了一座桥梁。这样就可以通过分析对应的张量网络态来回答前面关于玻尔兹曼机的种种问题。我们发现恢复平移不变的波函数构造是Carleo 等计算成功的一个关键点,这样的构造在不增加变分参数的情况下巧妙地增加了变分波函数表达能力的上限。郜勋和段路明则从计算复杂性理论的角度分析论证了限制玻尔兹曼机的局限性,并指出深层的玻尔兹曼机可以高效地描述几乎所有已知的量子态。他们的工作表明纠缠熵并非刻画表达能力的唯一标准。还需要注意的是,更强的表达能力并不意味着在实际计算中能够找得到更好的函数近似。另外,黄溢辰和Moore也研究了玻尔兹曼机在量子多体问题中的表达能力。以上这些理论发现,为设计更经济高效的量子多体试探波函数提供了方向性指引。深度学习的领军人物Yann LeCun也注意到了这一系列来自物理学领域的工作。他在Facebook 上分享了自己对于量子纠缠、黑洞熵以及张量网络态的理解,并在最后总结道:“迷人的联系”。

4量子纠缠指引深度学习

上述这些工作的研究思路是使用神经网络近似量子多体波函数。有趣的是,使用逆向思维,量子多体物理也能够帮助回答一些关于深度学习的问题。比如,我们可以从量子纠缠的视角来说明深度学习中的深度为什么重要。考虑图2 中所示的两个玻尔兹曼机,它们的隐层神经元个数和权重参数个数都完全相等。不同之处在于图2(a)的隐层神经元呈浅层扁平化排列,而在图2(b)中隐层神经元沿纵深方向排列成了层级结构。

444图2 两个不同架构,但参数个数相等的玻尔兹曼机(a)限制玻尔兹曼机;(b)深层玻尔兹曼机。红色虚线框中的神经元承载了网络左右部分的纠缠。一旦去除它们,网络就分成了独立的两部分

为了分析比较图2 中两种网络表达能力的优劣,我们按照文献的思路将它们分别转化成矩阵乘积态。由于是等价转换,相应的矩阵乘积态的虚拟键维数限定了原来的玻尔兹曼机承载纠缠能力的上限。而根据文献,要估计对应的虚拟键维数,只需要检查在玻尔兹曼机中去除多少个神经元就可以将网络从两侧断开。如图2 中虚线方框所示,深层玻尔兹曼机所对应的虚拟键维数更大,从而能够比浅层的玻尔兹曼机负载更大的纠缠。以上的分析仅依赖于玻尔兹曼机的结构而不涉及到任何权重的数值信息。通过这样的分析,我们从量子纠缠的角度说明了深层结构的重要性:深层玻尔兹曼机在拥有同样参数个数的情况下具有相对更强的表达能力上限。这里,张量网络态不仅仅是一个分析手段。作为一个副产品,我们也理解了它与玻尔兹曼机在函数近似上的各自优缺点。比如,为了表达同样的量子态,玻尔兹曼机所用的参数个数可以比张量网络态少得多。然而,对于某些特定状态使用限制玻尔兹曼机表达却不如张量网络态方便。

除了帮助分析神经网络的表达能力,量子纠缠也可以作为深度学习应用的“先验知识”:它定量地描述数据集的复杂度,并相应地指导设计人工神经网络的结构。作为一个例子,让我们考虑机器学习里的一个典型数据集:MNIST。如图3 所示,MNIST中包含六万张形态各异的手写数字图片。每一张都是28 × 28 的黑白图像,其像素灰度取值0~255 。所有可能图像的数目是一个天文数字: 25628×28 。然而,可以想象,真正有意义的手写数字图片只占据着这个巨大无比的“像素空间”中的一个小角落。联想到前文所述,大多数物理上有兴趣的量子态同样仅仅占据希尔伯特空间的一个小角落。我们可以将MNIST中的图片看作是对于某一量子波函数测量所得的构型快照。类比于对量子体系的分析,我们可以将每张图片切成两半,然后研究两部分之间的量子纠缠。注意,如此定义的纠缠熵是对于整个数据集的分布而言的,并非对于单张图片。数据集的纠缠特征指导我们在学习的过程中合理地分配资源。比如,注意到MNIST 数据集中每一张图片的边缘都是黑色的。这意味着图片边缘像素的取值不依赖于任何其他像素,从而不与它们形成纠缠。假如使用玻尔兹曼机来学习这样的概率分布,就完全不需要使用隐变量来传导它们之间的关联。而另一方面,遮住MNIST图片的一半,还能够猜测出另一半大致的模样。这就意味着图片的这两部分之间存在纠缠。纠缠熵的具体数值定量地告诉我们至少需要多少隐层神经元,以及怎样的连接结构才能描述好这样的数据集。

666

图3 MNIST数据集中的一些样本

曾获得英特尔国际科学与工程大奖的少年Henry W. Lin 和MIT 的宇宙学家Max Tegmark 等合作指出,深度学习成功的关键不仅仅依赖于数学,更依赖于物理学规律。任何我们关心的实际数据集——无论是自然图像还是语音信号——都是现实世界的反映。这也意味着它们通常表现出局域关联、存在对称性、呈现层级结构等特征。在本文作者看来,量子纠缠正可以定量化地挖掘和利用这些来自于物理定律的先验知识。虽然,自然数据集的纠缠熵未必遵循面积定律,但它们离最大纠缠的饱和值还应该差得远。这启发我们借用处理量子多体问题的思路,针对数据集的特点相应地设计合适的函数近似手段。读者也许会感到奇怪,绝大多数现实应用中遇到的数据不都是经典的吗?为什么非要引入量子纠缠的概念呢?经典信息论难道不够用吗?这里我们援引美国计算机科学家和量子信息学家Scott Aaronson 的观点:将量子力学看作是经典概率论的数学推广,而量子纠缠就是一个描述多参数函数性质的实用数学工具。文献就是采用类似的研究思路使用量子纠缠来分析刻画现实世界中的复杂网络的。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读