量子关联与量子失协
1. 互信息量 信息熵(香农熵) $$ H(A) = - \sum_{x\in X}p(x)\log p(x) $$ 信息熵度量了信息量的多少。如英语有26个字母,加入每个字母在文章中出现次数相同的话,每个字母的信息量为: $$ I_e = -\log_2{\frac{1}{26}}=4.7 $$ 若有一个字母出现次数为总次数的一半,则其信息熵为: $$ I_e = -\log_2{\frac{1}{2}} = 1 $$ 以上例子说明,某一个信息出现次数越多,其信息量就越少。直观的说,某一篇文章中,“的”,“我”等词语可能出现次数最多,但其能为我们带来的信息可能并不是那么多。 经典互信息量 假定我们在一系列的不同时刻$(t_1, t_2, \dots, t_N)$对一个给定的系统进行连续测量,把每次测量结果记为$x_1, x_2,\dots, x_N$,每个测量序列的结果都有不同的概率输出,将之记为$p(x_1), p(x_2), \dots, p(x_N)$. 则关联就意味着对于任意的$1\le n \le N$,这些概率分布不会以乘积的形式出现,即$p(x_1, x_2, \dots, x_n)*p(x_n+1, x_n+2, \dots, x_N)$。用通俗易懂的话来说,就是这些概率分布不是相互独立的。 简单起见,我们将所有测量分为两组A和B,这样A和B之间的互信息量就定义为: $$ I(A:B) = H(A)+H(B) - H(A,B), where\ H(A) = - \sum_{x\in X}p(x)\log p(x) $$ 又,根据贝叶斯定理$H(A|B)=H(A,B)-H(B)$,经典互信息量还有一个等价的表达方式: $$ C(A:B)=H(A)-H(A|B) $$ 其中$H(A|B)$表示在知道B体系测量结果情况下A体系的条件熵。因此,经典互信息量度量了在对B测量时所能提取的A的信息量。 2. 量子互信息量 将经典互信息量的理论推广到量子系统,这样就能得到量子互信息量的概念,考虑一个两体的量子态$\rho_{AB}$,量子互信息量定义为: $$ I(\rho_{AB})=S(\rho_{A})+S(\rho_{B})-S(\rho_{AB}) $$ 其中$S(\rho)=-tr\rho\log(\rho)$为冯·诺伊曼熵,($tr$指求迹,即求矩阵对角线元素之和),$\rho_A$和$\rho_B$分别为$\rho_{AB}$的约化密度矩阵。...