A.信息的物理本质a.1信息和概率信息是“用符号传送的报道,报道的内容是接收符号者预先事件概率依赖于已知事实不知道的。额外信息改变概率信息的价值在于能消除接收者关于某种事件发生的不确定性。贝叶斯(ThomasBayes,1702-1761):信息和概率的密切联系InformationisafunctionofprobabilitiesEntropyassociatedwiththeprobabilitydistribution1例:Boltzmann/vonNeumann/Shannonentropy
A.信息的物理本质 a.1 信息和概率 ➢ 信息是“用符号传送的报道,报道的内容是接收符号者预先 不知道的。” ➢ 信息的价值在于能消除接收者关于某种事件发生的不确定性。 贝叶斯(Thomas Bayes,1702-1761):信息和概率的密切联系 Information is a function of probabilities 事件概率依赖于已知事实 额外信息改变概率 Entropy associated with the probability distribution 例:Boltzmann/ von Neumann/ Shannon entropy
Boltzmann熵S=kBlog2经典微观态数目统计系综,2(N,V,E)Boltzmann(1844-1906)Shannon(1916-2001)Quantum-classicalboundaryShannon信息H(A) = - P(ai) log P(ai)vonNeumann熵S(p)=-Tr(plogp)信息的编码、传递、接收通信理论,量子系统状态vonNeumann(1903-1957)
Boltzmann(1844-1906) Boltzmann 熵 von Neumann 熵 von Neumann(1903-1957) Shannon(1916-2001) 统计系综,经典微观态数目 Shannon信息熵 量子系统状态 通信理论,信息的编码、传递、接收 Quantum-classical boundary
经典信息/概率VS量子信息/概率之一:量子干涉经典概率口量子概率P。一般不再等于经典概率P。,既可以比后者大,也可以比后2者小,取决于,的相位ParticlePc= P, = P1 + P2Source口Which-wayinformation:无法确定粒子在双缝干涉实验中是通过哪持续观察一一>干涉消失MaskScreer条缝打到屏幕上的量子概率Pg = [3b1 + 3b2]2=[1/2+[212++2ParticleSource=Pi+P2+2VPiP2cos[arg(b12)MaskSereen
➢ 经典信息/概率 vs 量子信息/概率 之一:量子干涉 量子概率 Pq 一般不再等于经典概率 Pc ,既可以比后者大,也可以比后 者小,取决于 ψ1ψ2 *的相位 Which-way information:无法确 定粒子在双缝干涉实验中是通过哪 条缝打到屏幕上的 持续观察——> 干涉消失
经典信息/概率VS量子信息/概率之二:自旋的量子性Sfein-Gerlach实验自旋a1/2Stemn-Gerlach实验:自旋s=1口本征态数目N=2s+1M级联Stern-Gerlach实验态叠加原理:[±)=101)+C202)+>SzSzSzSy-72其中cl、c2不是经典概率(统计概率),是量子概te+2+)率SzSySz1-21-7理解纯态、混态及其叠加态口取自旋本征态的概率视为经典或量子是完全不同的。实验结果支持量子解释
➢ 经典信息/概率 vs 量子信息/概率 之二:自旋的量子性 本征态数目 N=2s+1 取自旋本征态的概率视为经典或量子是完全不同的。实验结果支持量子解释。 态叠加原理: 其中c1、c2不是经典概率 (统计概率),是量子概 率 理解纯态、混态及其叠加态
Interlude:条件概率和贝叶斯定理口预测未来事件发生的概率依赖于我们此刻对该事件的认知口若此刻收到额外信息,则会改变对未来发生概率大小的预测口对经典世界,这种依赖和改变是我们认知上的,不改变物理事实单一概率随机变量(randomvariable)对单个事件event)A的观测有若干可能结果(outcome),结果a,发生(A=a)的概率是0≤P,≤l。若集合[a]包含了事件所有可能的结果,则所有结果发生的概率之和为1P(ai) = 12对单一事件,以上结果和概率的集合给出了事件的完整统计描述。联合概率(jointprobability)若有另一事件B,观测结果集合为(b},则两事件的完整统计描述由联合概率(P(ai,b给出。P(a,b,)表示“A=a,且B=b,”的概率。若事件A、B互相独立,则P(a,b)=P(a,)P(b),否则P(a,b)≠P(a)P(b)P(ai)=P(ai,bj), P(b)=P(ai,bj)3
随机变量(random variable) 对单个事件(event)A 的观测有若干可能结果(outcome),结果 ai 发生(A=ai)的概率是 0 ≤ Pi ≤ 1。 若集合 {ai } 包含了事件所有可能的结果,则所有结果发生的概率之和为 1 对单一事件,以上结果和概率的集合给出了事件的完整统计描述。 单一概率 Interlude:条件概率和贝叶斯定理 预测未来事件发生的概率依赖于我们此刻对该事件的认知 若此刻收到额外信息,则会改变对未来发生概率大小的预测 对经典世界, 这种依赖和改变是我们认知上的,不改变物理事实 联合概率(joint probability) 若有另一事件 B ,观测结果集合为 {bj },则两事件的完整统计描述由联合概率 {P (ai ,bj )} 给出。P (ai ,bj ) 表示 “A=ai 且 B = bi”的概率。若事件 A、B 互相 独立,则 P (ai ,bj ) = P (ai )P (bj ) ,否则 P (ai ,bj ) ≠ P (ai ) P (bj )