随机矩阵理论
身为理论物理学家的 Freeman Dyson 如何会研究起随机矩阵理论来的呢? 这当然还得从物理学说起。
我们知道在物理学上可以严格求解的问题是少之又少的。 而且物理理论越发展, 可以严格求解的问题就越少。 举个例子来说, 在 Newton 引力理论中二体问题可以严格求解,
但一般的三体问题就不行[注二]
; 到了广义相对论中连一般的二体问题也解不出了, 只有单体问题还可以严格求解; 而到了量子场论中更是连单体问题也解不成了。
另一方面, 现实物理中的体系往往既不是单体, 也不是二体或三体, 而是多体, 少则十几、 几十 (比如大一点的原子、 分子), 多则 1023 或更多 (比如宏观体系)。 很明显, 对现实物理体系的研究离不开各种近似方法。 这其中很重要的一类方法就是统计方法, 由此形成了物理学的一个重要分支: 统计物理。
在统计物理中, 人们不再着眼于对物理体系的微观状态进行细致描述 (因为这种细致描述不仅无法做到, 而且对于确定体系的宏观行为来说是完全不必要的), 取而代之的是 “系综” 的概念。 所谓 “系综”, 指的是满足一定宏观约束条件的大量全同体系的集合, 这些体系的微观状态具有一定的统计分布, 我们感兴趣的体系的宏观状态就由相应物理量的系综平均值所给出。
在传统的统计物理中, 组成系综的那些全同体系具有相同的哈密顿量 (Hamiltonian), 只有它们的微观状态才是随机的。 但是随着研究的深入, 物理学家们开始接触到一些连这种方法也无法处理的物理体系, 其中一个典型的例子就是由大量质子中子组成的原子核。 这种体系的相互作用具备了所有可以想象得到的 “坏品质” (比如耦合常数很大, 不是二体相互作用, 不是有心相互作用等), 简直是 “五毒俱全”。 对于这种体系, 我们甚至连它的哈密顿量是什么都无法确定。 这样的体系该如何处理呢? 很显然还是离不开统计的方法。 只不过以前在系综中只有各体系的微观状态是随机的, 现在却连哈密顿量也不知道了, 既然如此, 那就一不做二不休, 干脆把哈密顿量也一并随机化了。 由于哈密顿量可以用矩阵来表示, 因此这种带有随机哈密顿量的量子统计系综可以用随机矩阵理论来描述。 这
一点最早是由 Eugene Wign
身为理论物理学家的 Freeman Dyson 如何会研究起随机矩阵理论来的呢? 这当然还得从物理学说起。
我们知道在物理学上可以严格求解的问题是少之又少的。 而且物理理论越发展, 可以严格求解的问题就越少。 举个例子来说, 在 Newton 引力理论中二体问题可以严格求解,
但一般的三体问题就不行[注二]
; 到了广义相对论中连一般的二体问题也解不出了, 只有单体问题还可以严格求解; 而到了量子场论中更是连单体问题也解不成了。
另一方面, 现实物理中的体系往往既不是单体, 也不是二体或三体, 而是多体, 少则十几、 几十 (比如大一点的原子、 分子), 多则 1023 或更多 (比如宏观体系)。 很明显, 对现实物理体系的研究离不开各种近似方法。 这其中很重要的一类方法就是统计方法, 由此形成了物理学的一个重要分支: 统计物理。
在统计物理中, 人们不再着眼于对物理体系的微观状态进行细致描述 (因为这种细致描述不仅无法做到, 而且对于确定体系的宏观行为来说是完全不必要的), 取而代之的是 “系综” 的概念。 所谓 “系综”, 指的是满足一定宏观约束条件的大量全同体系的集合, 这些体系的微观状态具有一定的统计分布, 我们感兴趣的体系的宏观状态就由相应物理量的系综平均值所给出。
在传统的统计物理中, 组成系综的那些全同体系具有相同的哈密顿量 (Hamiltonian), 只有它们的微观状态才是随机的。 但是随着研究的深入, 物理学家们开始接触到一些连这种方法也无法处理的物理体系, 其中一个典型的例子就是由大量质子中子组成的原子核。 这种体系的相互作用具备了所有可以想象得到的 “坏品质” (比如耦合常数很大, 不是二体相互作用, 不是有心相互作用等), 简直是 “五毒俱全”。 对于这种体系, 我们甚至连它的哈密顿量是什么都无法确定。 这样的体系该如何处理呢? 很显然还是离不开统计的方法。 只不过以前在系综中只有各体系的微观状态是随机的, 现在却连哈密顿量也不知道了, 既然如此, 那就一不做二不休, 干脆把哈密顿量也一并随机化了。 由于哈密顿量可以用矩阵来表示, 因此这种带有随机哈密顿量的量子统计系综可以用随机矩阵理论来描述。 这
一点最早是由 Eugene Wign
