辛克宏定理
任一所有元素为正的方阵可以写成一个正的对角阵,一个双随机矩阵与另一个正的对角阵之积的形式。
辛克宏定理(英語:Sinkhorn's theorem)是线性代数中的一个定理,指所有元素为正的方块矩阵都可以写成一个正对角矩阵、一个双随机矩阵与另一个正对角矩阵之积的形式。
定理
如果 是所有元素都严格为正的 矩阵,则存在元素严格为正的对角矩阵 和 ,使得 是双随机矩阵,即每一行或列之和均为1。矩阵 和 在前者乘以一个正数、后者除以相同正数的情况下是唯一的。[1][2]
辛克宏-诺普算法
一个逼近双随机矩阵的简单迭代方法是交替地缩放 中所有行与列的比例,使其元素之和为1。辛克宏和诺普(Knopp)提出了该算法并分析了其收敛性。这一算法与调查统计学中的迭代比例拟合本质上相同。
扩展
在酉矩阵中存在类似的结论:对于任意酉矩阵 ,都存在两个对角酉矩阵 和 ,使得 的每一列和每一行的元素之和均为1。[3]
对矩阵间映射也有类似的扩展结论[4][5]:给定一个克劳斯(Kraus)算子 表示将一个密度矩阵映射到另一个密度矩阵的量子操作,即
其满足迹不变
并且其范围在正定锥内部(严格正定)。在此条件下,存在正定的缩放因子 ( ),使得缩放后的克劳斯算子
是双随机的,即
其中 表示恒等算子。
应用
2010年代,辛克宏定理开始被用于求解熵正则化的最优传输问题。[6]这一方法在机器学习领域引起了关注,因为由此得到的辛克宏距离(Sinkhorn distance)可用于评估数据分布之间的差异。[7][8][9]在一些最大似然训练效果不佳的情况下,这种方法可以改进机器学习算法的训练效果。
参考文献
- ^ Sinkhorn, Richard. (1964). "A relationship between arbitrary positive matrices and doubly stochastic matrices." Ann. Math. Statist. 35, 876–879. doi:10.1214/aoms/1177703591
- ^ Marshall, A.W., & Olkin, I. (1967). "Scaling of matrices to achieve specified row and column sums." Numerische Mathematik. 12(1), 83–90. doi:10.1007/BF02170999
- ^ Idel, Martin; Wolf, Michael M. Sinkhorn normal form for unitary matrices. Linear Algebra and Its Applications. 2015, 471: 76–84. S2CID 119175915. arXiv:1408.5728 . doi:10.1016/j.laa.2014.12.031.
- ^ Georgiou, Tryphon; Pavon, Michele. Positive contraction mappings for classical and quantum Schrödinger systems. Journal of Mathematical Physics. 2015, 56 (3): 033301–1–24. Bibcode:2015JMP....56c3301G. S2CID 119707158. arXiv:1405.6650 . doi:10.1063/1.4915289.
- ^ Gurvits, Leonid. Classical complexity and quantum entanglement. Journal of Computational Science. 2004, 69 (3): 448–484. doi:10.1016/j.jcss.2004.06.003 .
- ^ Cuturi, Marco. Sinkhorn distances: Lightspeed computation of optimal transport. Advances in neural information processing systems: 2292–2300. 2013.
- ^ Mensch, Arthur; Blondel, Mathieu; Peyre, Gabriel. Geometric losses for distributional learning. Proc ICML 2019. 2019. arXiv:1905.06005 .
- ^ Mena, Gonzalo; Belanger, David; Munoz, Gonzalo; Snoek, Jasper. Sinkhorn networks: Using optimal transport techniques to learn permutations. NIPS Workshop in Optimal Transport and Machine Learning. 2017.
- ^ Kogkalidis, Konstantinos; Moortgat, Michael; Moot, Richard. Neural Proof Nets. Proceedings of the 24th Conference on Computational Natural Language Learning. 2020.