矩阵的 正定(Positive Definite)与负定(Negative Definite):从Fisher信息矩阵看“曲率”的秘密

news/2025/2/26 16:38:30

矩阵的正定与负定:从Fisher信息矩阵看“曲率”的秘密

在数学和统计学中,矩阵的“正定性”和“负定性”是一对重要概念,尤其在优化、统计推断和机器学习中频繁出现。比如,Fisher信息矩阵(Fisher Information Matrix, FIM)常被描述为“正定”的,这不仅是个数学性质,还与参数估计的“曲率”密切相关。那么,什么是正定和负定?它们有什么用?今天我们就来聊聊这些问题,以Fisher信息矩阵为例,揭开矩阵性质背后的奥秘。


什么是正定和负定?

矩阵的正定性和负定性是线性代数中的概念,用来描述一个对称矩阵的“方向性”和“形状”。假设 ( A A A ) 是一个 ( n × n n \times n n×n ) 的实对称矩阵(即 ( A = A T A = A^T A=AT )),它的正定性和负定性定义如下:

正定(Positive Definite)

矩阵 ( A A A ) 是正定的,如果对于任意非零向量 ( x ∈ R n x \in \mathbb{R}^n xRn )(( x ≠ 0 x \neq 0 x=0 )):

x T A x > 0 x^T A x > 0 xTAx>0

这意味着 ( A A A ) 的二次型(quadratic form)总是正的。

负定(Negative Definite)

矩阵 ( A A A ) 是负定的,如果:

x T A x < 0 x^T A x < 0 xTAx<0

即二次型总是负的。

其他情况

  • 半正定(Positive Semidefinite):( x T A x ≥ 0 x^T A x \geq 0 xTAx0 ),允许等于零。
  • 半负定(Negative Semidefinite):( x T A x ≤ 0 x^T A x \leq 0 xTAx0 )。
通俗比喻

想象 ( A A A ) 是一个“碗”的形状:

  • 正定:像一个“正放的碗”,碗底在下,口朝天,无论从哪个方向离开碗底,高度( x T A x x^T A x xTAx)都增加,像一个凸起的谷底。凸函数(想象 x 2 x^2 x2的样子)。
  • 负定:像一个“倒扣的碗”,碗底在上,口朝地,所有方向都下降,像一个凹陷的山顶。凹函数(想象 l o g x logx logx的样子)。
  • 半正定或半负定:碗可能有平坦的区域,某些方向高度不变。

如何判断正定和负定?

数学上有几种等价方法判断一个对称矩阵的性质:

  1. 特征值(Eigenvalues)

    • 正定:所有特征值 ( λ i > 0 \lambda_i > 0 λi>0 )。
    • 负定:所有特征值 ( λ i < 0 \lambda_i < 0 λi<0 )。
    • 半正定:所有特征值 ( λ i ≥ 0 \lambda_i \geq 0 λi0 )。
  2. 二次型

    • 检查 ( x T A x x^T A x xTAx ) 在所有非零 ( x x x ) 上的符号。
  3. 主子式(Leading Principal Minors)

    • 正定:所有主子式(从左上角逐步扩大的子矩阵的行列式)都大于零。
    • 负定:主子式符号交替(奇数阶负,偶数阶正)。
简单例子
  • ( A = [ 2 0 0 2 ] A = \begin{bmatrix} 2 & 0 \\ 0 & 2 \end{bmatrix} A=[2002] ):

    • ( x T A x = 2 x 1 2 + 2 x 2 2 > 0 x^T A x = 2x_1^2 + 2x_2^2 > 0 xTAx=2x12+2x22>0 )(除非 ( x = 0 x = 0 x=0 )),正定。
    • 特征值:2, 2,皆正。
  • ( A = [ − 1 0 0 − 1 ] A = \begin{bmatrix} -1 & 0 \\ 0 & -1 \end{bmatrix} A=[1001] ):

    • ( x T A x = − x 1 2 − x 2 2 < 0 x^T A x = -x_1^2 - x_2^2 < 0 xTAx=x12x22<0 ),负定。
    • 特征值:-1, -1,皆负。

Fisher信息矩阵的正定性

Fisher信息矩阵 ( I ( θ ) I(\theta) I(θ) ) 定义为得分函数的协方差:

I ( θ ) i j = E [ ∂ log ⁡ p ( x ∣ θ ) ∂ θ i ∂ log ⁡ p ( x ∣ θ ) ∂ θ j ∣ θ ] I(\theta)_{ij} = E\left[ \frac{\partial \log p(x|\theta)}{\partial \theta_i} \frac{\partial \log p(x|\theta)}{\partial \theta_j} \bigg| \theta \right] I(θ)ij=E[θilogp(xθ)θjlogp(xθ) θ]

或者等价地:

I ( θ ) i j = − E [ ∂ 2 log ⁡ p ( x ∣ θ ) ∂ θ i ∂ θ j ∣ θ ] I(\theta)_{ij} = -E\left[ \frac{\partial^2 \log p(x|\theta)}{\partial \theta_i \partial \theta_j} \bigg| \theta \right] I(θ)ij=E[θiθj2logp(xθ) θ]

书中常说:“如果模型是可识别的(即不同参数 ( θ \theta θ ) 对应不同分布 ( p ( x ∣ θ ) p(x|\theta) p(xθ) )),Fisher信息矩阵通常是正定的。”为什么?

正定的来源

  • 得分函数的协方差:( I ( θ ) I(\theta) I(θ) ) 是协方差矩阵,而协方差矩阵天然是半正定的(( x T I x = E [ ( x T s ) 2 ] ≥ 0 x^T I x = E[(x^T s)^2] \geq 0 xTIx=E[(xTs)2]0 ))。
  • 可识别性:如果模型可识别,得分函数 ( s ( θ ) = ∇ log ⁡ p s(\theta) = \nabla \log p s(θ)=logp ) 在不同 ( θ \theta θ ) 下变化显著,( I ( θ ) I(\theta) I(θ) ) 没有零特征值(即 ( x T I x = 0 x^T I x = 0 xTIx=0 ) 仅当 ( x = 0 x = 0 x=0 )),从而正定。
正态分布例子

对于 ( x ∼ N ( μ , σ 2 ) x \sim N(\mu, \sigma^2) xN(μ,σ2) ):

I ( θ ) = [ 1 σ 2 0 0 1 2 σ 4 ] I(\theta) = \begin{bmatrix} \frac{1}{\sigma^2} & 0 \\ 0 & \frac{1}{2\sigma^4} \end{bmatrix} I(θ)=[σ21002σ41]

  • 特征值:( 1 σ 2 , 1 2 σ 4 \frac{1}{\sigma^2}, \frac{1}{2\sigma^4} σ21,2σ41 ),皆正。
  • ( x T I x = x 1 2 σ 2 + x 2 2 2 σ 4 > 0 x^T I x = \frac{x_1^2}{\sigma^2} + \frac{x_2^2}{2\sigma^4} > 0 xTIx=σ2x12+2σ4x22>0 ),正定。

正定和负定的用途

正定和负定不仅是数学标签,它们在实际中有重要作用,尤其与“曲率”挂钩。

1. 曲率与优化

  • 正定:表示函数(比如负对数似然)在某点是“碗口向上”的凸函数,最优解在底部。Fisher信息矩阵正定说明似然函数局部是凸的,参数估计有唯一解。
  • 负定:表示“碗口向下”,如损失函数的最大值。优化时常希望Hessian负定(如最大化似然)。

在牛顿法中,Hessian的正定性保证步长方向正确,而Fisher信息矩阵正定则为自然梯度提供稳定基础。

2. 参数估计精度

Fisher信息矩阵正定意味着它的逆 ( I ( θ ) − 1 I(\theta)^{-1} I(θ)1 ) 存在且正定,提供了参数估计的协方差下界(Cramér-Rao界):

Cov ( θ ^ ) ≥ I ( θ ) − 1 \text{Cov}(\hat{\theta}) \geq I(\theta)^{-1} Cov(θ^)I(θ)1

正定性保证协方差矩阵有效,估计精度可量化。

3. 稳定性与正交性

  • 正定矩阵的特征值全正,保证系统(如优化过程)稳定。
  • 如果 ( I i j = 0 I_{ij} = 0 Iij=0 )(参数正交),矩阵接近对角形式,正定性更易满足,简化计算。

正定性与“曲率”的联系

Fisher信息矩阵的正定性为何能衡量“参数估计的曲率”?

  • 几何意义:( x T I x x^T I x xTIx ) 是对数似然函数在 ( θ \theta θ ) 附近曲率的期望。正定说明曲率处处向上,似然函数像一个“碗”,参数估计的“底部”清晰。
  • 信息含量:曲率越大(特征值越大),似然对参数变化越敏感,数据提供的信息越多。

例如,( I μ μ = 1 σ 2 I_{\mu\mu} = \frac{1}{\sigma^2} Iμμ=σ21 ) 表明,当 ( σ 2 \sigma^2 σ2 ) 小时,曲率大,( μ \mu μ ) 的估计更精确。


总结

矩阵的正定性和负定性描述了二次型的符号和函数的形状:正定是“正放的碗”,负定是“倒扣的碗”。在Fisher信息矩阵中,正定性源于模型的可识别性,保证了似然函数的局部凸性和参数估计的稳定性。它不仅衡量“曲率”,还为优化和推断提供了理论支撑。下次看到正定矩阵,不妨想想:它在告诉你什么形状的故事?

补充


“碗口向上”是什么意思?

在数学和几何中,当我们说一个矩阵 ( A A A ) 是正定的,意味着它的二次型 ( x T A x x^T A x xTAx ) 对于所有非零向量 ( x x x ) 都是正的(( x T A x > 0 x^T A x > 0 xTAx>0 ))。这可以用一个碗的形状来类比,但这里的“碗”是指一个三维空间中的曲面,具体来说是一个抛物面椭球面

  • “碗口向上”:指的是这个曲面在原点(( x = 0 x = 0 x=0 ))处达到最小值(( x T A x = 0 x^T A x = 0 xTAx=0 )),然后随着 ( x x x ) 远离原点,曲面高度(( x T A x x^T A x xTAx ))逐渐增加。这种形状在数学上对应一个凸函数,底部在最低点,像一个正放的碗。
  • 几何图像:想象一个普通的碗,开口朝天,底部在桌子上的形状。无论你从哪个方向(( x x x ) 的任意方向)离开中心,高度(碗的深度,或 ( x T A x x^T A x xTAx ))都上升。
举个例子

考虑正定矩阵 ( A = [ 1 0 0 1 ] A = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} A=[1001] ):

x T A x = x 1 2 + x 2 2 x^T A x = x_1^2 + x_2^2 xTAx=x12+x22

  • 当 ( x = [ 0 , 0 ] x = [0, 0] x=[0,0] ) 时,( x T A x = 0 x^T A x = 0 xTAx=0 )(最低点)。
  • 当 ( x = [ 1 , 0 ] x = [1, 0] x=[1,0] ) 时,( x T A x = 1 x^T A x = 1 xTAx=1 );( x = [ 0 , 2 ] x = [0, 2] x=[0,2] ) 时,( x T A x = 4 x^T A x = 4 xTAx=4 )。
  • 这是一个碗口向上的抛物面,底部在原点,向上延伸。

“碗倒扣在桌子上”

“碗倒扣在桌子上的形状”,是一个很自然的联想,但它对应的是负定矩阵,而不是正定矩阵

  • “碗口向下”(负定):如果矩阵 ( A A A ) 是负定的,( x T A x < 0 x^T A x < 0 xTAx<0 ) 对所有非零 ( x x x ) 成立。这时,曲面在原点处是最高点(( x T A x = 0 x^T A x = 0 xTAx=0 )),向四周下降,像一个倒扣的碗,或一个“坑”。
  • 例子:( A = [ − 1 0 0 − 1 ] A = \begin{bmatrix} -1 & 0 \\ 0 & -1 \end{bmatrix} A=[1001] ):
    x T A x = − x 1 2 − x 2 2 x^T A x = -x_1^2 - x_2^2 xTAx=x12x22
    • ( x = [ 0 , 0 ] x = [0, 0] x=[0,0] ) 时,( x T A x = 0 x^T A x = 0 xTAx=0 )(最高点)。
    • ( x = [ 1 , 0 ] x = [1, 0] x=[1,0] ) 时,( x T A x = − 1 x^T A x = -1 xTAx=1 );( x = [ 0 , 2 ] x = [0, 2] x=[0,2] ) 时,( x T A x = − 4 x^T A x = -4 xTAx=4 )。
    • 这是一个碗口向下的抛物面,像倒扣的碗。

为什么正定对应“碗口向上”?

在统计和优化中,正定矩阵(如Fisher信息矩阵)常用来描述凸性

  • Fisher信息矩阵 ( I ( θ ) I(\theta) I(θ) ) 正定,表示负对数似然 ( − log ⁡ p ( x ∣ θ ) -\log p(x|\theta) logp(xθ) ) 在真实参数附近是“碗口向上”的凸函数,存在唯一的最优解。
  • “曲率”是指碗的陡峭程度,正定保证曲率正向(向上弯曲),便于优化和估计。

反过来,负定矩阵可能对应最大值问题(如似然函数的最大化),形状是“碗口向下”。

后记

2025年2月25日12点24分于上海,在Grok 3大模型辅助下完成。


http://www.niftyadmin.cn/n/5868942.html

相关文章

STM32 缺一不可的最基础的初始化部分

STM32 缺一不可的最基础的初始化部分 初始化部分必须初始化作用关键配置系统时钟&#xff08;RCC&#xff09;​所有STM32程序的基础为CPU、总线和外设提供时钟信号1.选择时钟源&#xff08;HSI/HSE/PLL&#xff09; 2.配置系统时钟频率&#xff08;如168MHz&#xff09; 3.使…

数据结构(陈越,何钦铭) 第四讲 树(中)

4.1 二叉搜索树 4.1.1 二叉搜索树及查找 Position Find(ElementTyoe X,BinTree BST){if(!BST){return NULL;}if(X>BST->Data){return Find(X,BST->Right)}else if(X<BST->Data){return Find(X,BST->Left)}else{return BST;} } Position IterFind(ElementTyp…

C++中,关于用 size_t 还是用 int,永远要统一标准。

看以下例子&#xff1a; template<class T> class MyArray {public:T* _pData null; //指针&#xff0c;指向第一个元素size_t _nElementCount 0; //无素个数public:MyArray(const T* pt, const int nLen) { }size_t length() const { return _nElementCount…

HAProxy- https、四层负载实现与 负载均衡关键技术

目录 1、HAProxy实现四层负载 四层负载示例 ACL示例-四层访问控制 2、HAProxy- https实现 HAProxy https实现 证书制作 https配置示例 修改后端服务器的日志格式 验证https 3、 负载均衡关键技术 1、什么是 Session 2、什么是 Session 共享 1、基于 Cookie 的 Ses…

python爬虫学习第十一篇爬取指定类型数据

最近在学习Python爬虫的过程中&#xff0c;尝试用爬虫获取指定类型的数据。今天&#xff0c;我想和大家分享一下我的实践过程和遇到的问题。 一、实现目标 目标是从一个网站的API接口获取不同类型的食品数据。 比如&#xff0c;第一步我想获取汉堡、小食、甜品等不同类型的数…

ROS的action通信——实现阶乘运算(三)

在ROS中除了常见的话题(topic&#xff09;通信、服务(server)通信等方式&#xff0c;还有action通信这一方式&#xff0c;由于可以实时反馈任务完成情况&#xff0c;该通信方式被广泛运用于机器人导航等任务中。本文将通过三个小节的分享&#xff0c;实现基于action通信的阶乘运…

Linux 第三次脚本作业

源码编译安装httpd 2.4&#xff0c;提供系统服务管理脚本并测试&#xff08;建议两种方法实现&#xff09; 一、第一种方法 1、把 httpd-2.4.63.tar.gz 这个安装包上传到你的试验机上 2、 安装编译工具 (俺之前已经装好了&#xff09; 3、解压httpd包 4、解压后的httpd包的文…

【前端基础】Day 1 HTML

总结&#xff1a; 1. Web标准的构成 2. 基本标签 目录 1. Web标准的构成 2. 基本标签 2.1快捷键 2.2.1标题标签 2.2.2段落和换行标签 2.2.3文本格式化标签 2.2.4div和span标签 2.3.1 图像标签和路径 2.3.2路径 2.3.3超链接标签 2.4注释标签 2.5特殊字符 1. Web标准…