在信息几何中,Fisher信息度量是一个定义在平滑统计流形上的黎曼度量。其中,统计流形是一个点为概率分布的平滑流形。由此,该信息度量通常被用于计算两个概率分布之间的距离。

根据切比雪夫理论,统计模型上的Fisher信息度量是唯一的一个黎曼度量,其在足够的统计量下是不变的。

该度量也可以被理解为相对熵(KL-Divergence)的无穷小形式。确切的说,其是KL-DivergenceHessian矩阵。

定义

给定坐标为$\theta=(\theta_1,\theta_2,\ldots,\theta_n)$的统计流形,似然$p(x\vert\theta)$为$x$的概率密度。其中,$x$来自于随机变量$X$的值空间。那么,fisher信息度量为:
$$
\begin{aligned}
g_{jk}(\theta)=-\int_{R}\frac{\partial^2log{p(x\vert\theta)}}{\partial\theta_j\partial\theta_k}p(x\vert\theta)dx=\mathbb{E}_{x\vert\theta}[-\frac{\partial^2logp(x\vert\theta)}{\partial\theta_j\theta_k}]
\end{aligned}\tag{1}
$$

例子

对于指数族分布
$$
\begin{aligned}
p(x\vert\theta)=exp[\eta(\theta)\cdot T(x)-A(\theta)+B(x)]
\end{aligned}\tag{2}
$$
Fisher信息度量为
$$
\begin{aligned}
g_{jk}(\theta)=\frac{\partial^2A(\theta)}{\partial\theta_j\partial\theta_k}-\frac{\partial^2\eta(\theta)}{\partial\theta_j\partial\theta_k}
\end{aligned}\tag{3}
$$

引用方法

请参考:

            
                li,wanye. "Fisher信息度量". wyli'Blog (Jun 2025). https://www.robotech.ink/index.php/archives/741.html            
        

或BibTex方式引用:

            
                @online{eaiStar-741,
   title={Fisher信息度量},
   author={li,wanye},
   year={2025},
   month={Jun},
   url="https://www.robotech.ink/index.php/archives/741.html"
}

标签: none

添加新评论