Notes
  • Notes
  • 恒星结构与演化
    • Chapter 7. Equation of State
    • Chapter 3. Virial Theorem
    • Chapter 11. Main Sequence
    • Chapter 4. Energy Conservation
    • Chapter 12. Post-Main Sequence
    • Chapter 2. Hydrostatic Equilibrium
    • Chapter 6. Convection
    • Chapter 9. Nuclear Reactions
    • Chapter 10 Polytrope
    • Chapter 8. Opacity
    • Chapter 14. Protostar
    • Chapter 13. Star Formation
    • Chapter 5. Energy Transport
  • 天体光谱学
    • Chapter 6 气体星云光谱
    • Chapter 5 磁场中的光谱
    • Chapter 7 X-射线光谱
    • Chapter 3 碱金属原子
    • Chapter 1 光谱基础知识
    • Chapter 9 分子光谱
    • Chapter 4 复杂原子
    • Chapter 2 氢原子光谱
  • 物理宇宙学基础
    • Chapter 2 Newtonian Cosmology
    • Chapter 1 Introduction
    • Chapter 5* Monochromatic Flux, K-correction
    • Chapter 9 Dark Matter
    • Chapter 10 Recombination and CMB
    • Chapter 8 Primordial Nucleosynthesis
    • Chapter 7 Thermal History of the Universe
    • Chapter 6 Supernova cosmology
    • Chapter 5 Redshifts and Distances
    • Chapter 4 World Models
    • Chapter 3 Relativistic Cosmology
  • 数理统计
    • Chapter 6. Confidence Sets (Intervals) 置信区间
    • Chapter 1. Data Reduction 数据压缩
    • Chapter 7. Two Sample Comparisons 两个样本的比较
    • Chapter 3. Decision Theory 统计决策
    • Chapter 4. Asymptotic Theory 渐近理论
    • Chapter 5. Hypothesis Testing 假设检验
    • Chapter 9. Linear Models 线性模型
    • Chapter 10 Model Selection 模型选择
    • Chapter 2. Estimation 估计
    • Chapter 11 Mathematical Foundation in Causal Inference 因果推断中的数理基础
    • Chapter 8. Analysis of Variance 方差分析
  • 天体物理动力学
    • Week8: Orbits
    • Week7: Orbits
    • Week6: Orbits
    • Week5: Orbits
    • Week4: Orbits
    • Week3: Potential Theory
    • Week2
    • Week1
  • 天体物理吸积过程
    • Chapter 4. Spherically Symmetric Flow
    • Chapter 2. Fluid Dynamics
    • Chapter 5. Accretion Disk Theory
    • Chapter 3. Compressible Fluid
  • 天文技术与方法
    • Chapter1-7
  • 理论天体物理
    • Chapter 6 生长曲线的理论和应用
    • Chapter 5 线吸收系数
    • Chapter 4 吸收线内的辐射转移
    • Chapter 3 恒星大气模型和恒星连续光谱
    • Chapter 2 恒星大气的连续不透明度
    • Chapter 1 恒星大气辐射理论基础
  • 常微分方程
    • 线性微分方程组
    • 高阶微分方程
    • 奇解
    • 存在和唯一性定理
    • 初等积分法
    • 基本概念
  • 天体物理观测实验
Powered by GitBook
On this page
  • 假设检验
  • 统计功效
  • 检验方法
  • 似然比检验 (LRTs)
  • Neyman-Pearson 检验
  • Wald 检验——适合无约束的模型
  • Score 检验——适合有约束的模型
  • p 值
  • 贝叶斯检验
  • 并交检验
  • 置换检验
  1. 数理统计

Chapter 5. Hypothesis Testing 假设检验

假设检验

  • 假设检验是一个明确的规则,给出:

    • 对于怎样的样本接受 $H_0$

    • 对于怎样的样本拒绝 $H_0$ 或者接受 $H_1$ ——拒绝前者不代表接收后者

  • 拒绝域:对应着拒绝 $H_0$ 的样本空间的子集

  • Type I & Type II 错误:

    • 在假设检验中考虑的不是零假设是否正确,而是我们有没有足够的证据拒绝零假设

      接受 $H_0$

      拒绝 $H_0$

      $H_0$ 为真

      Type I 错误

      $H_1$ 为真

      Type II 错误

  • 步骤:

    • 选择测试统计量 $Tn= T { n } \left( X { 1 } , \ldots , X { n } \right)$

    • 选择拒绝域 $\mathcal{R}$

    • 如果 $T _ { n } \in \mathcal { R }$ ,拒绝零假设,否则接受零假设

统计功效

  • 功效函数:

  • 含义:当 $\theta\in\Theta_0$ 的时候,犯 Type I 错误的概率为 $\beta(\theta)$ ;当 $\theta\in\Theta_1$ 的时候,犯 Type II 错误的概率为 $1-\beta(\theta)$

  • 我们希望构建一个拒绝域,当 $\theta\in\Theta_0$ 的时候 $\beta(\theta)$ 很小(不容易拒绝 $H_0$ ),当 $\theta\in\Theta_1$ 的时候 $\beta(\theta)$ 很大(不容易接受 $H_0$ )

  • 做法:

    • 固定一个 $\alpha$ (比如等于 $0.05$ )

    • 在 $\beta(\theta)\le\alpha$ 对于 $\theta\in\Theta_0$ 恒成立时,使 $\beta(\theta)$ 在 $\theta\in\Theta_1$ 上取最大

  • size $\alpha$ :相当于犯 Type I 错误的概率的上界

  • level $\alpha$

  • 无偏测试:

  • 例:正态分布,方差已知

    • 零假设和备假设:

    • 拒绝域:

    • 功效函数:

  • 为了得到一个 size-$\alpha$ 的检验

    可以解出 $c$

检验方法

似然比检验 (LRTs)

  • 零假设和备假设:

  • LRT 统计量:

  • 当 $\lambda(x)\le c$ 时拒绝零假设——在零分布下,出现观测到的样本的最大概率太小了

  • 对于 size-$\alpha$ 的检验,$c$ 由下式给出:

LRTs 和充分性

  • 考虑用充分统计量 $T(X)$ 和它的似然函数 $L ^ { * } ( \theta | t )$ (而非样本的似然函数 $L ( \theta | x )$ )来构造似然比

  • 可以证明 $\lambda ^ { * } ( T ( x ) ) = \lambda ( x )$ (用因子化定理)

冗余参数

  • LRTs 可以帮助处理含有不感兴趣参数的情况

  • 例:正态分布,我们对 $\mu$ 感兴趣但不关心 $\sigma^2$

    • $H { 0 } : \mu = \mu { 0 } \text { versus } H { 1 } : \mu \neq\mu { 0 }$

    • 可以这样写似然比:

      其中 $\widehat\sigma_0$ 在 $\mu=\mu_0$ 时把似然函数最大化,$\widehat\sigma_0$ 在 $\mu\in(-\infty,\infty)$ 时把似然函数最大化

    • 在 $\lambda \left( x { 1 } , \dots , x { n } \right) < c$ 时拒绝原假设,这等价于 $\left| T _ { n } \right| > k$ ,$k$ 是一个常数,而:

      满足 $n-1$ 维的 t 分布

    • size-$\alpha$ 的检验:当 $\left| T { n } \right| > t { n - 1 , \alpha / 2 }$ 时(注意 t 分布要考虑双侧,作为对比,卡方分布只要考虑单侧)拒绝零假设—— Student’s t-test

LRTs 的渐近分布

  • 有时我们无法给出 LRT 的分布,为了得到 size-$\alpha$ 的检验,需要用到渐近分布

  • 在零假设下,$T { n } = - 2 \log \lambda \left( x { 1 } , \ldots , x { n } \right) \stackrel { d } { \rightarrow } \chi { r } ^ { 2 }$ ,其中 $r = \operatorname { dim } ( \Theta ) - \operatorname { dim } \left( \Theta _ { 0 } \right)$

  • 渐近的 size-$\alpha$ 的检验:当 $T { n } > \chi { r , 1 - \alpha } ^ { 2 }$ 时拒绝零假设

Neyman-Pearson 检验

  • uniformly most powerful (UMP) 检验:

    对于任意的 $\theta\in\Theta_1$ ,功效函数都不小于任何其他 (level-$\alpha$) 检验的功效函数

  • 简单零假设和备假设:$H { 0 } : \theta = \theta { 0 } \text { versus } H { 1 } : \theta = \theta { 1 }$

  • Neyman-Pearson 定理

    • 当 $T { n } > k$ 时拒绝零假设,$k$ 满足 $P { \theta { 0 } } \left( T { n } > k \right) = \alpha$

    • 这个检验是 UMP level-$\alpha$ 检验

Wald 检验——适合无约束的模型

  • 对于 $p$ 维的 MLE $\hat\theta$ ,大样本下有:

    Fisher Information Matrix 如下:

  • Cramer-Wald 定理:

  • Slutsky 定理:

    对于任意随机向量 $X_n$ 和 $Y_n$ 和任意常数 $c$

  • 可能的零假设

    • $C$ 是 $r \times p$ 的满秩矩阵,$\theta$ 是 $p\times1$ 向量,$h$ 是一个已知的 $r\times1$ 向量

    • $H _ { 0 } : C \theta = h$

    • 例(把零假设写成矩阵形式):

  • Wald 检验:

    • 令 $\widehat { \mathcal { I } ( \theta ) } \stackrel { P } { \rightarrow } \mathcal { I } ( \theta )​$ ,零假设 $H _ { 0 } : C \theta = h​$ 为真

    • Wald 统计量:$W _ { n } = n ( { C } \widehat { \theta } - h ) ^ { \prime } \left( \mathcal { C } \widehat { \mathcal { I } ( \theta ) } C ^ { \prime } \right) ^ { - 1 } ( C \widehat { \theta } - h )$

    • 零假设下:$W _ { n } \stackrel { d } { \rightarrow } \chi ^ { 2 } ( r )$

    • $Wn>\chi { r , 1 - \alpha } ^ { 2 }$ 时拒绝零假设

Score 检验——适合有约束的模型

  • Observed Fisher Information 和相合估计量

    • Fisher information 需要计算期望,非常不便

    • 从样本出发,可以得到:

    • 由强大数定律:

    • 可以证明:

  • Score 检验

    • $\widehat\theta$ 是 $k\times1$ 的 MLE

    • $H { 0 } : \theta = \theta { 0 }$ ,$\widehat\theta_0$ 是零假设下的 MLE

    • 由 Score 函数定义:

    • 零假设下, $S \left( \widehat { \theta } { 0 } \right) \stackrel { d } { \rightarrow } N { k } ( 0 , \mathcal { J } )$

    • Score 检验统计量:

      $r$ 是 $H_0$ 约束的个数

p 值

  • p 值是我们拒绝 $H_0$ 的最小 $\alpha$(避免犯 Type II 错误),$\alpha>p$ 时我们拒绝零假设

  • 有效的 p 值:对于 $\theta\in\Theta0$ 和 $0<\alpha<1$ 有 $P { \theta } ( p ( X ) \leq \alpha ) \leq \alpha$

  • p 值小给出 $H_1$ 正确的证据

  • 一个(通常的)定义:

    • $W(X)$ 是一个统计量,大的 $W(X)$ 给出备假设正确的证据,则可以定义:

      此时的 p 值是有效的

    • 这个定义等价于在零分布下,比样本更糟糕的情况出现的概率

    • 在 $H_0$ 下,$p(X)\sim Uniform(0,1)$

  • p 值的意义:

    • 我们希望在零假设错误时备假设是正确的

    • 我们无法证明备假设是正确的,但我们可以证明备假设比零假设更靠谱

    • 给定检验统计量的值和零分布,我们想看到这个值是在分布的中间(和零假设相符)还是在分布的尾上(备假设更可靠)

    • 有时我们会考虑单边的尾,有时则是双侧的,这主要由检验统计量和备假设的定义决定

    • p 值不是零假设成立的概率,而是在假设零假设成立的前提下计算一组新的样本的检验统计量(相同的公式,新的数据),得到的结果比原结果偏离更远

贝叶斯检验

  • 贝叶斯检验把样本信息和先验信息结合在一起(利用贝叶斯公式),所有推断都建立在后验分布上

  • 我们分别计算概率:

  • 贝叶斯假设检验:

    如果 $P \left( \theta \in \Theta { 0 } | x \right) \geq P \left( \theta \in \Theta { 1 } | x \right)$ 就接受零假设,否则拒绝

  • 拒绝域:

    $\mathcal{R}=\left{ x : P \left( \theta \in \Theta _ { 1 } | x \right) > 1 / 2 \right}$

  • 例:正态分布,$\theta$ 的先验分布也是正态分布,$H { 0 } : \theta \leq \theta { 0 } \text { versus }H { 1 } : \theta > \theta { 0 }$

    接受零假设的条件是:

并交检验

  • 零假设可能对应许多零假设的交集

  • 设对于每一个 $\gamma$ ,$H { 0 \gamma } : \theta \in \Theta { \gamma } \text { versus } H { 1 \gamma } : \theta \in \Theta { \gamma } ^ { c }$ ,拒绝域为 $\left{ x : T { \gamma } ( x ) \in \mathcal { R } { \gamma } \right}$

  • 整体的拒绝域为每一个子拒绝域的并集:

  • 如果某一个 $H_{0\gamma}$ 被拒绝了,整体的零假设就被拒绝了

置换检验

  • 非参检验,不引入任何大样本渐近近似

  • $X { 1 } , \ldots , X { n } \sim F,\quad Y { 1 } , \ldots , Y { m } \sim G$

  • $H { 0 } : F = G \text { versus } H { 1 } : F \neq G$

  • 定义 $Z = \left( X { 1 } , \ldots , X { n } , Y { 1 } , \ldots , Y { m } \right)$ 和标签 $L = ( 1 , \ldots , 1,2 , \ldots , 2 )$ ,$n$ 个 $1$ ,$m$ 个 $2$ ,可以利用它们来构造统计量,比如:

    $T$ 太大时拒绝零假设

  • p 值

    $L_\pi$ 是标签的一种排序,这里对所有可能的排序求和并除以排序总数

    零假设下的 $ T ( L , Z ) $ 是均匀分布,如果 p 值很小,则在零假设下我们观测到的样本出现概率非常小,考虑拒绝零假设

  • 对所有排列进行检验运算量太大,常用的做法是随机抽取 $K$ 组,p 值为:

PreviousChapter 4. Asymptotic Theory 渐近理论NextChapter 9. Linear Models 线性模型

Last updated 4 years ago

β(θ)=Pθ(Tn(X1,…,Xn)∈R)\beta ( \theta ) = P _ { \theta } \left( T _ { n } \left( X _ { 1 } , \ldots , X _ { n } \right) \in \mathcal { R } \right)β(θ)=Pθ​(Tn​(X1​,…,Xn​)∈R)
sup⁡θ∈Θ0β(θ)=α\sup _ { \theta \in \Theta _ { 0 } } \beta ( \theta ) = \alphaθ∈Θ0​sup​β(θ)=α
sup⁡θ∈Θ0β(θ)≤α\sup _ { \theta \in \Theta _ { 0 } } \beta ( \theta ) \leq \alphaθ∈Θ0​sup​β(θ)≤α
β(θ′)≥β(θ′′) for every θ′∈Θ1 and θ′′∈Θ0\beta \left( \theta ^ { \prime } \right) \geq \beta \left( \theta ^ { \prime \prime } \right) \text { for every } \theta ^ { \prime } \in \Theta _ { 1 } \text { and } \theta ^ { \prime \prime } \in \Theta _ { 0 }β(θ′)≥β(θ′′) for every θ′∈Θ1​ and θ′′∈Θ0​
H0:θ=θ0 v.s. H1:θ>θ0H _ { 0 } : \theta = \theta _ { 0 } \text { v.s. } H _ { 1 } : \theta > \theta _ { 0 }H0​:θ=θ0​ v.s. H1​:θ>θ0​
R={Tn>c∣Tn=X‾n−θ0σ/n}\mathcal{R}=\left\{T_n>c\Bigg|T _ { n } = \frac { \overline { X } _ { n } - \theta _ { 0 } } { \sigma / \sqrt { n } }\right\}R={Tn​>c​Tn​=σ/n​Xn​−θ0​​}
β(θ)=Pθ(X‾n−θ0σ/n>c)=Pθ(X‾n−θσ/n>c+θ0−θσ/n)=1−Φ(c+θ0−θσ/n)\beta ( \theta ) = P _ { \theta } \left( \frac { \overline { X } _ { n } - \theta _ { 0 } } { \sigma / \sqrt { n } } > c \right) = P _ { \theta } \left( \frac { \overline { X } _ { n } - \theta } { \sigma / \sqrt { n } } > c + \frac { \theta _ { 0 } - \theta } { \sigma / \sqrt { n } } \right)= 1 - \Phi \left( c + \frac { \theta _ { 0 } - \theta } { \sigma / \sqrt { n } } \right)β(θ)=Pθ​(σ/n​Xn​−θ0​​>c)=Pθ​(σ/n​Xn​−θ​>c+σ/n​θ0​−θ​)=1−Φ(c+σ/n​θ0​−θ​)
α=sup⁡θ∈Θ0β(θ)=β(θ0)=1−Φ(c)\alpha=\sup _ { \theta \in \Theta _ { 0 } } \beta ( \theta ) = \beta \left( \theta _ { 0 } \right) = 1 - \Phi ( c )α=θ∈Θ0​sup​β(θ)=β(θ0​)=1−Φ(c)
H0:θ∈Θ0 versus H1:θ∈Θ1H _ { 0 } : \theta \in \Theta _ { 0 }\text { versus } H _ { 1 } : \theta \in \Theta _ { 1 }H0​:θ∈Θ0​ versus H1​:θ∈Θ1​
λ(x)=sup⁡θ∈Θ0L(θ∣x)sup⁡θ∈ΘL(θ∣x)\lambda ( x ) = \frac { \sup _ { \theta \in \Theta _ { 0 } } L ( \theta | x ) } { \sup _ { \theta \in \Theta } L ( \theta | x ) }λ(x)=supθ∈Θ​L(θ∣x)supθ∈Θ0​​L(θ∣x)​
sup⁡θ∈Θ0Pθ(λ(X)≤c)=α\sup _ { \theta \in \Theta _ { 0 } } P _ { \theta } ( \lambda ( \mathbf { X } ) \leq c ) = \alphaθ∈Θ0​sup​Pθ​(λ(X)≤c)=α
λ(x1,…,xn)=L(μ0,σ^0)L(μ^,σ^)\lambda \left( x _ { 1 } , \ldots , x _ { n } \right) = \frac { L \left( \mu _ { 0 } , \widehat { \sigma } _ { 0 } \right) } { L ( \widehat { \mu } , \widehat { \sigma } ) }λ(x1​,…,xn​)=L(μ​,σ)L(μ0​,σ0​)​
Tn=X‾−μ0S/nT _ { n } = \frac { \overline { X } - \mu _ { 0 } } { S / \sqrt { n } }Tn​=S/n​X−μ0​​
Tn=L(θ1)L(θ0)T _ { n } = \frac { L \left( \theta _ { 1 } \right) } { L \left( \theta _ { 0 } \right) }Tn​=L(θ0​)L(θ1​)​
n(θ^−θ)→dT∼Np(0,I(θ)−1)\sqrt { n } ( \widehat { \theta } - \theta ) \stackrel { d } { \rightarrow } T \sim N _ { p } \left( 0 , \mathcal { I } ( \theta ) ^ { - 1 } \right)n​(θ−θ)→dT∼Np​(0,I(θ)−1)
I(θ)ij=E(−∂2∂θi∂θjlog⁡f(X∣θ))\mathcal { I } ( \theta )_{ij} = E \left( - \frac { \partial ^ { 2 } } { \partial \theta _ { i } \partial \theta _ { j } } \log f ( X | \theta ) \right)I(θ)ij​=E(−∂θi​∂θj​∂2​logf(X∣θ))
Xn→dX  ⟺  aTXn→daTX for all a∈RpX _ { n } \stackrel { d } { \rightarrow }X\iff a ^ { T } X _ { n } \stackrel { d } { \rightarrow } a ^ { T } X \text { for all } a \in \mathcal { R } ^ { p }Xn​→dX⟺aTXn​→daTX for all a∈Rp
Xn→dX,Yn→Pc⇒(XnYn)→d(Xc)X _ { n } \stackrel { d } { \rightarrow } X, Y _ { n } \stackrel { P } { \rightarrow } c\Rightarrow\left( \begin{array} { l } { X _ { n } } \\ { Y _ { n } } \end{array} \right) \stackrel { d } { \rightarrow } \left( \begin{array} { l } { X } \\ { c } \end{array} \right)Xn​→dX,Yn​→Pc⇒(Xn​Yn​​)→d(Xc​)
θ1=θ2,θ1=θ3  ⟺  [1−1010−1]θ=[000]\theta _ { 1 } = \theta _ { 2 } , \quad \theta _ { 1 } = \theta _ { 3 }\iff\left[ \begin{array} { c c c } { 1 } & { - 1 } & { 0 } \\ { 1 } & { 0 } & { - 1 } \end{array} \right] \theta = \left[ \begin{array} { l } { 0 } \\ { 0 } \\ { 0 } \end{array} \right]θ1​=θ2​,θ1​=θ3​⟺[11​−10​0−1​]θ=​000​​
Jn(θ)ij=1n∑i=1n−∂2∂θi∂θjlog⁡f(Xi∣θ)\mathcal { J } _ { n } ( \theta )_{ij} = \frac { 1 } { n } \sum _ { i = 1 } ^ { n } - \frac { \partial ^ { 2 } } { \partial \theta _ { i } \partial \theta _ { j } } \log f \left( X _ { i } | \theta \right)Jn​(θ)ij​=n1​i=1∑n​−∂θi​∂θj​∂2​logf(Xi​∣θ)
Jn(θ)⟶ a.s. I(θ)\mathcal { J } _ { n } ( \theta ) \stackrel { \text { a.s. } } { \longrightarrow } \mathcal { I } ( \theta )Jn​(θ)⟶ a.s. ​I(θ)
Jn(θ^)→ a.s. I(θ)\mathcal { J } _ { n } ( \hat { \theta } ) \stackrel { \text { a.s. } } { \rightarrow } \mathcal { I } ( \theta )Jn​(θ^)→ a.s. I(θ)
S(θ)=∂l∂θ,S(θ^)=0S ( \theta ) = \frac { \partial l } { \partial \theta },\quad S ( \hat { \theta } ) = 0S(θ)=∂θ∂l​,S(θ^)=0
Tn=S(θ^0)′J−1(θ^0)−1S(θ^0)→dχ2(r)T _ { n } = S \left( \widehat { \theta } _ { 0 } \right) ^ { \prime } \mathcal { J } ^ { - 1 } \left( \widehat { \theta } _ { 0 } \right) ^ { - 1 } S \left( \widehat { \theta } _ { 0 } \right) \stackrel { d } { \rightarrow } \chi ^ { 2 } ( r )Tn​=S(θ0​)′J−1(θ0​)−1S(θ0​)→dχ2(r)
p(x)=sup⁡θ∈Θ0Pθ(W(X)≥W(x))p ( x ) = \sup _ { \theta \in \Theta _ { 0 } } P _ { \theta } ( W ( X ) \geq W ( x ) )p(x)=θ∈Θ0​sup​Pθ​(W(X)≥W(x))
P(θ∈Θ0∣x)=P(H0 is true ∣x)P(θ∈Θ1∣x)=P(H1 is true ∣x)\begin{array} { l } { P \left( \theta \in \Theta _ { 0 } | x \right) = P \left( H _ { 0 } \text { is true } | x \right) } \\ { P \left( \theta \in \Theta _ { 1 } | x \right) = P \left( H _ { 1 } \text { is true } | x \right) } \end{array}P(θ∈Θ0​∣x)=P(H0​ is true ∣x)P(θ∈Θ1​∣x)=P(H1​ is true ∣x)​
X‾≤θ0+σ2(θ0−μ)nτ2\overline { X } \leq \theta _ { 0 } + \frac { \sigma ^ { 2 } \left( \theta _ { 0 } - \mu \right) } { n \tau ^ { 2 } }X≤θ0​+nτ2σ2(θ0​−μ)​
H0:θ∈⋂γ∈ΓΘγH _ { 0 } : \theta \in \bigcap _ { \gamma \in \Gamma } \Theta _ { \gamma }H0​:θ∈γ∈Γ⋂​Θγ​
⋃γ∈Γ{x:Tγ(x)∈Rγ}\bigcup _ { \gamma \in \Gamma } \left\{ x : T _ { \gamma } ( x ) \in R _ { \gamma } \right\}γ∈Γ⋃​{x:Tγ​(x)∈Rγ​}
T=∣X‾n−Y‾m∣=∣∑i=1NZiI(Li=1)∑i=1NI(Li=1)−∑i=1NZiI(Li=2)∑i=1NI(Li=2)∣T = \left| \overline { X } _ { n } - \overline { Y } _ { m } \right|=\left| \frac { \sum _ { i = 1 } ^ { N } Z _ { i } I \left( L _ { i } = 1 \right) } { \sum _ { i = 1 } ^ { N } I \left( L _ { i } = 1 \right) } - \frac { \sum _ { i = 1 } ^ { N } Z _ { i } I \left( L _ { i } = 2 \right) } { \sum _ { i = 1 } ^ { N } I \left( L _ { i } = 2 \right) } \right|T=​Xn​−Ym​​=​∑i=1N​I(Li​=1)∑i=1N​Zi​I(Li​=1)​−∑i=1N​I(Li​=2)∑i=1N​Zi​I(Li​=2)​​
p=1N!∑πI(T(Lπ)>T(L,Z))p = \frac { 1 } { N ! } \sum _ { \pi } I \left( T \left( L _ { \pi } \right) > T ( L , Z ) \right)p=N!1​π∑​I(T(Lπ​)>T(L,Z))
p=1K∑j=1KI(T(j)>T)p=\frac { 1 } { K } \sum _ { j = 1 } ^ { K } I \left( T ^ { ( j ) } > T \right)p=K1​j=1∑K​I(T(j)>T)