2025年6月22日 星期日

統計決策

 

📘 統計決策理論:Bayesian × Frequentist 全景統一整理


✅ 第 1 層:核心資料模型(兩派共通)

xP(xθ)x \sim P(x \mid \theta)
  • 所有統計推論的基礎。

  • xx:觀察到的資料,
    θ\theta:未知參數。


🔀 第 2 層:兩大世界觀的分歧

面向Bayesian(貝葉斯)Frequentist(頻率派)
θ\theta 的觀點是隨機變數,有先驗 P(θ)P(\theta)是固定未知常數,不可用機率描述
xx 的來源xP(xθ)x \sim P(x \mid \theta),用於 belief 更新xP(xθ)x \sim P(x \mid \theta),用於估計/檢定
可否談 P(θx)P(\theta \mid x)✅ 可,用 Bayes’ Rule❌ 不行,θ 不是機率變數
推論重心belief updating → 決策誤差控制、收斂性、保證長期穩定性
適用場景AI決策、自主系統、不確定風險管理品質保證、醫學統計、嚴謹實驗設計

📐 第 3 層:統一語法與風險函數表示

🎯 損失函數(共用概念):

L(θ,a)=在真實為 θ 時,採取行動 a 所造成的損失L(\theta, a) = \text{在真實為 } \theta \text{ 時,採取行動 } a \text{ 所造成的損失}

🎯 決策規則:

δ(x)=資料 x 下選擇的行動\delta(x) = \text{資料 } x \text{ 下選擇的行動}

📊 第 4 層:風險函數對照表

類型數學式語義
Bayes RiskRB(δ)=Eθ,x[L(θ,δ(x))]R_B(\delta) = \mathbb{E}_{\theta, x}[L(\theta, \delta(x))]結合先驗與樣本分布的整體期望損失
Frequentist RiskRF(θ,δ)=Exθ[L(θ,δ(x))]R_F(\theta, \delta) = \mathbb{E}_{x \mid \theta}[L(\theta, \delta(x))]固定 θ\theta 下,樣本造成的平均損失

🏁 第 5 層:最佳化目標與決策準則

準則數學形式解釋
Bayes Optimalδ=argminδRB(δ)\delta^* = \arg\min_\delta R_B(\delta)最小化整體期望損失
Minimax Optimalδ=argminδsupθRF(θ,δ)\delta^* = \arg\min_\delta \sup_\theta R_F(\theta, \delta)控制所有 θ 下最壞情況的風險

📊 第 6 層:概念流程圖(邏輯圖解)

latex
┌────────────────────────────┐ │ 資料模型核心 │ │ x ~ P(x | θ) │ └────────────────────────────┘ ▲ ┌───────────────────────┼────────────────────────┐ │ │ belief updating(Bayesian) sampling behavior(Frequentist) │ │ θ ~ P(θ)(先驗) θ = 固定未知常數 │ │ P(θ | x) = Bayes Rule 評估樣本分布 / 檢定假設 │ │ 損失函數 L(θ, a),決策函數 δ(x) 損失函數 L(θ, a),決策函數 δ(x) ▼ ▼ Bayes Risk: Frequentist Risk: \( R_B = \mathbb{E}_{\theta,x}[L] \) \( R_F = \mathbb{E}_{x|\theta}[L] \) ▼ ▼ 🎯 最佳策略: 🎯 最佳策略: \( \delta^* = \arg\min R_B \) \( \delta^* = \arg\min \sup_\theta R_F \)

🧭 第 7 層:應用場景地圖

應用領域適用架構原因與特點
機器學習模型選擇Bayes結合 prior,反映模型不確定性
抽樣驗收 / 品質控制Frequentist保證長期錯誤率、Minimax 更穩健
醫療決策 / 風險評估混合使用Minimax 控風險,Bayes 可整合個體資訊
生產策略調整Bayes + 動態更新可隨資料動態修正決策
假設檢定 / 實驗設計Frequentist精確控制型一錯誤(p-value, CI)

📌 核心記憶語:

資料模型為橋,兩派思維為路
Bayes:「我有信念,透過資料來更新世界觀,追求期望最小。」
Frequentist:「我無法知道 θ,但我能保證樣本行為的穩定性,控錯誤風險。」

沒有留言:

張貼留言