Bayesian Optimization pseudocode

// 贝叶斯优化算法伪代码
算法:贝叶斯优化(Bayesian Optimization)
输入:目标函数 f(x),初始样本集 D = {(x₁, f(x₁)), ..., (xₙ, f(xₙ))},
      迭代次数 T,采集函数 α(x; D),概率模型参数先验 p(w)
输出:最优解 x*

1: for t = 1 to T do
2:     根据贝叶斯公式计算参数后验:
         p(w|D) ∝ p(D|w)p(w)  // 其中p(D|w)是似然函数
3:     使用后验参数 p(w|D) 训练概率模型 M(如高斯过程)
4:     求解下一个采样点 xₜ₊₁ = argmax_x α(x; D, M)
5:     计算目标函数值 yₜ₊₁ = f(xₜ₊₁)
6:     更新样本集 D = D ∪ {(xₜ₊₁, yₜ₊₁)}
7: end for
8: 返回历史最优解 x* = argmin_{x∈D} f(x)
// 采集函数的数学表达
1. 期望改进(Expected Improvement, EI):
   α_EI(x; D) = E[max(f(x) - f(x⁺), 0)]
   其中 f(x⁺) = min{f(x₁), f(x₂), ..., f(xₙ)}
   
2. 置信上限(Upper Confidence Bound, UCB):
   α_UCB(x; D) = μ(x) + κ·σ(x)
   其中 κ 控制探索与利用的平衡
   
3. 概率改进(Probability of Improvement, PI):
   α_PI(x; D) = Φ((f(x⁺) - μ(x))/σ(x))
   其中 Φ 是标准正态分布的累积分布函数

贝叶斯定理 Bayes' Theorem

p(wD)=p(Dw).p(w)p(D)p(w|D) = \frac{p(D|w) . p(w)}{ p(D)}
  1. 先验概率(根据先前的经验,对事物发生的概率)

  2. 接收新的信息

  3. 根据新的信息,更新对事物的判断,得出后验概率

新假设 = 旧假设 + 新证据 https://www.youtube.com/watch?v=Dwv60z_XeaE

Last updated

Was this helpful?