文件名称:分布稳健经验优化模型的校准-研究论文
文件大小:1.16MB
文件格式:PDF
更新时间:2024-06-29 23:47:10
distributionally robust optimization
我们研究了具有平滑 φ 散度惩罚和平滑凹目标函数的稳健经验优化问题的样本外特性,并开发了一种用于控制数据大小的非负“稳健性参数”δ 的数据驱动校准理论与名义模型的偏差。 基于稳健优化通过控制奖励分布的传播降低预期奖励对模型错误的敏感性的直觉,我们证明了“一点点稳健性”的一阶好处(即 δ 小,正) 是样本外奖励方差的显着减少,而对均值的相应影响几乎小了一个数量级。 一个含义是,如果稳健性参数得到适当校准,则可以以很少的成本大幅降低方差(灵敏度)。 为此,我们引入了稳健均值方差前沿的概念来选择稳健性参数,并表明可以使用自举法等重采样方法对其进行近似。 我们的例子表明,由“开环”校准方法(例如,无论数据和目标函数如何选择 90% 的置信水平)产生的稳健解决方案可能是非常保守的样本外,而那些对应于优化稳健性参数的解决方案不考虑方差的样本外预期奖励的估计(例如,通过引导程序)通常不够稳健。