值得信赖的政策学习在为个人做出值得信赖和无害的处理决定方面具有重要意义。以前的政策学习方法旨在通过最大化效用函数(例如,条件平均因果效应,推荐中的观后点击率和转化率)来实现提升子群体的福利。然而,个人层面的反事实无害标准却很少被讨论。在本文中,我们提出了政策学习的反事实无害标准。接下来,我们为受政策负面影响的部分提出了一个新的上界,并展示了估计值的一致性和渐进正态性。基于对政策效用和伤害上界的估计,我们进一步提出了一种满足反事实无伤害准则的政策学习方法,并证明其与参数化和非参数化政策类别的**无伤害政策奖励的一致性。我们进行了广泛的实验,以显示所提出的政策学习方法在满足反事实无害标准方面的有效性。
研究兴趣主要包括因果推断,概率图模型以及可信机器学习。