强化学习笔记(三、四)——蒙特卡洛策略评估、时序差分学习

2021-12-04   


介绍

第二三讲告诉了我们如何从理论上解决一个已知的 MDP 问题,利用贝尔曼方程,通过 DP 来评估一个给定的策略,接着贪婪选取动作,如此反复最终确定最优策略;也可以直接进行不基于任何策略的价值迭代得到最优价值函数和最优策略。

然而并非所有的 MDP 问题都掌握 MDP 的所有细节,本节的目的就是解决一个可以被认为是 MDP、但却不掌握 MDP 具体细节的问题,直接从 Agent 与环境的交互来得得到一个估计的最优价值函数和最优策略。这部分内容同样分为两部分,第一部分也就是本讲的内容,聚焦于策略评估,也就是 prediction,直白的说就是在给定的策略同时不清楚 MDP 细节的情况下,估计 Agent 会得到怎样的期望奖励。下一讲将利用本讲的主要思想解决 control 问题进而找出最优策略,最大化Agent 的奖励。

Monte-Carlo 策略评估

蒙特卡洛强化学习:在不清楚MDP状态转移及即时奖励的情况下,直接从经历完整的轨迹来学习状态价值,通常情况下某状态的价值等于在多个轨迹中以该状态得到的所有回报的平均。

注:收获不是针对轨迹的,它存在于轨迹内,针对于轨迹中某一个状态,从这个状态开始经历完轨迹时得到的有衰减的奖励的总和。从一个轨迹中,我们可以得到该轨迹内所有状态的回报。当一个状态在轨迹内出现多次,该状态的收获有不同的计算方法,后面会讲到。

蒙特卡洛策略评估 Monte-Carlo Policy Evaluation

**目标:**在给定策略下,从完整轨迹中学习该策略下的状态价值函数。

特点:(1) 无模型,不需要 MDP 的转移和奖励函数;(2) 根据完整的轨迹学习,无自举。使用 MC 方法通常要求轨迹要足够长且达到终止状态。

数学描述如下,基于特定策略 π\pi 的一个轨迹信息可以表示为如下序列:

s1,a1,r2,s2,a2,,st,at,rt+1,,skπs_1,a_1,r_2,s_2,a_2,\cdots,s_t,a_t,r_{t+1},\cdots,s_k\sim \pi

tt 时刻状态 sts_t 的回报:

Gt=rt+1+γrt+2++γT1rt+TG_{t}=r_{t+1}+\gamma r_{t+2}+\cdots+\gamma^{T-1} r_{t+T}

价值则是回报的期望:

Vπ(s)=Eπ[Gtst=s]V_{\pi}(s)=\mathbb{E}_{\pi}[G_t|s_t=s]

蒙特卡洛策略评估方法使用回报的经验均值作为回报的期望。在状态转移过程中,可能发生一个状态经过一定的转移后又一次或多次返回该状态,此时在轨迹里如何计算这个状态发生的次数和计算该轨迹的收获呢?可以有如下两种方法:

  1. 首次经过的 MC 策略评估

为了评估状态 ss 的状态价值,在一次轨迹中首次遇到状态 ss 时 (假定时刻为 tt),计数加一: N(s)N(s)+1N(s) ← N(s) + 1 ,累加 tt 时刻之后的轨迹回报: S(s)S(s)+GtS(s) ← S(s) + G_t,估计的状态价值等于回报均值: $V(s) = S(s)/N(s) $ ,根据大数定律,当 N(s)N(s) → ∞ 时, $V(s) → V_π(s) $ 。

  1. 每次经过的 MC 策略评估

为了评估状态 ss 的状态价值,在一次轨迹中每次遇到状态 ss 时 (假定时刻为 tt),计数加一: N(s)N(s)+1N(s) ← N(s) + 1 ,累加 tt 时刻之后的轨迹回报: S(s)S(s)+GtS(s) ← S(s) + G_t,估计的状态价值等于回报均值: $V(s) = S(s)/N(s) $ ,根据大数定律,当 N(s)N(s) → ∞ 时, $V(s) → V_π(s) $ 。

增量式更新均值

对一组不断产生新数据的序列 x1,x2,,xk1,xkx_1,x_2,\cdots,x_{k-1},x_k ,可以增量式计算当前观测的均值 μ1,μ2,\mu_1,\mu_2,,uk1,μk\cdots,u_{k-1},\mu_k

μk=1kj=1kxj=1k(xk+j=1k1xj)=1k(xk+(k1)μk1)=μk1+1k(xkμk1)\begin{aligned} \mu_{k} &=\frac{1}{k} \sum_{j=1}^{k} x_{j} \\ &=\frac{1}{k}\left(x_{k}+\sum_{j=1}^{k-1} x_{j}\right) \\ &=\frac{1}{k}\left(x_{k}+(k-1) \mu_{k-1}\right) \\ &=\mu_{k-1}+\frac{1}{k}\left(x_{k}-\mu_{k-1}\right) \end{aligned}

只需要记录前一时刻的均值和当前时刻的观测量。

把这个方法应用于蒙特卡洛策略评估,就得到增量式的 MC 更新。对于一系列片段中每一个 s1,a1,r2,s2,a2,,st,at,tt+1,,sks_1,a_1,r_2,s_2,a_2,\cdots,s_t,a_t,t_{t+1},\cdots,s_k ,相应于首次经过和每次经过方法,

N(st)N(st)+1V(st)V(st)+1N(st)(GtV(st))\begin{array}{l} N\left(s_{t}\right) \leftarrow N\left(s_{t}\right)+1 \\ V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\frac{1}{N\left(s_{t}\right)}\left(G_{t}-V\left(s_{t}\right)\right) \end{array}

随着状态遍历次数的增加,1/N(st)01/N(s_t)\rightarrow 0 ,因此在学习后期,观测量对结果影响不大。

如果环境是动态、不断变化的,更希望能够随时跟踪当前不断变化的均值,可用学习率更新:

V(st)V(st)+α(GtV(st))V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\left(G_{t}-V\left(s_{t}\right)\right)

其中 α\alpha 是学习率。

时间差分学习 Temporal-Difference Learning

回顾策略价值定义和 MC 评估方法:

Vπ(st)=Eπ[Gt],akπ(sk)V(st)V(st)+α(GtV(st))\begin{aligned} V_{\pi}\left(s_{t}\right)=\mathbb{E}_{\pi}\left[G_{t}\right], \quad a_{k} \sim \pi\left(s_{k}\right)\\ V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\left(G_{t}-V\left(s_{t}\right)\right) \end{aligned}

策略价值的另一定义是贝尔曼期望方程,如果多观测一步来代替期望,这就引出了时间差分学习:

Vπ(st)=Eπ[rt+1+γVπ(st+1)],atπ(st)V(st)V(st)+α(rt+1+γVπ(st+1)V(st))V_{\pi}\left(s_{t}\right)=\mathbb{E}_{\pi}\left[r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right)\right], \quad a_{t} \sim \pi\left(s_{t}\right) \\ V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\left(r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right)-V\left(s_{t}\right)\right)

时间差分学习简称 TD 学习,它和蒙特卡洛学习一样,它也从 Episode 学习,是 model-free 的;但是它可以学习不完整的 Episode,通过自举(bootstrapping) 猜测 Episode 的结果,并持续更新这个猜测。

上式中 rt+1+γVπ(st+1)r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right) 被称为 TD 目标,δt=rt+1+γVπ(st+1)V(st)\delta_t=r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right)-V(s_t) 称为 TD 误差。自举(bootstrapping) 指的就是用 TD 目标值代替回报 GtG_t 的过程。

MC 和 TD评估的基本区别:例如,你想获得开车去公司的时间,每天上班开车的经历就是一次采样。假设今天在路口 A 遇到了堵车,

  • TD 会在路口 A 就开始更新预计到达路口 B、路口 C \cdots \cdots,以及到达公司的时间;
  • 而 MC 并不会立即更新时间,而是在每次到达公司后,再修改到达每个路口和公司的时间。

TD 可以在智能体运行过程中的每一时刻在线更新,MC 需要完整的轨迹计算出回报后更新,TD 可以根据不完整的轨迹学习,MC 要求轨迹达到终止状态或序列足够长。

MC 与 TD 偏差方差权衡

回报 Gt=rt+1+γrt+2++γT1rtG_{t}=r_{t+1}+\gamma r_{t+2}+\cdots+\gamma^{T-1} r_{t} 是策略价值 Vπ(st)V_{\pi}\left(s_{t}\right) 的 无偏估计: Vπ(st)=Eπ[Gt]V_{\pi}\left(s_{t}\right)=\mathbb{E}_{\pi}\left[G_{t}\right] ;真实的 TD 目标 rt+1+γVπ(st+1)r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right)Vπ(st)V_{\pi}\left(s_{t}\right) 的 无偏估计: Vπ(st)=Eπ[rt+1+γVπ(st+1)]V_{\pi}\left(s_{t}\right)=\mathbb{E}_{\pi}\left[r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right)\right] ;而实际的 TD 目标 rt+1+γV(st+1)r_{t+1}+\gamma V\left(s_{t+1}\right)Vπ(st)V_{\pi}\left(s_{t}\right) 的 有偏估计,但是 TD 目标比回报具有更小的方差。这很容易理解,回报 GtG_t 的计算涉及整个轨迹上的随机动作, 转移状态, 奖励(随机因素多),而 TD 目标只包含一个时刻的随机动作, 转移状态, 奖励 (随机因素少)。

因此,MC 是 高方差, 零偏差,有好的收敛性(即使是使用逼近器也能保证收敛),与价值函数初始值无关,原理简单,使用方便;TD 是低方差,有偏差,通常情况是比 MC 更有效,TD(0) 能够收敛到 Vπ(s)V_π(s) ,但是与逼近器结合后没有收敛保证,并且受价值函数初始值影响。

例子:求 A, B 的状态价值

image-20210418131702603

解:对于 MC 方法,由于需要完整的片段,因此仅片段 1 可以用于计算 V(A)=0/8=0V(A)=0/8=0V(B)=6/8V(B)=6/8 。对于 TD(0) 方法,TD 算法试图利用现有的片段经验构建一个MDP,由于存在一个片段使得状态 A 有后继状态 B,因此状态 A 的价值是通过状态 B 的价值来计算的,同时经验表明A到B的转移概率是100%,且A状态的即时奖励是0,并且没有衰减,因此 A 的状态价值等于 B 的状态价值,而经验表明 B 没有转移到任何状态,因此 V(A)=V(B)=6/8V(A)=V(B)=6/8

image-20210418132111082

MC 收敛结果对应最小二乘误差,最佳匹配观测 (st,Gt)\left(s_{t}, G_{t}\right) 的回报

k=1Kt=1Tk(GtkV(stk))2\sum_{k=1}^{K} \sum_{t=1}^{T_{k}}\left(G_{t}^{k}-V\left(s_{t}^{k}\right)\right)^{2}

TD(0) 收敛结果对应最大似然马尔可夫模型,TD 会为已观测到的信息建立一个最佳匹配观测数据 (st,at,rt+1,st+1)\left(s_{t}, a_{t}, r_{t+1}, s_{t+1}\right) 的 MDP 模型 S,A,P^,R^,γ\langle\mathcal{S}, \mathcal{A}, \hat{\mathcal{P}}, \hat{\mathcal{R}}, \gamma\rangle

P^s,sa=1N(s,a)k=1Kt=1TkI(stk,atk,st+1k=s,a,s)R^sa=1N(s,a)k=1Kt=1TkI(stk,atk=s,a)rtk\begin{aligned} \hat{\mathcal{P}}_{s, s^{\prime}}^{a} &=\frac{1}{N(s, a)} \sum_{k=1}^{K} \sum_{t=1}^{T_{k}} \mathcal{I}\left(s_{t}^{k}, a_{t}^{k}, s_{t+1}^{k}=s, a, s^{\prime}\right) \\ \hat{\mathcal{R}}_{s}^{a} &=\frac{1}{N(s, a)} \sum_{k=1}^{K} \sum_{t=1}^{T_{k}} \mathcal{I}\left(s_{t}^{k}, a_{t}^{k}=s, a\right) r_{t}^{k} \end{aligned}

因此,TD 能够利用马尔可夫性,在一个马尔可夫环境下会更有效;MC 不能利用马尔可夫性。

三种 RL 算法的对比

MC:一次完整经历,用实际收获更新状态预估价值

image-20210418134428513

TD:采样,经历可不完整,可用自举更新预估价值

image-20210418134448267

DP:没有采样,根据完整模型更新状态价值

image-20210418134523304

对比:

image-20210418144548170

TD(λ\lambda)

先前所介绍的 TD 算法实际上都是 TD(0) 算法,表示在当前状态下往前多看1步 Gt(1)=rt+1+γV(st+1)G_t^{(1)}=r_{t+1}+\gamma V(s_{t+1}),而 MC 的学习目标则是无穷步回报 Gt=rt+1+γrt+2+G_t=r_{t+1}+\gamma r_{t+2}+\cdots,那么能否结合二者,在 TD 学习中增加回报的计算步数?

image-20210418145317205

n-步回报

n=1(TD)Gt(1)=rt+1+γV(st+1)n=2Gt(2)=rt+1+γrt+2+γ2V(st+2)n=( MC) Gt()=rt+1+γrt+2++γt+T1rT\begin{array}{lll} n=1 & (T D) & G_{t}^{(1)}=r_{t+1}+\gamma V\left(s_{t+1}\right) \\ n=2 & & G_{t}^{(2)}=r_{t+1}+\gamma r_{t+2}+\gamma^{2} V\left(s_{t+2}\right) \\ \vdots & & \\ n=\infty & (\text { MC) } & G_{t}^{(\infty)}=r_{t+1}+\gamma r_{t+2}+\cdots+\gamma^{t+T-1} r_{T} \end{array}

定义n-步回报:

Gt(n)=rt+1+γrt+2++γn1rt+n+γnV(st+n)G_{t}^{(n)}=r_{t+1}+\gamma r_{t+2}+\cdots+\gamma^{n-1} r_{t+n}+\gamma^{n} V\left(s_{t+n}\right)

于是得到 n-步时间差分学习方法:

V(st)V(st)+α(Gt(n)V(st))V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\left(G_{t}^{(n)}-V\left(s_{t}\right)\right)

n步回报的误差上届

1 步回报和真实 VπV_{\pi} 之间的期望误差:

maxstE[Gt(1)]Vπ(st)=maxstE[rt+1+γV(st+1)]Vπ(st)=maxst[Tπ(V)](st)Vπ(st)γVVπ\begin{aligned} \max _{s_{t}}\left|\mathbb{E}\left[G_{t}^{(1)}\right]-V_{\pi}\left(s_{t}\right)\right| &=\max _{s_{t}}\left|\mathbb{E}\left[r_{t+1}+\gamma V\left(s_{t+1}\right)\right]-V_{\pi}\left(s_{t}\right)\right| \\ &=\max _{s_{t}}\left|\left[\mathcal{T}^{\pi}(V)\right]\left(s_{t}\right)-V_{\pi}\left(s_{t}\right)\right| \\ & \leq \gamma\left\|V-V_{\pi}\right\| \end{aligned}

其中 Tπ\mathcal{T}^{\pi} 是贝尔曼期望算子, Tπ(V)=Rπ+γPπV\mathcal{T}^{\pi}\left(V\right)=\mathcal{R}^{\pi}+\gamma \mathcal{P}^{\pi} V ,于是 n-步回报的期望误差

maxstE[Gt(n)]Vπ(st)=maxstE[rt+1+γrt+1+γnV(st+n)]Vπ(st)=maxstE[rt+1+γE[rt+2++γE[rt+n+γV(st+n)]]]Vπ(st)=maxstTπTπn(V)](st)Vπ(st)γnVVπ\begin{aligned} & \max _{s_{t}}\left|\mathbb{E}\left[G_{t}^{(n)}\right]-V_{\pi}\left(s_{t}\right)\right| \\ =& \max _{s_{t}}\left|\mathbb{E}\left[r_{t+1}+\gamma r_{t+1}+\ldots \gamma^{n} V\left(s_{t+n}\right)\right]-V_{\pi}\left(s_{t}\right)\right| \\ =& \max _{s_{t}}\left|\mathbb{E}\left[r_{t+1}+\gamma \mathbb{E}\left[r_{t+2}+\cdots+\gamma \mathbb{E}\left[r_{t+n}+\gamma V\left(s_{t+n}\right)\right] \ldots\right]\right]-V_{\pi}\left(s_{t}\right)\right| \\ =&\max _{s_{t}} \mid \underbrace{\mathcal{T}^{\pi} \circ \cdots \circ \mathcal{T}^{\pi}}_{n}(V)]\left(s_{t}\right)-V_{\pi}\left(s_{t}\right) \mid \\ \leq & \gamma^{n}\left\|V-V_{\pi}\right\| \end{aligned}

n-步回报对应更准确的价值估计,n 越大,估计和真实价值之间的误差上界越低,但是估计的方差会变大。为了平衡偏差和方差,通常将不同步回报进行加权,如 G12G(2)+12G(4)G\leftarrow \frac{1}{2}G^{(2)}+\frac{1}{2}G^{(4)} ,当然也可以将所有步数的回报整合到一起,这就是 TD(λ\lambda)。

λ\lambda -回报 GtλG_{t}^{\lambda} 将所有的 n-步回报 Gt(n)G_{t}^{(n)} 整合在一起, 0<λ<10<\lambda<1 ,对每项使用权重 (1λ)λn1(1-\lambda) \lambda^{n-1}

Gtλ=(1λ)n=1λn1Gt(n)G_{t}^{\lambda}=(1-\lambda) \sum_{n=1}^{\infty} \lambda^{n-1} G_{t}^{(n)}

前向更新的 TD(λ)\mathrm{TD}(\lambda) 形式

V(st)V(st)+α(GtλV(st))V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\left(G_{t}^{\lambda}-V\left(s_{t}\right)\right)

image-20210418160210918

从公式中可以看到,对于 nn 比较大的 Gt(n)G_t^{(n)},其权重会比较低,这样做的好处是既利用了长步数估计的精度,又降低了高方差的影响。

image-20210418161016662

前向 TD(λ)(\lambda)

V(st)V(st)+α(GtλV(st))V\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\left(G_{t}^{\lambda}-V\left(s_{t}\right)\right)

这样的更新计算中,为了更新价值函数向 λλ-回报逼近,需要未来时刻的观测计算 Gt(n)G^{(n)}_t,因此与 MC 一样需要完整的轨迹,只能进行离线学习。 那么,能否定义一个变量代表状态 SS 在过去被访问的信息,这样在每个新时刻,利用新观测的数据,根据这一变量对所有状态进行更新?

注:这里的离线学习举个例子就是打游戏只有每次通关后才复盘改进;而在线学习是边玩边学。

后向TD(λ)(\lambda)

image-20210418162424909

对于事件发生的结果,可以有两种解释,频率启发 Frequency heuristic:将原因归因于出现频率最高的状态;就近启发 Recency heuristic:将原因归因于较近的几次状态。于是可以给每个状态引入一个数值:资格迹,它结合了两种启发。

资格迹:对有限 MDP 问题,会为每个状态定义一个资格迹 E0(s)=0,sSE_{0}(s)=0, \forall s \in \mathcal{S},每个时刻对所有的资格迹哀减 γλ\gamma \lambda ,同时对观测到的状态的资格迹 加 1

Et(S)={γλEt1(S) if SstγλEt1(S)+1 if S=st=γλEt1(S)+I(S=sst)\begin{aligned} E_{t}(S) &=\left\{\begin{array}{ll} \gamma \lambda E_{t-1}(S) & \text { if } S \neq s_{t} \\ \gamma \lambda E_{t-1}(S)+1 & \text { if } S=s_{t} \end{array}\right.\\ &=\gamma \lambda E_{t-1}(S)+\mathcal{I}\left(S=s s_{t}\right) \end{aligned}

资格迹反映了被观测的次数和频率。

image-20210418163303700

该图横坐标是时间,横坐标下有竖线的位置代表当前进入了状态 ss,纵坐标是资格迹 EE ,资格迹代表了出现一次强化信号时,需要对每个状态的更新程度,这里强化信号指的是每个时刻的 1 步 TD 误差:

δt=rt+1+γVπ(st+1)V(st)\delta_t=r_{t+1}+\gamma V_{\pi}\left(s_{t+1}\right)-V(s_t)

所有状态的价值变化量等于 TD 误差乘上相应的资格迹:

V(st)V(st)+αδtEt(s),sSV\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha\delta_tE_t(s),\quad \forall s\in S

后向 TD(λλ) 会在每个时刻进行一次上述的更新过程。

image-20210418164158655

λ=0\lambda=0 时, TD(λ)\operatorname{TD}(\lambda) 变成

Et(s)={0 if sst1 if s=stΔVt(s)={0 if sstαδt1 if s=st\begin{array}{c} E_{t}(s)=\left\{\begin{array}{ll} 0 & \text { if } s \neq s_{t} \\ 1 & \text { if } s=s_{t} \end{array}\right. \\ \Delta V_{t}(s)=\left\{\begin{array}{ll} 0 & \text { if } s \neq s_{t} \\ \alpha \cdot \delta_{t} \cdot 1 & \text { if } s=s_{t} \end{array}\right. \end{array}

等同于前面介绍的 TD(0) 方法

V(st)V(st)+αδtV\left(s_{t}\right) \leftarrow V\left(s_{t}\right)+\alpha \delta_{t}

考虑在一次轨迹中 SSkk 时刻被唯一访问一次,λ=1\lambda=1 下该状态的资格迹 TD(1) 会在被访问之后随时间衰减:

Et(S)=γEt1(S)+I(S=st)={0 if t<kγtk if tk\begin{aligned} E_{t}(S) &=\gamma E_{t-1}(S)+\mathcal{I}\left(S=s_{t}\right) \\ &=\left\{\begin{array}{ll} 0 & \text { if } t<k \\ \gamma^{t-k} & \text { if } t \geq k \end{array}\right. \end{aligned}

于是 TD(1) 在整条轨迹上对 ss 的累计更新量等于

t=0TαδtEt(s)=αt=kTγtkδt=δk+γδk+1+γ2δk+2++γTkδT\begin{aligned} \sum_{t=0}^{T} \alpha \delta_{t} E_{t}(s) &=\alpha \sum_{t=k}^{T} \gamma^{t-k} \delta_{t} \\ &=\delta_{k}+\gamma \delta_{k+1}+\gamma^{2} \delta_{k+2}+\cdots+\gamma^{T-k} \delta_{T} \end{aligned}

假定 TD(1) 只在轨迹结束后对 VV 更新(离线学习) ,则累积量中的 VV 保持不变:

δk+γδk+1+γ2δk+2++γTkδT=rk+1+γV(sk+1)V(sk)+γrk+2+γ2V(sk+2)γV(sk+1)+γ2rk+3+γ3V(sk+3)γ2V(sk+2)+γTkrT+1γTkV(ST)=rk+1+γrk+2+γ2rk+3++γTkrT+1V(Sk)=GkV(sk)\begin{aligned} & \delta_{k}+\gamma \delta_{k+1}+\gamma^{2} \delta_{k+2}+\cdots+\gamma^{T-k} \delta_{T} \\ =& r_{k+1}+\gamma V\left(s_{k+1}\right)-V\left(s_{k}\right) \\ &+\gamma r_{k+2}+\gamma^{2} V\left(s_{k+2}\right)-\gamma V\left(s_{k+1}\right) \\ &+\gamma^{2} r_{k+3}+\gamma^{3} V\left(s_{k+3}\right)-\gamma^{2} V\left(s_{k+2}\right) \\ & \vdots \\ &+\gamma^{T-k} r_{T+1}-\gamma^{T-k} V\left(S_{T}\right) \\ =& r_{k+1}+\gamma r_{k+2}+\gamma^{2} r_{k+3}+\cdots+\gamma^{T-k} r_{T+1}-V\left(S_{k}\right) \\ =& G_{k}-V\left(s_{k}\right) \end{aligned}

因此离线 TD(1) 方法在同一条轨迹对某一状态的累计更新量等于对该状态的 MC 更新:

t=0TαδtEt(s)=α(GkV(sk))\sum_{t=0}^{T} \alpha \delta_{t} E_{t}(s)=\alpha(G_k-V(s_k))

不过实际中往往使用在线 TD(1) ,因为在线更新效率更高,无需完整轨迹。

Q.E.D.


我是星,利剑开刃寒光锋芒的银星,绝不消隐