【强化学习】策略梯度(Policy Gradient,PG)算法
在强化学习中,Policy Gradient(策略梯度)算法是一类通过优化策略函数直接来求解最优策略的方法。与基于值函数(例如Q学习和SARSA)的方法不同,策略梯度方法直接对策略函数进行建模,目标是通过梯度下降的方法来最大化预期的累积奖励(即期望回报)。这些算法主要适用于连续的动作空间或高维问题,能够在复杂的环境中取得较好的性能。
📢本篇文章是博主强化学习(RL)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在👉强化学习专栏:
【强化学习】- 【单智能体强化学习】(5)---《策略梯度(Policy Gradient,PG)算法》
策略梯度(Policy Gradient,PG)算法
目录
一、概述
在强化学习中,Policy Gradient(策略梯度)算法是一类通过优化策略函数直接来求解最优策略的方法。与基于值函数(例如Q学习和SARSA)的方法不同,策略梯度方法直接对策略函数进行建模,目标是通过梯度下降的方法来最大化预期的累积奖励(即期望回报)。这些算法主要适用于连续的动作空间或高维问题,能够在复杂的环境中取得较好的性能。
二、核心概念
-
策略(Policy):策略是一个从状态空间到动作空间的映射。我们可以表示策略为 ,表示在状态 下采取动作 的概率。
-
回报(Return):从某一时刻起,智能体在环境中继续执行策略时所能获得的累计奖励,通常我们用 来表示从时间 开始的回报。
-
梯度(Gradient):在PG算法中,我们通过计算策略函数的梯度,来调整策略,使得在某个状态下选取最优的动作。
三、PG算法的基本思想
PG算法的核心思想是通过策略梯度来优化策略函数。其目标是最大化累积奖励的期望,即:
其中,是目标函数,表示参数化策略的期望回报,是由参数 定义的策略。为了优化这个目标函数,我们需要通过梯度上升法来调整参数。
四、策略梯度公式推导
为了最大化目标函数 ,我们首先需要计算目标函数对策略参数的梯度。根据期望的定义,我们有:
其中,是在策略 下,智能体在状态 选择动作后的状态-动作值函数。为了计算梯度,我们需要用到交换微分与期望的操作:
我们可以分开对策略函数和价值函数求梯度:
通过这个公式,我们可以得到策略参数 的更新方向,即梯度。然后,我们使用梯度上升法来调整策略参数:
其中,是学习率。
[Python] Policy Gradient算法实现
实现了一个基于 PyTorch 的强化学习算法 Policy Gradient算法,主要用于训练一个在 CartPole-v1 环境中平衡杆的智能体。
🔥若是下面代码复现困难或者有问题,欢迎评论区留言;需要以整个项目形式的代码,请在评论区留下您的邮箱📌,以便于及时分享给您(私信难以及时回复)。
"""《 Policy Gradient算法实现》
时间:2024.12
环境:CartPole-v1
作者:不去幼儿园
"""
import argparse # 导入命令行参数解析库
import gym # 导入OpenAI Gym库,用于创建强化学习环境
import numpy as np # 导入numpy库,用于处理数值计算
from itertools import count # 导入count函数,用于生成整数序列
import torch # 导入PyTorch库
import torch.nn as nn # 导入PyTorch的神经网络模块
import torch.nn.functional as F # 导入PyTorch的神经网络功能函数模块
import torch.optim as optim # 导入PyTorch的优化器模块
from torch.distributions import Categorical # 导入PyTorch中类别分布的模块,用于离散动作选择
参数解析部分
parser = argparse.ArgumentParser(description='PyTorch REINFORCE example') # 创建一个ArgumentParser对象,描述REINFORCE算法示例
parser.add_argument('--gamma', type=float, default=0.99, metavar='G', # 添加一个命令行参数:gamma,表示折扣因子(默认0.99)
help='discount factor (default: 0.99)')
parser.add_argument('--seed', type=int, default=543, metavar='N', # 添加一个命令行参数:seed,用于设置随机种子(默认543)
help='random seed (default: 543)')
parser.add_argument('--render', action='store_true', # 添加一个命令行参数:render,用于决定是否渲染环境
help='render the environment')
parser.add_argument('--log-interval', type=int, default=10, metavar='N', # 添加一个命令行参数:log-interval,表示训练状态日志的输出间隔(默认10)
help='interval between training status logs (default: 10)')
args = parser.parse_args() # 解析命令行参数并将结果保存到args对象中
环境初始化与随机种子设置
env = gym.make('CartPole-v1') # 创建一个CartPole-v1环境,用于训练
torch.manual_seed(args.seed) # 设置PyTorch的随机种子,以确保可复现性
Policy网络类定义
class Policy(nn.Module): # 定义一个名为Policy的类,继承自nn.Module,这是一个神经网络模型
def __init__(self): # 初始化方法
super(Policy, self).__init__() # 调用父类构造方法
self.affine1 = nn.Linear(4, 128) # 第一层全连接层,将输入维度4映射到128维
self.affine2 = nn.Linear(128, 2) # 第二层全连接层,将输入维度128映射到2维(表示动作空间的大小)
self.saved_log_probs = [] # 用于保存每一时刻的动作概率的对数
self.rewards = [] # 用于保存每一时刻的奖励
def forward(self, x): # 定义前向传播方法
x = F.relu(self.affine1(x)) # 经过第一层后使用ReLU激活函数
action_scores = self.affine2(x) # 通过第二层得到每个动作的得分
return F.softmax(action_scores, dim=1) # 使用softmax函数计算动作的概率分布
Policy对象和优化器初始化
policy = Policy() # 创建Policy类的实例
optimizer = optim.Adam(policy.parameters(), lr=1e-2) # 使用Adam优化器优化Policy模型,学习率为0.01
eps = np.finfo(np.float32).eps.item() # 获取float32类型的最小正数,用于避免除零错误
选择动作的函数
def select_action(state): # 定义选择动作的函数
state = torch.from_numpy(state).float().unsqueeze(0) # 将输入的状态从numpy数组转换为PyTorch张量,并增加一个维度
probs = policy(state) # 通过Policy网络计算每个动作的概率分布
m = Categorical(probs) # 用Categorical分布定义一个概率分布对象
action = m.sample() # 从该分布中采样一个动作
policy.saved_log_probs.append(m.log_prob(action)) # 保存该动作的对数概率
return action.item() # 返回动作的值
结束当前回合的函数
def finish_episode(): # 定义结束一个回合的函数
R = 0 # 初始化回报R为0
policy_loss = [] # 初始化用于保存每个动作损失的列表
rewards = [] # 初始化保存所有回报的列表
for r in policy.rewards[::-1]: # 从后往前遍历奖励列表
R = r + args.gamma * R # 计算当前时刻的回报(折扣奖励)
rewards.insert(0, R) # 将回报插入到列表的开头
rewards = torch.tensor(rewards) # 将奖励转换为PyTorch张量
rewards = (rewards - rewards.mean()) / (rewards.std() + eps) # 对奖励进行标准化
for log_prob, reward in zip(policy.saved_log_probs, rewards): # 遍历每个动作的对数概率和奖励
policy_loss.append(-log_prob * reward) # 计算每个动作的损失(负对数概率与标准化奖励的乘积)
optimizer.zero_grad() # 清除梯度
policy_loss = torch.cat(policy_loss).sum() # 计算所有动作的总损失
policy_loss.backward() # 反向传播计算梯度
optimizer.step() # 执行一步优化
del policy.rewards[:] # 清空保存的奖励列表
del policy.saved_log_probs[:] # 清空保存的对数概率列表
主要训练循环
def main(): # 定义主函数
running_reward = 10 # 初始化运行奖励
for i_episode in count(1): # 从1开始无限循环
state, _ = env.reset() # 重置环境并获取初始状态
for t in range(10000): # 限制每个回合的最大步数为10000
action = select_action(state) # 选择动作
state, reward, done, _, _ = env.step(action) # 执行动作并获取下一个状态、奖励等信息
if args.render: # 如果设置了渲染选项
env.render() # 渲染环境
policy.rewards.append(reward) # 保存奖励
if done: # 如果回合结束
break # 跳出循环
running_reward = running_reward * 0.99 + t * 0.01 # 更新运行奖励(使用指数加权移动平均)
finish_episode() # 结束当前回合并进行学习
if i_episode % args.log_interval == 0: # 每log_interval步输出一次日志
print('Episode {}\tLast length: {:5d}\tAverage length: {:.2f}'.format(
i_episode, t, running_reward)) # 打印当前回合、回合长度和平均长度
if running_reward > env.spec.reward_threshold: # 如果运行奖励超过环境的奖励阈值
print("Solved! Running reward is now {} and "
"the last episode runs to {} time steps!".format(running_reward, t)) # 打印成功信息
break # 结束训练
程序入口
if __name__ == '__main__': # 如果是直接运行该文件(而不是导入)
main() # 调用main函数,开始训练
[Results] 运行结果
[Content]主要内容:
-
环境初始化:使用 OpenAI Gym 库中的
CartPole-v1
环境。智能体的目标是通过选择合适的动作来保持杆子平衡。 -
策略网络:
- 采用一个简单的两层全连接神经网络 (
Policy
类) 来表示策略。 - 输入是环境的状态(
4
维),输出是两个动作的概率分布(2
维)。 - 使用 ReLU 激活函数对第一层的输出进行非线性转换,并用 Softmax 计算每个动作的概率。
- 采用一个简单的两层全连接神经网络 (
-
选择动作:通过神经网络预测的动作概率,使用 Categorical 分布 来采样动作,并将该动作的对数概率保存下来用于后续更新。
-
回报和奖励:
- 在每个回合结束时,通过遍历奖励列表来计算每个时间步的累积回报(折扣奖励)。
- 将奖励进行标准化,以帮助训练过程中梯度的稳定性。
-
优化器和更新:使用 Adam 优化器来更新策略网络的权重。每次回合结束时,计算每个时间步的损失,并使用反向传播来优化模型。
-
训练循环:
- 在每一回合中,智能体从环境中获得当前状态,选择动作,执行动作并获取奖励,直到回合结束。
- 每隔一定的训练回合(
log-interval
),打印出当前回合的奖励情况。 - 一旦平均奖励超过设定的阈值,训练结束并报告完成。
[Notice] 注意事项:
-
随机性和种子:
在环境初始化时,设置了随机种子(args.seed
)。这确保了训练过程是可复现的。不同的种子可能会导致不同的训练结果,因此在实验中使用相同的种子可以帮助进行对比分析。 -
奖励标准化:
对奖励进行了标准化(rewards - rewards.mean()) / (rewards.std() + eps)
,这是为了避免奖励的尺度差异对学习过程造成影响。eps
防止除零错误。 -
学习率选择:
学习率 (lr=1e-2
) 设置为0.01,这可能需要根据训练的表现进行调整。过大的学习率可能导致训练不稳定,过小则可能导致训练进展缓慢。 -
回报折扣因子:
折扣因子 (gamma=0.99
) 用来权衡当前奖励与未来奖励的关系。值越大,智能体更倾向于关注长期回报;值越小,则更注重即时奖励。 -
环境渲染:
通过--render
命令行参数可以开启环境渲染,这对于观察训练过程很有帮助。但是开启渲染会导致训练速度下降,因此一般在调试或演示时才开启。 -
训练中的收敛:
由于REINFORCE算法是基于蒙特卡罗方法的,它依赖于完整的回合数据来估计梯度,因此收敛速度可能较慢。为了提高收敛速度,可以考虑使用 基准(Baseline) 或 优势函数(Advantage) 进行改进,或者使用 PPO 等更高效的强化学习算法。 -
性能问题:
由于每个回合都需要存储动作的对数概率以及奖励,这可能导致内存消耗较大。可以通过限制回合的最大步数或者使用更加高效的数据存储策略来减小内存负担。 -
终止条件:
训练会在达到环境的奖励阈值(env.spec.reward_threshold
)时终止,这是判断智能体是否学会平衡杆的一个标准。环境的reward_threshold
根据具体环境和任务而不同。 -
代码健壮性:
代码中使用了env.reset()
返回的状态,实际上在 Gym v0.26 及之后版本中,reset()
方法返回一个元组(state, info)
,但代码没有处理info
。为了兼容不同版本的 Gym,可以适配这个变化。
# 环境配置
Python 3.11.5
torch 2.1.0
torchvision 0.16.0
gym 0.26.2
五、优缺点
优点:
- 直接优化策略:PG算法直接对策略进行建模,不需要显式地计算值函数。
- 适用于连续动作空间:与Q-learning等离散动作空间的算法相比,PG算法适合处理连续动作空间的强化学习问题。
- 可扩展性强:PG算法能够处理高维状态空间和复杂问题。
缺点:
- 高方差:REINFORCE等算法中,回报计算的高方差可能导致训练不稳定。
- 计算开销大:需要对每一条轨迹进行采样计算,并多次更新策略参数。
- 局部最优:策略梯度方法容易陷入局部最优解。
六、总结
策略梯度方法通过优化策略函数来提高累积回报,其核心思想是直接优化策略而非间接估计值函数。REINFORCE算法是最基础的策略梯度方法,但由于其高方差问题,通常需要结合一些技术(如基线、经验回放)来改进性能。虽然策略梯度方法具有很好的理论支持,并且在很多复杂的强化学习任务中能够取得较好的结果,但也有一定的计算开销和稳定性问题。
更多强化学习文章,请前往:【强化学习(RL)】专栏
博客都是给自己看的笔记,如有误导深表抱歉。文章若有不当和不正确之处,还望理解与指出。由于部分文字、图片等来源于互联网,无法核实真实出处,如涉及相关争议,请联系博主删除。如有错误、疑问和侵权,欢迎评论留言联系作者,或者添加VX:Rainbook_2,联系作者。✨
更多推荐
所有评论(0)