强化学习算法之策略迭代动态规划算法——以悬崖漫步环境(CliffWalking)为例
创始人
2024-12-01 10:05:15
import copy class CliffWalkingEnv:     def __init__(self,ncol=12,nrow=4):         self.ncol=ncol#定义网格世界的列         self.nrow=nrow#定义网格世界的行         self.P=self.createP()#转移矩阵P[state][action]=[(p,next_state,reward,done)]包含下一个状态和奖励     def createP(self):         P=[[[]for i in range(4)]for j in range(self.ncol*self.nrow)]#初始化         change=[[0,-1],[0,1],[-1,0],[1,0]]#4种动作,change[0]:上;change[0]:上;change[0]:上;change[0]:上。[列变化,行变化];坐标系原点(0,0)         for i in range(self.nrow):             for j in range(self.ncol):                 for a in range(len(change)):                     if i==self.nrow-1 and j>0:#如果在悬崖或者目标状态,任何动作奖励都为0                         P[i*self.ncol+j][a]=[(1,i*self.ncol+j,0,True)]                         continue                     next_x=min(self.ncol-1,max(0,j+change[a][0]))                     next_y=min(self.nrow-1,max(0,i+change[a][1]))                     next_state=next_y*self.ncol+next_x                     reward=-1                     done=False                     if next_y==self.ncol-1 and next_x>0:#如果下一个位置在悬崖或者终点,done=True                         done=True                         if next_x==self.ncol:#如果在悬崖,奖励为-100                             reward=-100                     P[i*self.ncol+j][a]=[(1,next_state,reward,done)]         return P class PolicyIteration:     """ 策略迭代算法 """     def __init__(self,env,theta,gamma):         self.env=env         self.theta=theta#策略评估收敛阈值         self.gamma=gamma#折扣因子         self.v=[0]*(self.env.ncol*self.env.nrow)#初始化价值为0         self.pi=[[0.25,0.25,0.25,0.25]for i in range(self.env.ncol*self.env.nrow)]     def policy_evaluation(self):         count=1         while 1:             max_diff=0             new_v=[0]*self.env.ncol*self.env.nrow             for s in range(self.env.ncol*self.env.nrow):                 Qsa_list=[]#开始计算状态s下面的所有Q(s,a)价值                 for a in range(4):                     Qsa=0                     for res in self.env.P[s][a]:                         p,next_state,reward,done=res                         Qsa+=p*(reward+self.gamma*self.v[next_state]*(1-done))#本环境特殊,奖励和下一个状态有关,所以需要和状态转移概率相乘                     Qsa_list.append(self.pi[s][a]*Qsa)                 new_v[s]=sum(Qsa_list)#状态价值函数与动作价值函数之间的关系                 max_diff=max(max_diff,abs(new_v[s]-self.v[s]))             self.v=new_v             if max_diff0 else 'o'                 print(pi_str,end=' ')         print()#换行  env=CliffWalkingEnv() action_meaning=['↑','↓','←','→'] theta=0.001 gamma=0.9 agent=PolicyIteration(env,theta,gamma) agent.policy_iteration() print_agent(agent,action_meaning,list(range(37,47)),[47]) """ 经过5次策略评估和策略提升后,策略收敛了,用贝尔曼最优方程检验每一个状态价值,发现最终输出策略确为最优策略。"""

相关内容

热门资讯

四部门印发行动方案,促进人工智... 近日,国家能源局会同国家发展改革委、工业和信息化部、国家数据局印发《关于促进人工智能与能源双向赋能的...
瞄准8时13分!一起看发射场准... 我国将于5月11日8时13分发射天舟十号货运飞船。目前,长征七号遥十一运载火箭已完成推进剂加注。 距...
天舟十号货运飞船点火发射 今天上午,搭载天舟十号货运飞船的长征七号遥十一运载火箭,在我国文昌航天发射场点火发射。
原创 微... 前段时间 iOS 微信发布了 8.0.73 正式版,安卓微信发布了 8.0.72 测试版,这次的更新...
任正非罕见出镜:华为芯片基础技... 感谢IT之家网友 的线索投递! 5 月 10 日消息,在 5 月 8 日播出的《新闻联播》节目中,...