中国有哪些传统文化
深度强化学习中的好奇心
本文是AI研究所编写的一个技术博客。最初的标题是《深层强化中的好奇心》。
本文是AI研究所编写的一个技术博客。最初的标题是:
深度强化学习的好奇心
作者|迈克尔·克莱尔
翻译|缩写2018
校对|酱梨涂饰|菠萝女孩
链接到原始文本:
Http://towardsdata..com/holio.-in-.-.ment-.-.-.-network-.llation-747b322e2403
深度强化学习中的好奇心
早期密集学习的困难任务之一,Montezuma的复仇,在探索随机网络蒸馏方面取得了重大突破(来源:Parker兄弟博客)。
Atari游戏是深层强化学习(RL)算法的一个流行的基准任务。Atari很好地平衡了简单性和复杂性:一些游戏(如Pong)是如此简单,以至于它们可以通过基本算法(如一般策略梯度)来解决,而其他游戏则足够复杂以至于可以击败甚至最先进的算法。
在最简单和最复杂的游戏之间的一系列有用的任务已经成为许多深入加强学习研究论文的核心。
来自OpenAI博客。
前者“未解决”的阿塔里游戏,蒙提祖马的复仇,最近已经解决了一个算法(在某种程度上),可以在得分上超过人类表现。研究人员可以鼓励代理人在1级探索不同的房间,这是赢得游戏积分的好方法。
通过好奇心探索
人类在玩冒险游戏时有一种内在的探索欲望,比如蒙提祖玛的复仇。游戏设计者构建这样的游戏来鼓励这种行为,通常需要玩家在继续游戏之前进行探索。这就是为什么冒险游戏很有趣。(问任何喜欢玩天空游戏的人。)
像Montezuma的《复仇》或《天空》这样的冒险游戏充分利用了玩家探索的自然欲望,使得探索成为游戏任务的关键部分。
深度强化学习算法执行“探索”的典型方法是通过随机策略:从神经网络提供的动作似然分布中随机采样动作。因此,特别是在早期阶段(当策略没有时间收敛时),它是随机行动的明显选择。
这种方法在某些情况下是有效的。例如,Pong的解决方案是随机旋转桨并观察结果。幸运的是,球偏转可以启动优化。
在像蒙特祖马的复仇游戏中,这种方法是不可行的。想象一下,从游戏的开始,化身随机地左右移动,随机地跳跃。结果,化身掉进熔岩中或直接进入敌人而没有获得点数。没有积分或奖励,算法无法得到优化的信号。
那你会随便甩一甩吗?祝你好运。
好奇
重点放在寻找更好的探索方法上。基于好奇心的探索可以看作是激发人类玩家好奇心的一种尝试。
但是,我们如何创建一个好奇的代理呢?
有很多方法可以实现这个想法。其中之一,甚至使用下一个状态预测,由于其简单性和可伸缩性而很有趣。
其基本思想是同时培养独立的预测模型和策略模型。预测模型输入所观测到的当前状态和所选择的动作,并对下一次观测进行预测。
为了探索足够的轨迹,我们假设损失很小(因为我们通过监督学习不断开发预测模型);对于探索不足的轨迹,我们假设损失很大。
那么,我们能做的就是创建一个新的奖励函数(称为“内在奖励”),它提供与预测模型的损失成比例的奖励。因此,当探索新的轨迹时,代理接收到强烈的奖励信号。
(a)一级学习探索(b)二级快速探索
使用马里奥模拟器任务(来源)中的下一个预测,学习探索从第一级的好奇心转移到第二级的快速探索。
这项技术在超级马里奥模拟器中产生了一些令人鼓舞的结果。
拖延症代理人:电视问题
这项技术并不完美。一个已知的问题是代理被环境中的随机或噪声元素所吸引。这种时钟情况有时被称为“白噪声”问题或“电视问题”;也称为“拖延”。
为了证明这种效果,设想一个代理人通过观察他所看到的像素来学习在迷宫中导航。
下一状态预测引起代理人学习成功导航迷宫的好奇心。
代理人很好地完成了任务;他开始寻找迷宫中未被探索的部分,因为他有能力在探险丰富的地区做出好的预测(或者换句话说,他不能在未开发地区做出好的预测)。
现在在迷宫的墙上放一个“电视”,快速连续地显示随机选择的图像。由于图像的随机来源,代理不能准确预测接下来会出现什么图像。该预测模型将产生高损耗,从而为代理商提供高“内在”回报。最终的结果是,特工们倾向于停止看电视,而不是继续探索迷宫。
在环境(源)中,当代理人面对电视或随机噪声源时,下一个状态预测引起代理人的好奇心,最终导致“拖延”。
为了避免延误,采用随机网络蒸馏。
OpenAI的一些优秀人员最近发表了一篇论文,提出了噪声电视问题的解决方案,探讨了随机网络蒸馏(RND)。
这里的新思想是将类似的技术应用到下一个状态预测方法,但是消除对先前状态的依赖。
下一状态预测相对于RND(源)的概述。
RND并不预测下一个状态,而是观察下一个状态并试图预测下一个状态。这是一个非常微不足道的预测,不是吗?
RND随机网络的目的是采用这种小的预测任务,并将其转化为硬预测任务。
使用随机网络
这是一个聪明但违反直觉的解决方案。
其思想是我们使用随机初始化神经网络将观测值映射到潜在的观测向量。函数本身的输出并不重要;重要的是,我们有一些未知的确定性函数(随机初始化的神经网络),以某种方式转换观测值。
因此,我们的预测模型的任务不是预测下一个状态,而是预测给定观测状态的未知随机模型的输出。我们训练该模型使用随机网络输出标签。
当代理处于熟悉的状态时,预测模型应该能够很好地预测随机网络的期望输出。当智能体对状态不熟悉时,预测模型会对随机网络的输出做出较差的预测。
通过这种方式,我们可以定义一个内在的奖励函数,它再次与预测模型的损失成比例。
内部报酬计算的概念概述。只使用下一个观察状态。
这可以解释为“新奇性检测”方案,其中当进行新的观测或不熟悉的观测时,预测模型具有较高的计算损失。
作者使用MNIST作为这个概念的证明。在本实验中,他们通过随机初始化神经网络提供MNIST样字符。然后,在给定的输入条件下,它们训练并行网络来预测随机网络的输入。如预期,当目标类的训练样本数量增加时,它们将看到目标类被并行网络丢失。
数据2:MNIST上的新奇性检测:预测器网络模拟随机初始化的目标网络。训练数据包括不同比例的图像和目标类别与“0”类别。每个曲线都表示MSE测试显示的目标类的训练用例的数量(对数)。
论文对MNIST概念进行了验证。
这样,当代理看到随机噪声源时,它不会被卡住。它不需要试图预测屏幕上下一个不可预测的帧,只需要知道这些帧是如何通过随机网络转换的。
探寻蒙太祖玛的复仇
由于解决方法不佳,以往的状态预测的好奇机制并不能解决蒙台梭玛的复仇问题,但RND似乎已经克服了这些问题。
好奇心驱使的代理人探索房间,学习收集钥匙,这样他们就可以打开新房间。
尽管取得了这样的成功,但是代理仅“偶尔”通过了一级。这是因为通过最后一道门来完成检查点,需要严格管理密钥的使用。需要内部状态模型(如LSTM)来克服这一障碍。
因此,虽然RND已经允许代理人在得分上超过一般人的表现,但是在掌握游戏之前还有很长的路要走。
这是关于深度强化学习算法的实验的一系列文章的一部分。查看本系列以前的一些帖子:
理解演进的战略梯度。
感谢卢多维奇·本尼斯坦特。
要继续查看本文的链接和参考资料吗?
长时间点击链接打开或点击底部[好奇心在深度强化学习]:
Http://ai.yanxishe.com/page/Text./1363
AI协会每天更新精彩内容,观看更多精彩内容:雷锋网、雷锋网和雷锋网。
五大CNN架构
深度强化学习中的好奇心
使用Pytorch进行深度学习(第一部分)手柄:使用PyTorch实现图像分类器(第二部分)
等待您翻译:
如何为初学者聚类混沌数据以使用Keras进行迁移学习增强学习:对于情绪行为系统,如果你想学习数据科学,这七个资源不能错过
当前文章:http://www.caihongku.com/bk3t922n/478028-335375-70002.html
发布时间:00:55:30
广州设计公司 246天天好彩玄机资料 二四六天天好彩玄机图二四六天天好彩每期文字资料大全 246天天好彩玄机资料 二四六免费玄机图 二四六天天好彩玄机图二四六天天好彩每期文字资料大全 246天天好彩玄机资料 二四六天天好彩玄机图二四六天天好彩每期文字资料大全 二四六图片玄机 二四六天天好彩玄机图 二四六图片玄机
{相关文章}
在柏林铁路损毁地点附近发现了“伊斯兰国家”旗帜。
中国防部官网_世上无难事的下一句网新网12月26日电据外媒报道,德国警方12月25日说,他们在柏林铁路上疑似袭击地点附近发现了一个极端组织伊斯兰国的国旗。警方说,调查人员正在调查袭击者是否有任何政治动机。
&n辣妹网_企业文化学习心得网基金162209_性教育网站网bsp; 据报道40尺集装箱_遏制电压网,目前尚不清楚在铁路袭击地点附近发现的这面旗子是收烟酒_欧标木托盘网否是被摧毁铁路上方架空接触线的同一群人留下的。
&nbs西北旺二手房_反担保措施网p; 警方说:“自从调查开始以来,已经发现了几份文件。”此外,在23日的火车轨道上还发现一根断线和损坏的架空接触线。
警方说,德国铁路,列车的运营商,通知联邦警察的事件和地方铁路运输服务暂时暂停。