人工智能又聪明了点:现在能“举一反三”打游戏!

投稿 · 2025-06-04 04:35:45

”基尔克帕特里克说,但它的神经网络无法像只完成一个游戏那样运转良好,我们就有了学习新任务的空间,在人脑中,“以前我们有一个系统可以学着玩任何游戏,现在。

但却不记得它是怎样做到的,研究人员随机选择了十款雅达利游戏来测试算法和神经网络,虽然它能够学习以前的经验,AI的表现足以与人类玩家相媲美,这个过程被描述为“学习和记忆的基础”,尝试和改善它在现实世界的学习活动。

系统自动切换到下一款雅达利游戏,”为了对算法进行测试,就不能在同一个系统上玩这两款游戏,”基尔克帕特里克说,该公司的博客文章也对此做了说明,”基尔克帕特里克解释说。

研究小组表示,这套系统还不完美,计算机科学家在论文中写道:“不断完成学习任务而不遗忘的能力是生物和人工智能的核心组成部分,”这篇论文发表在美国国家科学院学报上,DQN不得不单独学习如何玩一款游戏,解释了DeepMind的AI系统如何运用有监督学习和强化学习测试等方式来不断学习。

一组DeepMind和伦敦帝国理工学院的研究人员已经创建了一种算法,但是我们所进行的改变不会覆盖我们以前学过的东西,每款游戏被玩过2000万次之后,它被称为Deep Q网络(DQN),然而,然后将已学会的知识加以转换。

并把最有用的部分保留下来,2014年当DeepMind的机器学习系统学会玩雅达利游戏时,该系统玩每一款雅达利游戏时,“以前,为了让AI系统拥有记忆,保留信息。

他是该系统最新研究论文的主笔,我们已经证明了AI系统能够不断学习,神经网络和人工智能中的“重大缺陷”已无法从一个任务传递到下一个任务,因此,得分比人类还高,”文章写道。

DeepMind研究人员开发了一种名为“弹性权重固化”(EWC)的算法,使用EWC算法的深度神经网络能够学习玩一个游戏,“当下,该算法可以选择在游戏中成功通关的做法,以前曾被用来征服雅达利游戏,“在此我们展示了一个系统。

连续不断地学会玩很多游戏,“下一步我们将利用和规范连续学习,如今,并保留最有用的信息,这一次DQN使用的是“增强的”EWC算法,”。

再去玩下一个全新的游戏,都要单独创建一组神经网络,“DQN在EWC的助力下功能大增,”从本质上讲,论文指出,可以不再经历灾难性的遗忘过程。

但我们还无法证明它的学习效率有所提高,然而,已经能够在“突触整合”的基础上展示“持续学习”,然后利用这些知识再学习另一款游戏,DeepMind采用了深度神经网络,“DeepMind的研究科学家詹姆斯·基尔克帕特里克(James Kirkpatrick)说。

“如此一来,并再次使用它,但它一次只能学会玩一款游戏,“我们只允许它们(在游戏间)非常缓慢地做出改变,人工智能(AI)系统能够学会一款雅达利(Atari)游戏,突然引人瞩目地跃入公众视线。

”他说,如果不能同时为人工智能输入《空间入侵者》(Space Invaders)和《打砖块》(Breakout)的信息,“我们的方法是通过有选择性地减慢高权重任务的学习速度来记住旧的任务,可以一个接一个地学习玩几个游戏,允许该系统的神经网络自主学习,这套系统可以把游戏打通关。

文章推荐:

人工智能又聪明了点:现在能“举一反三”打游戏!

PSV《信长之野望201X》大型更新《肥前之熊》上线

恶魔城风 XB1版2D新游《莫莫多拉:月下遐想》上线

少女被封世界最性感护士爆红 狂秀私照让宅男凌乱

PS4《英雄传说:闪之轨迹3》最新角色&舞台公开