加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

谷歌发布颠覆性研究:不训练不调参,AI自动构建超强网络

发布时间:2019-06-13 20:08:50 所属栏目:移动互联 来源:栗子 晓查
导读:本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 机器学习全靠调参?这个思路已经过时了。 谷歌大脑团队发布了一项新研究: 只靠神经网络架构搜索出的网络,不训练,不调参,就能直接执行任务。 这样的网络叫做WANN,权重不可知神经网
副标题[/!--empirenews.page--]

谷歌发布颠覆性研究:不训练不调参,AI自动构建超强网络

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

机器学习全靠调参?这个思路已经过时了。

谷歌大脑团队发布了一项新研究:

只靠神经网络架构搜索出的网络,不训练,不调参,就能直接执行任务。

这样的网络叫做WANN,权重不可知神经网络。

它在MNIST数字分类任务上,未经训练和权重调整,就达到了92%的准确率,和训练后的线性分类器表现相当。

除了监督学习,WANN还能胜任许多强化学习任务。

团队成员之一的大佬David Ha,把成果发上了推特,已经获得了1300多赞:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

那么,先来看看效果吧。

效果

谷歌大脑用WANN处理了3种强化学习任务。

(给每一组神经元,共享同一个权重。)

第一项任务,Cart-Pole Swing-Up。

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

这是经典的控制任务,一条滑轨,一台小车,车上一根杆子。

小车在滑轨的范围里跑,要把杆子从自然下垂的状态摇上来,保持在直立的位置不掉下来。

(这个任务比单纯的Cart-Pole要难一些:

Cart-Pole杆子的初始位置就是向上直立,不需要小车把它摇上来,只要保持就可以。)

难度体现在,没有办法用线性控制器 (Linear Controller) 来解决。每一个时间步的奖励,都是基于小车到滑轨一头的距离,以及杆子摆动的角度。

WANN的最佳网络 (Champion Network) 长这样:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

它在没有训练的状态下,已经表现优异:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

表现最好的共享权重,给了团队十分满意的结果:只用几次摆动便达到了平衡状态。

第二项任务,Bipedal Waker-v2。

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

一只两足“生物”,要在随机生成的道路上往前走,越过凸起,跨过陷坑。奖励多少,就看它从出发到挂掉走了多长的路,以及电机扭矩的成本 (为了鼓励高效运动) 。

每条腿的运动,都是由一个髋关节、和一个膝关节来控制的。有24个输入,会指导它的运动:包括“激光雷达”探测的前方地形数据,本体感受到的关节运动速度等等。

比起第一项任务中的低维输入,这里可能的网络连接就更多样了:

所以,需要WANN对从输入到输出的布线方式,有所选择。

这个高维任务,WANN也优质完成了。

你看,这是搜索出的最佳架构,比刚才的低维任务复杂了许多:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

它在-1.5的权重下奔跑,长这样:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

第三项任务,CarRacing-v0。

这是一个自上而下的 (Top-Down) 、像素环境里的赛车游戏。

一辆车,由三个连续命令来控制:油门、转向、制动。目标是在规定的时间里,经过尽可能多的砖块。赛道是随机生成的。

研究人员把解释每个像素 (Pixel Interpretation) 的工作交给了一个预训练的变分自编码器 (VAE) ,它可以把像素表征压缩到16个潜在维度。

这16维就是网络输入的维度。学到的特征是用来检测WANN学习抽象关联 (Abstract Associations) 的能力,而不是编码不同输入之间显式的几何关系。

这是WANN最佳网络,在-1.4共享权重下、未经训练的赛车成果:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

虽然路走得有些蜿蜒,但很少偏离跑到。

而把最佳网络微调一下,不用训练,便更加顺滑了:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

总结一下,在简单程度和模块化程度上,第二、三项任务都表现得优秀,两足控制器只用了25个可能输入中的17个,忽略了许多LIDAR传感器和膝关节的速度。

WANN架构不止能在不训练单个权重的情况下完成任务,而且只用了210个网络连接(Connections) ,比当前State-of-the-Art模型用到的2804个连接,少了一个数量级。

做完强化学习,团队又瞄准了MNIST,把WANN拓展到了监督学习的分类任务上。

一个普通的网络,在参数随机初始化的情况下,MNIST上面的准确率可能只有10%左右。

而新方法搜索到的网络架构WANN,用随机权重去跑,准确率已经超过了80%;

如果像刚刚提到的那样,喂给它多个权值的合集,准确率就达到了91.6%。

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

对比一下,经过微调的权重,带来的准确率是91.9%,训练过的权重,可以带来94.2%的准确率。

再对比一下,拥有几千个权重的线性分类器:

谷歌发布颠覆性研究:不训练不调参,从此神经网络告别炼丹一大步

也只是和WANN完全没训练、没微调、仅仅喂食了一些随机权重时的准确率相当。

论文里强调,MINST手写数字分类是高维分类任务。WANN表现得非常出色。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读