您的位置:首页>要闻 >内容

谷歌的DeepMind询问AI失败意味着什么

2019-05-11 15:21:37来源:
导读谷歌的DeepMind一直在努力解决如何使神经网络健壮的问题,但即使理解失败意味着什么,仍有许多工作要做。有一点可能有所帮助:人类更多地指

谷歌的DeepMind一直在努力解决如何使神经网络“健壮”的问题,但即使理解失败意味着什么,仍有许多工作要做。有一点可能有所帮助:人类更多地指定成功和失败的角色。如何成为开发人员:薪水,技能和最好的语言学习关于如何使人工智能“强大”地进行攻击并且不易发生故障的问题已经进行了多年的研究。然而,正如本周一篇来自谷歌DeepMind部门的博客文章所指出的那样,人工智能实际意味着失败的领域仍然存在。缺失的元素对于某些人来说似乎是显而易见的:如果有更多的人参与设置神经网络应该如何运作的边界条件,那将真的有帮助。

研究人员Pushmeet Kohli,Sven Gowal,Krishnamurthy,Dvijotham和Jonathan Uesato一直在研究这个问题,他们确定了许多仍有待完成的工作,他们总结为“走向强大且经过验证的AI:规范测试,强大的培训”和正式验证。“

计算机程序的验证测试历史悠久,但这些方法“并不适合现代深度学习系统”。

另外:

为什么?在很大程度上,因为科学家们仍在了解神经网络遵循为其规定的“规范”意味着什么。并不总是清楚规范甚至是什么。

作者写道:“在AI系统中捕获'正确'行为的规范通常很难准确地说明。”

Google的DeepMind提出了一种方法来设置神经网络可以产生的输出类型,以防止它做错事。DeepMind

DeepMind研究人员观察到,“规范”的概念来自软件世界。它是计算机系统的预期功能。

正如作者在12月的一篇文章中所写,在AI中,可能不会只有一个规范,可能至少有三个。有一个“理想”规范,系统的创造者想象它可以做什么。然后是“设计”规范,明确针对神经网络优化的“目标函数”。而且,最后,还有“显示”规范,即实际执行的方式。他们称这三个规格,彼此之间可能有很大差异,包括愿望,设计和行为。

设计人工神经网络可以看作如何缩小愿望,设计和行为之间的差距。正如他们在12月的文章中写道的那样,“当理想规范与显示的规范不匹配时,即当人工智能系统没有做我们希望它做的事情时,就会出现规范问题。”

另外:

他们提出了各种测试和训练神经网络的途径,这些网络对错误更加健壮,并且可能更忠实于规范。

一种方法是使用AI本身来弄清楚AI的困惑。这意味着使用像Google的AlphaGo这样的强化学习系统,找到另一种强化学习系统失败的最坏方法?

作者在12月发表的一篇论文中做到了这一点。“我们学习了一种对抗价值函数,它根据经验预测哪种情况最有可能导致代理人失败。”在这种情况下,代理是指强化学习代理。

“然后我们使用这种学习函数进行优化,将评估重点放在最有问题的输入上。”他们声称该方法导致强化学习系统“对随机测试的大幅改进”。

必读

谷歌人工智能领导者(CNET)称,人工智能是非常非常愚蠢的

如何立即获取所有Google智能助理的新声音(CNET)

统一的Google AI部门是AI未来的明确信号(TechRepublic)

前5:关于AI的事情(TechRepublic)

另一种方法是训练神经网络以避免整个输出范围,以防止它完全脱离轨道并做出非常糟糕的预测。作者声称,“简单边界技术”,称为“区间界限传播”,能够训练“可验证的鲁棒”神经网络。这项工作在去年的NeurIPS大会上为他们赢得了“最佳论文”奖。

他们现在正在超越仅仅测试和训练神经网络以避免灾难,他们也开始为保证稳健性找到理论基础。他们认为这是一个“优化问题,试图找到被核实财产的最大违规行为”。

尽管取得了这些成就,但最终还是“需要做很多工作”,作者写道“构建自动化工具以确保现实世界中的AI系统能够做出”正确的事情“。

其中一些工作是设计能够更强烈地测试和训练神经网络的算法。但其中一些可能涉及人的因素。它是关于为人类所需的AI设定目标 - 目标函数。

“需要建立能够使用部分人工规范并从评估反馈中学习更多规范的系统,”他们写道,“因为我们正在建立能够展现复杂行为并在非结构化环境中行动的越来越智能的代理。”

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章