您的位置:首页>要闻 >内容

新框架提高了深度神经网络的性能

2019-06-27 09:00:19来源:
导读研究人员开发了一种新的框架,用于通过语法引导的网络生成器构建深度神经网络。在实验测试中,新的网络(称为AOGNets)在视觉识别任务中的表

研究人员开发了一种新的框架,用于通过语法引导的网络生成器构建深度神经网络。在实验测试中,新的网络(称为AOGNets)在视觉识别任务中的表现优于现有的最先进的框架,包括广泛使用的ResNet和DenseNet系统。北卡罗来纳州立大学的研究人员开发了一种新的框架,用于通过语法引导网络生成器构建深度神经网络。在实验测试中,新的网络(称为AOGNets)在视觉识别任务中的表现优于现有的最先进的框架,包括广泛使用的ResNet和DenseNet系统。

“AOGNets比我们比较的任何网络都具有更好的预测准确性,”北卡罗来纳州电气和计算机工程助理教授兼工作论文的通讯作者Tianfu Wu说。“AOGNets也更具解释性,这意味着用户可以看到系统如何得出结论。”

新框架使用组合语法方法进行系统架构,该方法利用先前网络系统的最佳实践,以更有效地从原始数据中提取有用信息。

“我们发现,分层和组合语法为我们提供了一种简单,优雅的方式来统一以前的系统架构所采用的方法,而据我们所知,这是第一项利用语法进行网络生成的工作,”Wu说。

为了测试他们的新框架,研究人员开发了AOGNets,并针对三种图像分类基准测试它们:CIFAR-10,CIFAR-100和ImageNet-1K。

“AOGNets在公平比较中获得的性能明显优于所有最先进的网络,包括ResNets,DenseNets,ResNeXts和DualPathNets,”Wu说。“AOGNets还使用ImageNet中的网络剖析度量获得了最佳模型可解释性评分.AOGNets进一步显示了对抗性防御和平台无关部署(移动与云端)的巨大潜力。”

研究人员还使用vanilla Mask R-CNN系统在Microsoft COCO基准测试中测试了AOGNets在对象检测和实例语义分割方面的性能。

“AOGNets获得了比ResNet和ResNeXt主干更好的结果,模型尺寸更小,推理时间相似或稍好一些,”Wu说。“结果显示了AOGNets在对象检测和分割任务中学习更好功能的有效性。

这些测试是相关的,因为图像分类是视觉识别的核心基本任务之一,ImageNet是标准的大规模分类基准。同样,对象检测和分割是两个核心高级视觉任务,MS-COCO是最广泛使用的基准之一。

“为了评估视觉识别中深度学习的新网络架构,它们是金色的测试平台,”吴说。“AOGNets是在原则语法框架下开发的,并且在ImageNet和MS-COCO中都获得了显着的改进,因此在许多实际应用中表现出对表示学习的潜在广泛和深远的影响。

“我们对语法引导的AOGNet框架感到兴奋,并且正在探索其在其他深度学习应用中的表现,例如深层自然语言理解,深度生成学习和深度强化学习,”吴说。

该论文“AOGNets:深度学习的组合语法架构”将于6月16日至20日在加利福尼亚州长滩举行的IEEE计算机视觉与模式识别大会上发表。论文的第一作者是李希来,博士.D。NC州的学生。该论文由独立研究员习松共同撰写。

这项工作是在美国陆军研究办公室的支持下完成的,资金来源为W911NF1810295和W911NF1810209。

提交了一份专利申请。作者有兴趣与潜在的学术和行业合作伙伴合作。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章