您的位置:首页>科技 >内容

Data61领导新的道德人工智能研究所

2019-04-29 11:34:26来源:
导读非盈利组织将研究如何解决AI系统显示的根深蒂固的偏见问题。英联邦科学与工业研究组织(CSIRO)Data61与IAG和悉尼大学共同创建了一个新的人工

非盈利组织将研究如何解决AI系统显示的根深蒂固的偏见问题。英联邦科学与工业研究组织(CSIRO)Data61与IAG和悉尼大学共同创建了一个新的人工智能(AI)研究所,旨在探索新兴技术的伦理。Data61解释说,Gradient Institute是一个独立的非盈利组织,负责研究人工智能的道德规范,以及开发基于人工智能的道德系统,主要侧重于创建一个“所有系统都符合道德规范的世界”。“通过将道德规范纳入人工智能,我们相信我们将能够通过道德意识的机器学习创造更好的结果来选择避免过去错误的方法,”研究院首席执行官比尔辛普森说。

“例如,在招聘时,自动化系统使用历史数据来指导决策,他们可能会偏向于某些职业中历史上代表性不足的亚组。

“通过在创建人工智能中嵌入道德规范,我们可以缓解这些在零售,电信和金融服务等行业中显而易见的偏见。”

除了研究之外,预计新研究所还将通过实践,政策倡导,公众意识和培训来探索人工智能的道德规范,特别是在人道主义的道德发展和使用方面。

Data61在周四的一份声明中表示,该研究所将利用研究成果创建开源道德人工智能工具,可供企业和政府采用和调整。

“随着人工智能的广泛采用,确保技术的开发符合道德考虑因素至关重要,”Data61首席执行官阿德里安特纳补充道。“作为一个国家,我们需要做到这一点,从生产力的提高到新的世界价值,从AI中获益。”

在Data61今年布里斯班年会期间与ZDNet一同在Data61的工程与设计代理主管Hilary Cinis表示道德规范就是减少伤害。

她说,解决根深蒂固的道德偏见的一种方法是确保构建算法的团队多样化。她说,围绕发展的“文化反思”需要发生。

同样,Salesforce用户研究架构师Kathy Baxter在今年早些时候在悉尼举行的人权与技术会议上表示,出现的一个主要问题是数据中很难看到偏见。她说,同样复杂的是公平意味着什么。

“如果你按照头条新闻,你会发现AI是性别歧视,种族主义,并且充满了系统性的偏见,”她说。

“人工智能基于概率和统计,”她继续道。“如果人工智能正在使用这些因素中的任何一个 - 种族,宗教,性别,年龄,性取向 - 它会不公平地剥夺一部分人口的权利,即使你没有在算法中明确使用这些因素,是他们甚至不知道的代理人。

“在美国,邮政编码加上收入等于种族。如果你的算法中有这两个因素,你的算法可能会根据种族提出建议。”

她继续建议研究需要提前进行,以确定谁将受到影响,并在“硅谷泡沫”或开发商所处的任何位置泡沫之外提供额外的观点。

“人工智能从数据和数据中学习反映了过去 - 在渐变研究所,我们希望未来比过去更好,”Simpson-Young周四补充说。

Simpson-Young将由IAG的全资子公司Ambiata的联合创始人兼首席科学家Tiberio Caetano博士加入,他将以首席科学家的身份指导该研究所的道德AI研究。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章