您的位置:首页>金融 >内容

逃离人工智能黑箱子魔咒警惕人工智能的知识债务

2019-08-05 10:00:59来源:亿欧
导读关于人工智能的未来,有很多人都表现得恐惧而忧心忡忡,他们始终担心人工智能发展到奇点后会迈入强人工智能阶段,迅速掌握具备人类认知基础

关于人工智能的未来,有很多人都表现得恐惧而忧心忡忡,他们始终担心人工智能发展到奇点后会迈入“强人工智能”阶段,迅速掌握具备人类认知基础的各种理论。人工智能,技术债务,错误识别,知识债务,神经网络图片来自“东方IC”关于人工智能的未来,有很多人都表现得恐惧而忧心忡忡,他们始终担心人工智能发展到奇点后会迈入“强人工智能”阶段,迅速掌握具备人类认知基础的各种理论。拥有融合多个领域的综合智能和情感的AI发展到最后,必然会取代人类的社会地位。

这个担忧不无道理,但距离AI迈入“强人工智能”阶段还有有很长的一段路要走,在此之前,人们需要担忧的是,在弱人工智能的发展过程中,是否也存在一些需要我们重视的问题,比如说“知识债务”。

技术债务理解知识债务?

哈佛法学院互联网法教授Jonathan Zittrain在人工智能的技术、法律、道德、文化等领域一直颇有建树,他在近期发表的一篇文章中提出了关于人工智能“知识债务”的观点:如果机器学习系统智能到能够做出人类不了解基本原理的的工作,那么,人类在机器学习这一领域,很可能就已经背上了“知识债务”。

我们可以类比软件开发领域的“技术债务”来理解AI的“知识债务”概念。

在开发领域,开发人员为了产品能够迅速开发上市,时常会在应该进行程序深入编写测试的地方选择更为简单而易于实现的方案,整个产品表面上是能正常运行的,但其内部却存在着很多问题,导致未来人们需要不断对该程序进行拓展修改,或是当新需求出现时按照原来错误的写法写新的功能,长期下去技术债务很可能无力偿还,就只能进行代码重构。

人工智能的“知识债务”与之类似,众所周知,神经网络最大的特点就是它的非线性映射能力,只要提供足够多的训练样本,它就可以根据已有的数据来分析总结其中的相关性,并归纳出这些数据潜在的规律,给出结果。人们都认同世间万物存在着普遍的联系,但尚有很多事物间的因果关系原理没能理清,人工智能的出现,让人类不弄清原理就得到结果的可能成为了现实。

人工神经网络模型

人工神经网络模型

就像在使用一个表面上能正常运行的程序一样,人工智能的“知识债务”,也就在人类对细枝末节的不理解里产生了。

人工智能还不够智能?

现在人工智能的知识债务之所以还没有成为引起重视的问题,是因为目前的人工智能都还不够“智能”,所以我们无法完全相信它给出的结果,仅仅只是把它们当作一个辅助工具。

美国法庭曾经使用过一款用来预测保释罪犯再次犯罪可能性的AI,后来有人指出其预测结果因对黑人抱有偏见而不太可信,可能含有种族偏见——正是因为AI不够完美,人们才能对它给出的预测结果保持一种谨慎而非盲目跟随的态度,但是试想一下,如果AI普遍发展到极少出错、接近完美(且人类不知道它表现完美的原理),那么人类就会过分依赖于AI ,接受错误的结果导向,在AI遇上无法处理的情况或发生错误时彻底抓瞎。

人工智能的错误识别案例

人工智能的错误识别案例

在传统领域,人们因无法完全修补一个系统的缺陷而产生技术债务,那么他们必须在这个系统中设置一个天花板,当技术债务达到这个天花板时,整个系统就会崩溃或停止工作,以免按错误的模式运行而产生更严重的后果。如果人工智能持续发展,那么这一领域的知识债务则意味着,人类将把天花板的决定权和判断控制权彻底交给AI,这对人类来说无疑是存在风险的。

当然,对人工智能的“知识债务”问题,我们也不应该用完全消极的态度看待。

四千年前,古苏美尔人发现吃掉刮下的柳树皮可以一定程度上治愈伤口的疼痛,那时候他们也不知道其中原理,只是这一结果确实发生了,他们也就一直在用这样的做法来缓解疼痛了。这个知识债务经历了数千年才被彻底偿清,人们在使用过程中发现一种名为水杨苷的化合物可以缓解疼痛、发烧、炎症,然后才开始解构其原理,最后成功地用化学方式合成了这一化合物,并研发出了阿司匹林,影响了医学的未来方向。

人工智能的知识债务也可以这样看待,它会为人类创造更多的发现,只要人类仍旧对世界保持好奇和探索,这个问题就可能产生积极的影响。

还有另外一个看法,就是大部分的人在驾驶车辆、使用电脑时,也并不完全了解其中的运行原理,发生故障时可以找专业的人员进行维修。新的技术创造了更多的行业和工作机会,不了解该行业和技术的人也可以直接使用这一工具,从而节省了更多的时间去进行自己领域相关、更有创造性的工作。

所以说,关于人工智能的知识债务,人类最应该警惕的问题实际上是:在利用这一工具时,人类能否克服惰性,保持对学习和对世界的探索热情,即使AI技术再成熟再完美,也不放弃思考十五件的关联原理,对其提供的结果保持警惕。

Zittrain列举了三种人工智能知识债务可能造成的不良影响,其中就有关于人工智能影响人类学习的讨论:AI在人类不了解一件事情的原理和理论的情况下去指导人类的活动,这就会导致人类在完成这件事情的过程中没有学到任何东西,仅仅只是达到了一个结果而已。传统基础科学需要经历学习、钻研、理解等漫长过程才能获得结果,但这对人类发展是有着深远影响的,如果仅仅只是在AI的指导下去达到一个结果,那无疑是剥夺了人类的学习天性和他们更加深刻的未来。

与此同时,如果人类过分信赖AI且不去思考事物间的关联原理,那随着AI知识债务的不断累积,错误或虚假的关联将被不断用来训练其他的AI,这种错误持续扩大到最后,甚至还有可能颠覆常识。

除了向人们提出警惕之外,关于人工智能的技术债务问题,Zittrain目前暂没有提出有效的解决方案,但有一个建议是,创建一个数据备份,用来备份人工智能那些人类不清楚系统原理的训练数据相关算法,这样人们至少能够从这些数据中研究出其原理,当然,它的前提是,人类能够克服惰性,保持对学习和对世界的探索热情。

无论我们愿不愿意,未来都会到来,但裹挟我们的绝不是人工智能或各种技术,而是时代。

我们能做的,便是在滚滚而来的时代洪流中重新审视和坚定自己的价值,绝不停止成长,绝不停止学习。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章