您的位置:首页>要闻 >内容

有偏见的数据集有多大会导致社会不平等恶化

2019-07-08 08:48:46来源:
导读 您好,欢迎回到Startups Weekly,这是一份周末时事通讯,深入了解本周值得注意的初创公司和风险投资新闻。在我进入今天的话题之前,让我们

几乎在我们这一天的每一个环节,我们都会与收集数据的数字技术进行互动。从我们的智能手机唤醒我们的那一刻起,到我们的手表跟踪我们的早晨跑步,每次我们使用公共交通工具,我们用银行卡购买的每一杯咖啡,每首歌都跳过或喜欢,直到我们回到床上并让我们的睡眠应用程序监控我们的梦想习惯 - 所有这些技术都在收集数据。

这些数据被科技公司用于开发他们的产品并提供更多服务。虽然电影和音乐建议可能有用,但同样的系统也被用于决定在何处建立基础设施,警察使用的面部识别系统,甚至是否应该进行面试,或者谁应该在崩溃时死亡自动驾驶汽车。

尽管拥有庞大的个人信息数据库,但科技公司很少有足够的知识做出明智的决策,这导致产品和技术可以增强社会偏见和不平等,而不是解决这些问题。

微软在聊天机构开始发表仇恨言论后道歉。“种族主义”肥皂分配器无法为有色人种工作。算法错误导致Flickr错误地将集中营标记为“丛林健身房”。简历分类工具拒绝了女性的申请,警方对面部识别工具的使用存在深刻的担忧。

这些问题不会被忽视。一个最近的一份报告发现,英国高技术工人的28%是担心自己在工作的技术已经对社会的负面影响。英国独立研究机构NESTA表示,随着数字技术的黑暗面越来越清晰,“公众对更负责任,更民主,更人性化的替代方案的需求正在增长”。

传统解决方案使事情变得更糟

大多数科技公司,无论大小,都声称他们正在做正确的事情来改进他们的数据实践。然而,通常他们提出的解决方案通常会产生最大的问题。这些解决方案通常来自于使我们开始陷入困境的相同想法,工具和技术。正如奥德雷罗德所说,大师的工具永远不会拆除主人的房子。相反,我们需要一种截然不同的方法来收集更多关于用户的数据,或者通过更多关于数字技术的教育来填补空白。

技术上对女性或有色人种的偏见的原因很复杂。它们通常归因于数据集不完整以及该技术通常由不是来自不同背景的人制作。至少这是一个论点 - 从某种意义上说,这是正确的。增加在科技行业工作的人的多样性非常重要。许多公司也在收集更多数据,以使其更能代表使用数字技术的人,徒劳地希望消除种族主义的肥皂分配器或排除女性的招聘机器人。

问题是这些是社交问题,而不是数字问题。试图通过更多数据和更好的算法来解决这些问题只能隐藏不平等的根本原因。收集更多数据实际上并没有使人们更好地代表,相反,它可以增加受监管不力的科技公司监管的程度。这些公司成为分类工具,按性别,种族和经济阶层将人分为不同的群体,直到他们的数据库看起来平衡和完整。

这些过程通过侵蚀隐私和强迫人们进行自我审查来限制个人自由- 隐藏他们生活中的细节,例如,潜在的雇主可能会发现和不赞成。越来越多的数据收集对该流程应该提供帮助的群体产生了不成比例的负面影响。额外的数据收集导致犯罪预测软件对较贫困社区的过度监控,或其他问题,如少数民族社区为汽车保险支付的费用高于具有相同风险等级的白人社区。

人们经常讲述他们应该如何谨慎对待他们的在线个人数据。他们还被鼓励学习如何通过现在统治生活的技术收集和使用数据。虽然帮助人们更好地理解数字技术有一些优点,但这从错误的方向解决了问题。正如媒体学者Siva Vaidhyanathan所指出的那样,这通常只会将操纵系统的负担直接放在用户身上,而用户实际上往往仍然无能为力。

获得教育也不普遍。教育和获取数字技术的不平等意味着它往往是那些受社会偏见和解决这些问题的数字化努力最不利影响的社区所无法企及的。

社会问题需要社会解决方案

科技行业,媒体和政府已经开始着迷于建立更大的数据集以消除社会偏见。但仅靠数字技术永远无法解决社会问题。收集更多数据和编写“更好”的算法似乎有帮助,但这只会产生进步的错觉。

将人们的经验转化为数据隐藏了社会偏见的原因 - 制度性种族主义,性别歧视和阶级主义。数字和数据驱动的“解决方案”使我们分散了社会中的实际问题,而不是检查真正的解决方案。正如法国哲学家伯纳德斯蒂格勒所指出的,这些数字化任务只能增加技术系统与社会组织之间的距离。

我们需要放慢速度,停止创新,并检查社会偏见,而不是技术本身,而是社会。我们是否应该构建任何这些技术,或者根本收集任何这些数据?

更好地代表科技行业至关重要,但他们的数字解决方案总是不足。社会学,伦理学和哲学可以解决21世纪的社会不平等问题。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章