跳转到主要内容

开云体育appios下载威斯康辛大学麦迪逊分校的研究人员解决偏差的算法

2017年7月3日, 通过詹妮弗·史密斯
照片:Aws Albarghouthi,懒猴德安东尼,大卫里尔在白板

Aws Albarghouthi,懒猴德安东尼和大卫·梅里尔(左到右)是一个团队的一部分,在威斯康辛大学麦迪逊分校计算机科学系的算法开发一个工具来根除的偏见。开云体育appios下载所有照片由莎拉·莫顿

如果你曾经申请贷款或检查你的信用评分,算法已经在你的生活中扮演了一个角色。这些数学模型允许计算机使用数据预测许多事情——他们可能偿还贷款,他们可能是一个合适的雇员,或触犯法律的人是否有可能再犯,仅举几个例子。

然而,尽管有些人可能会认为电脑将人类偏见从决策,研究表明并非如此。偏见的那些设计算法,以及偏差的数据所使用的一种算法,可以引入人类偏见的情况。一个看似中性过程变得充满了并发症。

照片:Aws Albarghouthi

“最终,我们希望这是一个管理工具,当你部署一个算法敏感决策。您可以验证确实是公平的,然后解决它,如果它不是,“Aws Albarghouthi说。

过去的一年,威斯康星大学麦迪逊分校教师开云体育app苹果下载安装的开云体育世界杯微信群计算机科学一直在工具解决不公平算法。现在,国家科学基金会的100万美元的赠款将加速他们的努力。他们的项目”,正式的程序公平、方法”通过NSF资助项目的软件和硬件基础。

开云体育appios下载威斯康辛大学麦迪逊分校计算机科学教授Aws Albarghouthi,Shuchi拉,懒猴德安东尼杰瑞·朱主要的开发工具被称为FairSquare。计算机科学研究生塞缪尔·德鲁大卫·梅里尔也参与其中。

FairSquare与众不同的是,它不仅能检测偏差,但也采用自动化解决方案。“最终,我们希望这是一个管理工具,当你部署一个算法敏感决策。您可以验证确实是公平的,然后解决它,如果它不是,“Albarghouthi说。

决策算法可以神秘甚至对那些使用它们,研究人员说,像FairSquare必要工具。

“谁来决定什么是公平?你怎么能肯定你想出了一个数学公式,这意味着你想要的东西来证明吗?”

塞缪尔·德鲁

例如,考虑一个银行,使用第三方工具来评估谁能有资格拥有抵押贷款或小型企业贷款,利率。银行可能不知道软件是如何分类的潜在客户,如何准确预测真正是谁,结果是否反映种族或其他类型的偏见。

“许多公司使用这些算法不理解(算法)在做什么,”Albarghouthi说。“一个算法似乎为他们工作,他们使用它,但通常没有反馈或explainability”它是如何工作。使这些算法难以调节的避免非法偏见,他说。

公司设计和销售这些产品通常不急于分享他们的专有知识,使他们的算法被称为“黑盒”。

照片:懒猴德安东尼

“我们试图给人们询问一个算法的行为的能力。它喜欢某种性别或某些行为,例如吗?”explains Loris D’Antoni.

德安东尼说,“我们试图给人们询问一个算法的行为的能力。它喜欢某种性别或某些行为,例如吗?”

这些算法背后的股份可以高,记者注意到。

在2016年由调查性新闻机构ProPublica故事,一群记者检查产品用于执法预测罪犯再次犯罪的可能性。记者发现令人不安的种族偏见,尽管问题的软件公司纠纷他们的结论。

根据ProPublica,“(B)缺乏几乎是白人的两倍标记更高的风险但不是犯罪。“白色的罪犯,相反的错误发生。白人比黑人更有可能作为低风险挂钩犯下其他罪行。

华盛顿大开云体育appios下载学的研究人员是通过隔离攻击问题公平的财产必须正式定义的软件程序和证明。

德鲁说,这额外的问题。“谁来决定什么是公平?你怎么能肯定你想出了一个数学公式,这意味着你想要的东西来证明吗?”

“机器学习算法…并不总是以负责任的方式使用。我希望我们的研究能帮助工程师构建安全的,可靠的和伦理系统。”

大卫·梅里尔

FairSquare团队建立联系和威斯康辛大学麦迪逊分校的学者在其他领域可以帮助阐明本研究的某开云体育appios下载些方面,如法律和伦理的影响。

”计算得多参与这些天人们的生活,”德鲁说,让FairSquare的发展不仅是一个重要的计算挑战但也有深远的社会影响。

梅里尔补充道,“机器学习算法已成为非常普遍,但他们并不总是以负责任的方式使用。我希望我们的研究能帮助工程师构建安全的,可靠的和伦理系统。”

Baidu
map