毕业论文
您现在的位置: 自动化 >> 自动化发展 >> 正文 >> 正文

算法偏见侦探

来源:自动化 时间:2023/3/2

雷锋网AI科技评论按,随着越来越多的算法不断渗透入社会的层层面面,如医疗机构、政府部门,对算法偏见的讨论越来越多。这个月,Nature杂志评选出年最受欢迎的十大科学长篇专题报道,其中,RachelCourtland一篇讨论算法偏见的文章成功当选。雷锋网AI科技评论将原文编译整理如下。

年,一位忧心忡忡的父亲问了卫生经济学家RhemaVaithianathan一个至今仍在她脑海中挥之不去的问题。

那天,一小群人聚集在宾夕法尼亚州匹兹堡市的一间地下室里,听RhemaVaithianathan解释软件如何能够解决虐待儿童的问题。每天,该地区的热线电话都会接到几十个怀疑附近有孩子处于危险之中的来电;其中一些来电会被呼叫中心的工作人员标记以便调查。但是这个系统并不能掌握所有的虐童案件。Vaithianathan和她的同事们刚刚签订了一份价值50万美元的合同,该合同要求他们开发出能够帮助解决该问题的算法。

卫生经济学家Vaithianathan是新西兰奥克兰理工大学社会数据分析中心的联合主任,他用下面的例子告诉人们这个算法是如何工作的:例如,一个使用大量数据(包括家庭背景和犯罪记录)训练得到的工具,可以在接到电话时生成风险评分。这可能有助于通知审核员标记出需要调查的家庭。

当Vaithianathan邀请听众提问后,那位(前面提到的)忧心忡忡的父亲站起来发言。他说,他曾经染上了毒瘾,并与毒瘾做过艰难的斗争。社工曾因此将他的孩子从家中带走。但目前,他已经戒毒成功一段时间了。在电脑评估他的记录的时候,他为改变自己的生活所做的这些努力难道就毫无意义吗?换句话说:算法对他的评价是否不公平?

我们能打开人工智能的黑盒吗?

Vaithianathan向这位父亲保证,人们总是会改过自新的,他的努力不会被忽视。但是时至今日,即使这种自动化评估工具已经部署完毕,Vaithianathan仍然在思考这位父亲的问题。计算机的计算结果正越来越多地被用于控制那些可能改变人一生的决定,包括应该拘留哪些被指控犯罪的被告、调查哪些可能存在虐待儿童现象的家庭,以及近来的「预测性警务」的趋势(社区警察应该

转载请注明:http://www.0431gb208.com/sjszyzl/3595.html