特别推荐>>



机器人伦理

发布日期:2018-07-13 14:47
摘要」数据科学家克里斯蒂安·卢姆在努力根除AI与机器学习的偏见;“哪怕你写下一个数学公式,宣称‘这就是公平的定义’,也会存在分歧”。



「或者 *OR」--作为非营利组织人权数据分析集团(Human Rights Data Analysis Group)的首席科学家,33岁的克里斯蒂安·卢姆(Kristian Lum)在努力确保日益掌控我们生活的算法尽可能公正合理。她尤其关注争议较大的刑事司法系统对预测执法(predictive policing)和判刑项目(sentencing programs)的采纳。而说到偏见,卢姆关心的也不只是算法。在去年12月的一篇阅读量很大的博文中,她描述了她在杜克大学念博士以及在弗吉尼亚理工大学担任助理研究教授期间参加学术会议时遇到的骚扰。如今,已离开学术界的卢姆开始利用统计学来检验严峻的人权问题。

统计学与人工智能和机器学习有什么关系?

AI似乎是一种包罗一切的预测模型和计算机模型工具。有一条绝妙的推文,大意是:“当你融资时,它就是AI,当你招聘开发人员时,它就是机器学习,当你实际工作时,它就是统计学。”我觉得这句话说得很准确。

你研究的是机器学习在刑事司法系统中的应用。为什么选这个方向?

几年前,我读到了一家预测执法公司发表的一篇非常有趣的论文。我们复制了他们创建的模型,然后套入了一些真实数据,看看会出现什么结果。我们使用了加州奥克兰市警方的毒品犯罪记录,并与一份基于公共安全记录的可能使用毒品的人群分布的估算数据进行对比。我们发现,在有色族群社区中,警方的执法与毒品犯罪记录的比例不一致。然后,我们将数据套入了预测执法算法,发现这套算法会延续甚至加重数据中已经存在的传统偏见。

刑事司法系统对于人工智能或量化方法的使用,至少在一定程度上反映出,人们对于执法过程中的种族偏见有了更深的认识。许多人认为,此类方法的一大卖点就是计算机不会种族歧视,算法不会种族歧视。我想挑战这个想法—你不能仅仅因为做出预测的是计算机,就认为这些问题会得到化解。

如果说计算机也有偏见,人们很难接受吧?

我感觉我只要一打开Twitter,就会想起另一篇关于种族歧视的AI的文章。这里的难点就在于,人们对于何为公平公正没有一个普遍的共识,在这方面是有分歧的。不只是在一般情况下如此,哪怕你写下一个数学公式,宣称“这就是公平的定义”,也会存在分歧。

你在博文中写到在一场2010年的学术会议上,一位著名学者对你动手动脚。另一位说你穿得太性感,然后给你发了旁敲侧击的短信。你没有指名道姓,但人们推断出了他们的身份,其中一位因此丢掉了工作。你为什么现在把这些事讲出来?

多年来,有很多这样的事在我脑海里挥之不去。之前我一直没想过要把它们写下来。但我越来越失望,虽然人们在公开谈论这些不当行为,风向也开始改变,但并没有任何实质影响。我想,人们必须要意识到,哪怕一些看似无关痛痒的事,比如玩笑,也需要三思而行。当人们愿意听我讲出更多事时,我似乎看到了一种文化的变迁。

我所经历的事对我的工作产生了巨大的影响,虽然我当时并未完全意识到这一点。并不是说那场会议后,我立刻退出了学术界。那是众多因素之一。我不再参加某些会议,这影响了我做出学术贡献的能力。坦白说,对于事业的转向,我自己非常满意。但如果我的经历不同,我可能会走上不同的道路。

那篇文章受到大量关注后,你什么感觉?

我吓坏了。我还在发表学术论文,而这些人会是论文的评审。我心想,“天哪,我干了什么?”但我认为这很重要。大体上,人们还是很支持我。好多人联系到我,其中一些也有类似的经历,有些还涉及到相同的人。现在去参加会议时,人们会朝我走来,对我说“谢谢”,然后给我一个拥抱。

你最初选择统计学这个方向时,吸引你的是什么?

它非常酷。你可以从数据中学到很多东西。这最关键,不是吗?你可以检验你对世界的假设,如果你的研究中有很多机器学习的成分,你可以预测未来会发生的事。另外,我也非常喜欢重新思考关于数据的框架,而不是将数据视为一成不变的东西。坦白说,我是个不折不扣的书呆子。



撰文 /Ellen Huet



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)


摘要」数据科学家克里斯蒂安·卢姆在努力根除AI与机器学习的偏见;“哪怕你写下一个数学公式,宣称‘这就是公平的定义’,也会存在分歧”。



「或者 *OR」--作为非营利组织人权数据分析集团(Human Rights Data Analysis Group)的首席科学家,33岁的克里斯蒂安·卢姆(Kristian Lum)在努力确保日益掌控我们生活的算法尽可能公正合理。她尤其关注争议较大的刑事司法系统对预测执法(predictive policing)和判刑项目(sentencing programs)的采纳。而说到偏见,卢姆关心的也不只是算法。在去年12月的一篇阅读量很大的博文中,她描述了她在杜克大学念博士以及在弗吉尼亚理工大学担任助理研究教授期间参加学术会议时遇到的骚扰。如今,已离开学术界的卢姆开始利用统计学来检验严峻的人权问题。

统计学与人工智能和机器学习有什么关系?

AI似乎是一种包罗一切的预测模型和计算机模型工具。有一条绝妙的推文,大意是:“当你融资时,它就是AI,当你招聘开发人员时,它就是机器学习,当你实际工作时,它就是统计学。”我觉得这句话说得很准确。

你研究的是机器学习在刑事司法系统中的应用。为什么选这个方向?

几年前,我读到了一家预测执法公司发表的一篇非常有趣的论文。我们复制了他们创建的模型,然后套入了一些真实数据,看看会出现什么结果。我们使用了加州奥克兰市警方的毒品犯罪记录,并与一份基于公共安全记录的可能使用毒品的人群分布的估算数据进行对比。我们发现,在有色族群社区中,警方的执法与毒品犯罪记录的比例不一致。然后,我们将数据套入了预测执法算法,发现这套算法会延续甚至加重数据中已经存在的传统偏见。

刑事司法系统对于人工智能或量化方法的使用,至少在一定程度上反映出,人们对于执法过程中的种族偏见有了更深的认识。许多人认为,此类方法的一大卖点就是计算机不会种族歧视,算法不会种族歧视。我想挑战这个想法—你不能仅仅因为做出预测的是计算机,就认为这些问题会得到化解。

如果说计算机也有偏见,人们很难接受吧?

我感觉我只要一打开Twitter,就会想起另一篇关于种族歧视的AI的文章。这里的难点就在于,人们对于何为公平公正没有一个普遍的共识,在这方面是有分歧的。不只是在一般情况下如此,哪怕你写下一个数学公式,宣称“这就是公平的定义”,也会存在分歧。

你在博文中写到在一场2010年的学术会议上,一位著名学者对你动手动脚。另一位说你穿得太性感,然后给你发了旁敲侧击的短信。你没有指名道姓,但人们推断出了他们的身份,其中一位因此丢掉了工作。你为什么现在把这些事讲出来?

多年来,有很多这样的事在我脑海里挥之不去。之前我一直没想过要把它们写下来。但我越来越失望,虽然人们在公开谈论这些不当行为,风向也开始改变,但并没有任何实质影响。我想,人们必须要意识到,哪怕一些看似无关痛痒的事,比如玩笑,也需要三思而行。当人们愿意听我讲出更多事时,我似乎看到了一种文化的变迁。

我所经历的事对我的工作产生了巨大的影响,虽然我当时并未完全意识到这一点。并不是说那场会议后,我立刻退出了学术界。那是众多因素之一。我不再参加某些会议,这影响了我做出学术贡献的能力。坦白说,对于事业的转向,我自己非常满意。但如果我的经历不同,我可能会走上不同的道路。

那篇文章受到大量关注后,你什么感觉?

我吓坏了。我还在发表学术论文,而这些人会是论文的评审。我心想,“天哪,我干了什么?”但我认为这很重要。大体上,人们还是很支持我。好多人联系到我,其中一些也有类似的经历,有些还涉及到相同的人。现在去参加会议时,人们会朝我走来,对我说“谢谢”,然后给我一个拥抱。

你最初选择统计学这个方向时,吸引你的是什么?

它非常酷。你可以从数据中学到很多东西。这最关键,不是吗?你可以检验你对世界的假设,如果你的研究中有很多机器学习的成分,你可以预测未来会发生的事。另外,我也非常喜欢重新思考关于数据的框架,而不是将数据视为一成不变的东西。坦白说,我是个不折不扣的书呆子。



撰文 /Ellen Huet



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



读者评论


您可能感兴趣的资讯
OR


最新资讯
OR


摘要」数据科学家克里斯蒂安·卢姆在努力根除AI与机器学习的偏见;“哪怕你写下一个数学公式,宣称‘这就是公平的定义’,也会存在分歧”。



「或者 *OR」--作为非营利组织人权数据分析集团(Human Rights Data Analysis Group)的首席科学家,33岁的克里斯蒂安·卢姆(Kristian Lum)在努力确保日益掌控我们生活的算法尽可能公正合理。她尤其关注争议较大的刑事司法系统对预测执法(predictive policing)和判刑项目(sentencing programs)的采纳。而说到偏见,卢姆关心的也不只是算法。在去年12月的一篇阅读量很大的博文中,她描述了她在杜克大学念博士以及在弗吉尼亚理工大学担任助理研究教授期间参加学术会议时遇到的骚扰。如今,已离开学术界的卢姆开始利用统计学来检验严峻的人权问题。

统计学与人工智能和机器学习有什么关系?

AI似乎是一种包罗一切的预测模型和计算机模型工具。有一条绝妙的推文,大意是:“当你融资时,它就是AI,当你招聘开发人员时,它就是机器学习,当你实际工作时,它就是统计学。”我觉得这句话说得很准确。

你研究的是机器学习在刑事司法系统中的应用。为什么选这个方向?

几年前,我读到了一家预测执法公司发表的一篇非常有趣的论文。我们复制了他们创建的模型,然后套入了一些真实数据,看看会出现什么结果。我们使用了加州奥克兰市警方的毒品犯罪记录,并与一份基于公共安全记录的可能使用毒品的人群分布的估算数据进行对比。我们发现,在有色族群社区中,警方的执法与毒品犯罪记录的比例不一致。然后,我们将数据套入了预测执法算法,发现这套算法会延续甚至加重数据中已经存在的传统偏见。

刑事司法系统对于人工智能或量化方法的使用,至少在一定程度上反映出,人们对于执法过程中的种族偏见有了更深的认识。许多人认为,此类方法的一大卖点就是计算机不会种族歧视,算法不会种族歧视。我想挑战这个想法—你不能仅仅因为做出预测的是计算机,就认为这些问题会得到化解。

如果说计算机也有偏见,人们很难接受吧?

我感觉我只要一打开Twitter,就会想起另一篇关于种族歧视的AI的文章。这里的难点就在于,人们对于何为公平公正没有一个普遍的共识,在这方面是有分歧的。不只是在一般情况下如此,哪怕你写下一个数学公式,宣称“这就是公平的定义”,也会存在分歧。

你在博文中写到在一场2010年的学术会议上,一位著名学者对你动手动脚。另一位说你穿得太性感,然后给你发了旁敲侧击的短信。你没有指名道姓,但人们推断出了他们的身份,其中一位因此丢掉了工作。你为什么现在把这些事讲出来?

多年来,有很多这样的事在我脑海里挥之不去。之前我一直没想过要把它们写下来。但我越来越失望,虽然人们在公开谈论这些不当行为,风向也开始改变,但并没有任何实质影响。我想,人们必须要意识到,哪怕一些看似无关痛痒的事,比如玩笑,也需要三思而行。当人们愿意听我讲出更多事时,我似乎看到了一种文化的变迁。

我所经历的事对我的工作产生了巨大的影响,虽然我当时并未完全意识到这一点。并不是说那场会议后,我立刻退出了学术界。那是众多因素之一。我不再参加某些会议,这影响了我做出学术贡献的能力。坦白说,对于事业的转向,我自己非常满意。但如果我的经历不同,我可能会走上不同的道路。

那篇文章受到大量关注后,你什么感觉?

我吓坏了。我还在发表学术论文,而这些人会是论文的评审。我心想,“天哪,我干了什么?”但我认为这很重要。大体上,人们还是很支持我。好多人联系到我,其中一些也有类似的经历,有些还涉及到相同的人。现在去参加会议时,人们会朝我走来,对我说“谢谢”,然后给我一个拥抱。

你最初选择统计学这个方向时,吸引你的是什么?

它非常酷。你可以从数据中学到很多东西。这最关键,不是吗?你可以检验你对世界的假设,如果你的研究中有很多机器学习的成分,你可以预测未来会发生的事。另外,我也非常喜欢重新思考关于数据的框架,而不是将数据视为一成不变的东西。坦白说,我是个不折不扣的书呆子。



撰文 /Ellen Huet



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)




机器人伦理

发布日期:2018-07-13 14:47
摘要」数据科学家克里斯蒂安·卢姆在努力根除AI与机器学习的偏见;“哪怕你写下一个数学公式,宣称‘这就是公平的定义’,也会存在分歧”。



「或者 *OR」--作为非营利组织人权数据分析集团(Human Rights Data Analysis Group)的首席科学家,33岁的克里斯蒂安·卢姆(Kristian Lum)在努力确保日益掌控我们生活的算法尽可能公正合理。她尤其关注争议较大的刑事司法系统对预测执法(predictive policing)和判刑项目(sentencing programs)的采纳。而说到偏见,卢姆关心的也不只是算法。在去年12月的一篇阅读量很大的博文中,她描述了她在杜克大学念博士以及在弗吉尼亚理工大学担任助理研究教授期间参加学术会议时遇到的骚扰。如今,已离开学术界的卢姆开始利用统计学来检验严峻的人权问题。

统计学与人工智能和机器学习有什么关系?

AI似乎是一种包罗一切的预测模型和计算机模型工具。有一条绝妙的推文,大意是:“当你融资时,它就是AI,当你招聘开发人员时,它就是机器学习,当你实际工作时,它就是统计学。”我觉得这句话说得很准确。

你研究的是机器学习在刑事司法系统中的应用。为什么选这个方向?

几年前,我读到了一家预测执法公司发表的一篇非常有趣的论文。我们复制了他们创建的模型,然后套入了一些真实数据,看看会出现什么结果。我们使用了加州奥克兰市警方的毒品犯罪记录,并与一份基于公共安全记录的可能使用毒品的人群分布的估算数据进行对比。我们发现,在有色族群社区中,警方的执法与毒品犯罪记录的比例不一致。然后,我们将数据套入了预测执法算法,发现这套算法会延续甚至加重数据中已经存在的传统偏见。

刑事司法系统对于人工智能或量化方法的使用,至少在一定程度上反映出,人们对于执法过程中的种族偏见有了更深的认识。许多人认为,此类方法的一大卖点就是计算机不会种族歧视,算法不会种族歧视。我想挑战这个想法—你不能仅仅因为做出预测的是计算机,就认为这些问题会得到化解。

如果说计算机也有偏见,人们很难接受吧?

我感觉我只要一打开Twitter,就会想起另一篇关于种族歧视的AI的文章。这里的难点就在于,人们对于何为公平公正没有一个普遍的共识,在这方面是有分歧的。不只是在一般情况下如此,哪怕你写下一个数学公式,宣称“这就是公平的定义”,也会存在分歧。

你在博文中写到在一场2010年的学术会议上,一位著名学者对你动手动脚。另一位说你穿得太性感,然后给你发了旁敲侧击的短信。你没有指名道姓,但人们推断出了他们的身份,其中一位因此丢掉了工作。你为什么现在把这些事讲出来?

多年来,有很多这样的事在我脑海里挥之不去。之前我一直没想过要把它们写下来。但我越来越失望,虽然人们在公开谈论这些不当行为,风向也开始改变,但并没有任何实质影响。我想,人们必须要意识到,哪怕一些看似无关痛痒的事,比如玩笑,也需要三思而行。当人们愿意听我讲出更多事时,我似乎看到了一种文化的变迁。

我所经历的事对我的工作产生了巨大的影响,虽然我当时并未完全意识到这一点。并不是说那场会议后,我立刻退出了学术界。那是众多因素之一。我不再参加某些会议,这影响了我做出学术贡献的能力。坦白说,对于事业的转向,我自己非常满意。但如果我的经历不同,我可能会走上不同的道路。

那篇文章受到大量关注后,你什么感觉?

我吓坏了。我还在发表学术论文,而这些人会是论文的评审。我心想,“天哪,我干了什么?”但我认为这很重要。大体上,人们还是很支持我。好多人联系到我,其中一些也有类似的经历,有些还涉及到相同的人。现在去参加会议时,人们会朝我走来,对我说“谢谢”,然后给我一个拥抱。

你最初选择统计学这个方向时,吸引你的是什么?

它非常酷。你可以从数据中学到很多东西。这最关键,不是吗?你可以检验你对世界的假设,如果你的研究中有很多机器学习的成分,你可以预测未来会发生的事。另外,我也非常喜欢重新思考关于数据的框架,而不是将数据视为一成不变的东西。坦白说,我是个不折不扣的书呆子。



撰文 /Ellen Huet



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)


摘要」数据科学家克里斯蒂安·卢姆在努力根除AI与机器学习的偏见;“哪怕你写下一个数学公式,宣称‘这就是公平的定义’,也会存在分歧”。



「或者 *OR」--作为非营利组织人权数据分析集团(Human Rights Data Analysis Group)的首席科学家,33岁的克里斯蒂安·卢姆(Kristian Lum)在努力确保日益掌控我们生活的算法尽可能公正合理。她尤其关注争议较大的刑事司法系统对预测执法(predictive policing)和判刑项目(sentencing programs)的采纳。而说到偏见,卢姆关心的也不只是算法。在去年12月的一篇阅读量很大的博文中,她描述了她在杜克大学念博士以及在弗吉尼亚理工大学担任助理研究教授期间参加学术会议时遇到的骚扰。如今,已离开学术界的卢姆开始利用统计学来检验严峻的人权问题。

统计学与人工智能和机器学习有什么关系?

AI似乎是一种包罗一切的预测模型和计算机模型工具。有一条绝妙的推文,大意是:“当你融资时,它就是AI,当你招聘开发人员时,它就是机器学习,当你实际工作时,它就是统计学。”我觉得这句话说得很准确。

你研究的是机器学习在刑事司法系统中的应用。为什么选这个方向?

几年前,我读到了一家预测执法公司发表的一篇非常有趣的论文。我们复制了他们创建的模型,然后套入了一些真实数据,看看会出现什么结果。我们使用了加州奥克兰市警方的毒品犯罪记录,并与一份基于公共安全记录的可能使用毒品的人群分布的估算数据进行对比。我们发现,在有色族群社区中,警方的执法与毒品犯罪记录的比例不一致。然后,我们将数据套入了预测执法算法,发现这套算法会延续甚至加重数据中已经存在的传统偏见。

刑事司法系统对于人工智能或量化方法的使用,至少在一定程度上反映出,人们对于执法过程中的种族偏见有了更深的认识。许多人认为,此类方法的一大卖点就是计算机不会种族歧视,算法不会种族歧视。我想挑战这个想法—你不能仅仅因为做出预测的是计算机,就认为这些问题会得到化解。

如果说计算机也有偏见,人们很难接受吧?

我感觉我只要一打开Twitter,就会想起另一篇关于种族歧视的AI的文章。这里的难点就在于,人们对于何为公平公正没有一个普遍的共识,在这方面是有分歧的。不只是在一般情况下如此,哪怕你写下一个数学公式,宣称“这就是公平的定义”,也会存在分歧。

你在博文中写到在一场2010年的学术会议上,一位著名学者对你动手动脚。另一位说你穿得太性感,然后给你发了旁敲侧击的短信。你没有指名道姓,但人们推断出了他们的身份,其中一位因此丢掉了工作。你为什么现在把这些事讲出来?

多年来,有很多这样的事在我脑海里挥之不去。之前我一直没想过要把它们写下来。但我越来越失望,虽然人们在公开谈论这些不当行为,风向也开始改变,但并没有任何实质影响。我想,人们必须要意识到,哪怕一些看似无关痛痒的事,比如玩笑,也需要三思而行。当人们愿意听我讲出更多事时,我似乎看到了一种文化的变迁。

我所经历的事对我的工作产生了巨大的影响,虽然我当时并未完全意识到这一点。并不是说那场会议后,我立刻退出了学术界。那是众多因素之一。我不再参加某些会议,这影响了我做出学术贡献的能力。坦白说,对于事业的转向,我自己非常满意。但如果我的经历不同,我可能会走上不同的道路。

那篇文章受到大量关注后,你什么感觉?

我吓坏了。我还在发表学术论文,而这些人会是论文的评审。我心想,“天哪,我干了什么?”但我认为这很重要。大体上,人们还是很支持我。好多人联系到我,其中一些也有类似的经历,有些还涉及到相同的人。现在去参加会议时,人们会朝我走来,对我说“谢谢”,然后给我一个拥抱。

你最初选择统计学这个方向时,吸引你的是什么?

它非常酷。你可以从数据中学到很多东西。这最关键,不是吗?你可以检验你对世界的假设,如果你的研究中有很多机器学习的成分,你可以预测未来会发生的事。另外,我也非常喜欢重新思考关于数据的框架,而不是将数据视为一成不变的东西。坦白说,我是个不折不扣的书呆子。



撰文 /Ellen Huet



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



读者评论


您可能感兴趣的资讯
OR



最新资讯
OR