特别推荐
OR



地铁或采用人脸识别,你在“白名单”里吗?

发布日期:2019-11-02 08:41
摘要:技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。



撰文 | 财富

OR--商业新媒体 】去年4月,江西省南昌国际体育中心,张学友举办了一场演唱会,现场约有六万粉丝。演唱会开始没多久,警察来到中心看台带走了一名男子。据警方介绍,男子是一名在逃嫌犯。为了看张学友,前一天上午他和妻子朋友们驱车近100公里。在一场万人演唱会上,他以为不会有人注意到他。

确实,在6万人中锁定一个目标不容易,但对AI来说,不是问题。

人脸识别技术的本事可不止是抓逃犯。在我国,人脸识别技术至少进入安防、金融、交通、零售、医疗、校园等多个领域。这项AI技术给用户带来便捷,给各行各业带来了实实在在的推动甚至是变革。

阿里巴巴的蚂蚁金服利用“微笑支付”功能,让用户在肯德基点餐更便捷;

杭州一所高中以此技术监控学生出勤率;

深圳以及其他城市的交警则以之锁定乱穿马路的行人和自行车;

北京天坛附近一处公园,将该技术应用于公厕,以防止游客盗窃厕纸。

北京的地铁可能也要采用人脸识别技术了。

有消息称,北京或将建立地铁“白名单”及快速安检通道制度,通过应用人脸识别技术,乘客“刷脸”即可快速通过安检通道。

据称,此举能提升安检效率、精准识别可疑乘客、降低地铁安检成本、增强对犯罪分子的震慑力。

这项看上去合情合理的举措,却引发了不少担忧。

有人设想了一下未来北京地铁的情形。

早高峰时期,“白名单”乘客有序地通过无安检或者不严格安检的通道,比之前确实快多了。而有少数乘客——或许是因为没有去申请进入白名单,或许是真的没通过白名单申请——他们需要去到另一个队列,接受严格的安检。半个月之后,网上开始有人呼吁为“可疑”乘客设置单独的地铁车厢,因为和他们乘坐同一车厢,感觉随时有危险。

光明网评论员在“别把人脸识别技术搞成现代‘刺黥’”一文中,就此事提出质疑:“一个人即使是涉嫌犯罪或涉违约侵权,其有罪与否、违约侵权与否,都要经过法庭的公开审理才可定论。审理期间,公诉人与律师、原告和被告之间,都要对各自的证据进行质证,而后经庭审法官依法判定,即使这样,还不能避免冤错案件。而应用人脸识别技术对乘客实施分类,则是公民被一个设备看了一下脸,在无知情况下就被定类。这,可行吗?”

有偏见,与你无关
 
人脸识别可能带来的歧视和偏见,已经引发担忧了。究其原因,一是源于AI技术本身,一是源于该技术被不当使用。

谁说AI是中立的

软件公司Salesforce的首席科学家理查德•佐赫尔在《财富》国际头脑风暴科技大会上指出:“偏见将成为未来人工智能领域里的一个根本性问题。”

颠覆认知的是,大规模的数据收集与分析并不代表能产生客观中立的观点,反而有可能加深先前存在的偏见。

如果一家银行使用社交媒体来预测某人拖欠贷款的可能性,或是警方依赖预测模型来决定将哪类人列为嫌疑对象,那么从数据中发现的任何种族、性别或阶级偏见都可以反映出来,并且可能被这些模型放大,从而产生带有歧视性的结果。

再具体一点说。比如有人发现,一些人脸识别系统在识别深肤色和浅肤色人脸时,精确度往往不高,原因是用于训练该系统的深肤色人脸数据远远不足。最臭名昭著的一个例子是,美国部分州的司法部门使用了一套人脸识别系统,用来决定是否应该批准犯罪嫌疑人保释或假释。然而在犯罪记录相似的前提下,系统却认为黑人嫌犯比白人嫌犯有更高的再次犯罪风险。

佐赫尔认为,在构建人工智能系统的人自身变得更加多元化之前,有些类型的偏见是不太可能被彻底消除的。目前,很多从事人工智能软件开发的计算机工程师都是白人,而且当前开发的很多人工智能软件都只反映了城市富裕人口的需求。

有争议的应用场景

正如美国苹果CEO库克所说:“技术本身没有好与坏,一切由我们人来决定”。让我们感到害怕的不是人脸识别技术本身,而是其被过度、不当的应用。

今年9月,一段运用人脸识别技术来监控学生的视频,在网上引发了热议。

“趴桌子2次,玩手机2次,睡觉1次,听讲0次,阅读0次,举手0次,笑了0次,厌恶表情出现了10次……”

这项被称作是能够实现对学生“精准监控”的技术,在网络上迅速引发了争议。有网友指出,“学校应该是个培养人的地方,而正常人就应该有喜怒哀乐兴奋懈怠开怀懒倦的情绪不是吗?”

这条视频出自AI独角兽公司旷视科技,事发当晚该公司发出声明称:“近日网络上出现的一幅课堂行为分析图片,为技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全。”

但在同一天,刚刚开学的某高校同学们发现,校门口、学生宿舍门口、图书馆、实验楼、教室里多了很多的人脸识别摄像头。所用设备就是旷视科技的产品。

危险的脸

歧视并不是最可怕的,在一些时候,人脸识别技术被认为具有危险性。

《经济学人》刊发于2017年的报道提出,人脸本身存在特殊性,“人脸和其他生物特征数据,比如和指纹之间存在一个巨大区别是,它们可以远距离起作用。任何人只要有手机都能拍摄一张照片供人脸识别程序使用。”

因此人脸面部特征有着更为广阔的运用前景,随之而来的是更高的风险。

还记得前不久,一款名为“ZAO”的AI换脸软件突然火爆全网吧?上线当晚就直接冲到了App Store的第二名。可以说这款软件说把用户想要体验的AI换脸门槛降到了最低。但随着ZAO越来越火,用户们对它的质疑声也变得越来越大。

我们来看看它的用户协议。该项条款包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的用户或肖像权利人的肖像权,以及利用技术对其肖像进行形式改动。

这也就意味着,如果你签了该协议,你就在无形中将自己的肖像权拱手让人了,以后你的脸将完全有可能被别人随意使用,变换。

其实早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制作的AI换脸视频发布在了网络上,它能够把照片和视频中的人脸替换成任何想要替换的人脸,且效果十分逼真,有些肉眼甚至难以分辨真假。

当时,“deepfakes”把情色电影里的女主角换成了盖尔•加朵等好莱坞明星,这也是世界上所有人们第一次公开见识到AI换脸的强大——和危险。

市场调研公司Market Research Future称,人脸识别市场每年增长20%,预计到2022年将达到每年90亿美元。

开发顶尖软件的竞争中,胜出的公司必然要算法精确度很高,可以迅速识别面部,尽量减少误差。与人工智能其他领域一样,要开发出最好的面部识别算法,就得收集大量数据,也就是面部图像用来训练。

“收集并分析这些数据是有许多益处的。”凯洛格学院的一位营销学副教授卡特勒说道。“然而它的风险也很大,因为同样的信息也能够被恶意使用。”而即便是出于最大的善意研究这些数据,它们依然有可能产生预料之外的负面副作用。

为了改进算法,很多公司经常在未经许可的情况下利用数十亿张面部照片来进行算法训练。你自己的脸就可能在面部识别公司的“训练库”里,也可能在公司客户的数据库里。

最近,美国国家广播公司的一篇报道重点批评了类似做法,道详细描述了IBM如何从照片共享网站Flickr中抓走超过100万张面部照片,用作人工智能研究。

此外也存在黑客攻击的风险。网络安全公司Gemini Advisors的安德雷•巴雷舍维奇说,曾经见过从印度国家生物特征数据库中窃取的资料,都在“暗网”上出售。他还没发现有人出售美国人面部数据库,但补充说,“这只是时间问题。”如果发生这种情况,从酒店或零售商盗取的顾客面部图片可以帮助罪犯实施诈骗或冒充身份。

我们是否太宽容

数据泄露和数据严重滥用通常会引发消费者的强烈抗议。然而,我们实际上对数据滥用的容忍度也让人意外。

人脸识别公司FaceFirst的特雷普说:“80、90后更愿意提供面部图像。《少数派报告》里呈现的世界即将到来。如果做得好,人们将享受到便利,而且将变成积极的经历。不会感觉太古怪。”

那么问题来了:是否越来越多的人愿意用隐私来换取便利?他们都知道背后的风险么?监管部门是否能扮演保护者的角色?

乔治敦大学的研究员加维支持由法律监督该项技术。但她也表示立法者很难跟上技术发展的脚步:“跟指纹不一样的是,长期以来指纹采集的方式和时间一直有规则限制,而面部识别技术领域没有规则。”

很多情况下,消费者没有意识到自己在巨大数据集的正式与非正式研究中扮演“参加者”的角色。

在注册获得一项免费服务,或申请信用卡时,“大多数人都不知道自己同意了哪些事项,也不知道他们的数据会被用来做什么。” 凯洛格学院的卡特勒教授说。“他们或许会感到不安,但对于他们的数据会被如何使用,以及可能带来的损害则无了解。”

大多数人除了接受伴随新技术的益处而来的弊端之外别无选择,因为拒绝的成本往往太高。

不能缺席的法律法规

2017年12月15日,德国柏林火车站测试脸部识别系统,旨在协助反恐。图片来源:视觉中国
很多人开始警惕人脸识别技术的滥用,“反人脸识别”技术也开始涌现。比如“脑门贴纸”——穿戴绘制特定图案的眼镜、帽子、衣服能够有效干扰机器视觉,避免算法对人的识别。

当然,这并非是理想的解决方案。

中国清华大学法学教授劳东燕在其公众号发文称,有必要对人脸识别进行法律规制。劳东燕主阐述了四点原因,一是人脸是重要的个人生物数据,相关机构或组织在收集之前需证明合法性;二是需征求公众意见,经过严格的听证过程;三是验证分类标准的合理性和合法性;四是验证人脸识别技术的通行效率。

法学博士史宇航称,在我国正在制定的“民法典人格权编”草案二审稿中,就将面部特征等个人生物识别信息纳入个人信息的范畴。除此以外,面部特征还涉及肖像权的保护问题,是传统法律关系与新兴法律关系的碰撞与融合。围绕面部特征等个人信息的收集、利用,各国法律大多是以用户的“知情-同意”作为合法的基础。

美国已经有多个城市制定了与人脸识别数据相关的法案,禁止人脸识别技术的使用。

英国警方因为使用人脸识别技术,被认为侵犯了隐私而被告上法庭。这也是英国首宗因人脸识别技术而起的法律诉讼。

加拿大隐私专员办公室已在调查商场使用面部识别技术的合法性问题。

2019年8月,瑞典数据保护机构对瑞典一所中学因违反通用数据保护条例而判处2万欧元罚款。中学工作人员在一个教室里面安装了一部人脸识别相机作为实验,以检测采用此种方式登记学生考勤是否更为迅速,该实验共涉及22名学生。瑞典数据保护机构认为中学征得的同意不是“自由作出的”,并且不符合最小必要性原则。

在旷视科技的官方声明中,我们看到这样一句话:“旷视始终坚持技术向善,让人工智能造福所有人。”

技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。

乘客去坐地铁,不用担心被安检人员叫到一边去仔细搜查。

行人走在大街上,看蓝天白云,绿树红花,不用在脑门贴纸,不用担心脸部信息被某AI公司给抓取了。

坐在教室里的孩子,被窗外的云雀转移了注意力,思绪飘去了远方,就走神了这么一小会,他不用害怕被AI发现。

其实,人类的很多灵感就在走神的瞬间迸发了出来。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章
摘要:技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。



撰文 | 财富

OR--商业新媒体 】去年4月,江西省南昌国际体育中心,张学友举办了一场演唱会,现场约有六万粉丝。演唱会开始没多久,警察来到中心看台带走了一名男子。据警方介绍,男子是一名在逃嫌犯。为了看张学友,前一天上午他和妻子朋友们驱车近100公里。在一场万人演唱会上,他以为不会有人注意到他。

确实,在6万人中锁定一个目标不容易,但对AI来说,不是问题。

人脸识别技术的本事可不止是抓逃犯。在我国,人脸识别技术至少进入安防、金融、交通、零售、医疗、校园等多个领域。这项AI技术给用户带来便捷,给各行各业带来了实实在在的推动甚至是变革。

阿里巴巴的蚂蚁金服利用“微笑支付”功能,让用户在肯德基点餐更便捷;

杭州一所高中以此技术监控学生出勤率;

深圳以及其他城市的交警则以之锁定乱穿马路的行人和自行车;

北京天坛附近一处公园,将该技术应用于公厕,以防止游客盗窃厕纸。

北京的地铁可能也要采用人脸识别技术了。

有消息称,北京或将建立地铁“白名单”及快速安检通道制度,通过应用人脸识别技术,乘客“刷脸”即可快速通过安检通道。

据称,此举能提升安检效率、精准识别可疑乘客、降低地铁安检成本、增强对犯罪分子的震慑力。

这项看上去合情合理的举措,却引发了不少担忧。

有人设想了一下未来北京地铁的情形。

早高峰时期,“白名单”乘客有序地通过无安检或者不严格安检的通道,比之前确实快多了。而有少数乘客——或许是因为没有去申请进入白名单,或许是真的没通过白名单申请——他们需要去到另一个队列,接受严格的安检。半个月之后,网上开始有人呼吁为“可疑”乘客设置单独的地铁车厢,因为和他们乘坐同一车厢,感觉随时有危险。

光明网评论员在“别把人脸识别技术搞成现代‘刺黥’”一文中,就此事提出质疑:“一个人即使是涉嫌犯罪或涉违约侵权,其有罪与否、违约侵权与否,都要经过法庭的公开审理才可定论。审理期间,公诉人与律师、原告和被告之间,都要对各自的证据进行质证,而后经庭审法官依法判定,即使这样,还不能避免冤错案件。而应用人脸识别技术对乘客实施分类,则是公民被一个设备看了一下脸,在无知情况下就被定类。这,可行吗?”

有偏见,与你无关
 
人脸识别可能带来的歧视和偏见,已经引发担忧了。究其原因,一是源于AI技术本身,一是源于该技术被不当使用。

谁说AI是中立的

软件公司Salesforce的首席科学家理查德•佐赫尔在《财富》国际头脑风暴科技大会上指出:“偏见将成为未来人工智能领域里的一个根本性问题。”

颠覆认知的是,大规模的数据收集与分析并不代表能产生客观中立的观点,反而有可能加深先前存在的偏见。

如果一家银行使用社交媒体来预测某人拖欠贷款的可能性,或是警方依赖预测模型来决定将哪类人列为嫌疑对象,那么从数据中发现的任何种族、性别或阶级偏见都可以反映出来,并且可能被这些模型放大,从而产生带有歧视性的结果。

再具体一点说。比如有人发现,一些人脸识别系统在识别深肤色和浅肤色人脸时,精确度往往不高,原因是用于训练该系统的深肤色人脸数据远远不足。最臭名昭著的一个例子是,美国部分州的司法部门使用了一套人脸识别系统,用来决定是否应该批准犯罪嫌疑人保释或假释。然而在犯罪记录相似的前提下,系统却认为黑人嫌犯比白人嫌犯有更高的再次犯罪风险。

佐赫尔认为,在构建人工智能系统的人自身变得更加多元化之前,有些类型的偏见是不太可能被彻底消除的。目前,很多从事人工智能软件开发的计算机工程师都是白人,而且当前开发的很多人工智能软件都只反映了城市富裕人口的需求。

有争议的应用场景

正如美国苹果CEO库克所说:“技术本身没有好与坏,一切由我们人来决定”。让我们感到害怕的不是人脸识别技术本身,而是其被过度、不当的应用。

今年9月,一段运用人脸识别技术来监控学生的视频,在网上引发了热议。

“趴桌子2次,玩手机2次,睡觉1次,听讲0次,阅读0次,举手0次,笑了0次,厌恶表情出现了10次……”

这项被称作是能够实现对学生“精准监控”的技术,在网络上迅速引发了争议。有网友指出,“学校应该是个培养人的地方,而正常人就应该有喜怒哀乐兴奋懈怠开怀懒倦的情绪不是吗?”

这条视频出自AI独角兽公司旷视科技,事发当晚该公司发出声明称:“近日网络上出现的一幅课堂行为分析图片,为技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全。”

但在同一天,刚刚开学的某高校同学们发现,校门口、学生宿舍门口、图书馆、实验楼、教室里多了很多的人脸识别摄像头。所用设备就是旷视科技的产品。

危险的脸

歧视并不是最可怕的,在一些时候,人脸识别技术被认为具有危险性。

《经济学人》刊发于2017年的报道提出,人脸本身存在特殊性,“人脸和其他生物特征数据,比如和指纹之间存在一个巨大区别是,它们可以远距离起作用。任何人只要有手机都能拍摄一张照片供人脸识别程序使用。”

因此人脸面部特征有着更为广阔的运用前景,随之而来的是更高的风险。

还记得前不久,一款名为“ZAO”的AI换脸软件突然火爆全网吧?上线当晚就直接冲到了App Store的第二名。可以说这款软件说把用户想要体验的AI换脸门槛降到了最低。但随着ZAO越来越火,用户们对它的质疑声也变得越来越大。

我们来看看它的用户协议。该项条款包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的用户或肖像权利人的肖像权,以及利用技术对其肖像进行形式改动。

这也就意味着,如果你签了该协议,你就在无形中将自己的肖像权拱手让人了,以后你的脸将完全有可能被别人随意使用,变换。

其实早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制作的AI换脸视频发布在了网络上,它能够把照片和视频中的人脸替换成任何想要替换的人脸,且效果十分逼真,有些肉眼甚至难以分辨真假。

当时,“deepfakes”把情色电影里的女主角换成了盖尔•加朵等好莱坞明星,这也是世界上所有人们第一次公开见识到AI换脸的强大——和危险。

市场调研公司Market Research Future称,人脸识别市场每年增长20%,预计到2022年将达到每年90亿美元。

开发顶尖软件的竞争中,胜出的公司必然要算法精确度很高,可以迅速识别面部,尽量减少误差。与人工智能其他领域一样,要开发出最好的面部识别算法,就得收集大量数据,也就是面部图像用来训练。

“收集并分析这些数据是有许多益处的。”凯洛格学院的一位营销学副教授卡特勒说道。“然而它的风险也很大,因为同样的信息也能够被恶意使用。”而即便是出于最大的善意研究这些数据,它们依然有可能产生预料之外的负面副作用。

为了改进算法,很多公司经常在未经许可的情况下利用数十亿张面部照片来进行算法训练。你自己的脸就可能在面部识别公司的“训练库”里,也可能在公司客户的数据库里。

最近,美国国家广播公司的一篇报道重点批评了类似做法,道详细描述了IBM如何从照片共享网站Flickr中抓走超过100万张面部照片,用作人工智能研究。

此外也存在黑客攻击的风险。网络安全公司Gemini Advisors的安德雷•巴雷舍维奇说,曾经见过从印度国家生物特征数据库中窃取的资料,都在“暗网”上出售。他还没发现有人出售美国人面部数据库,但补充说,“这只是时间问题。”如果发生这种情况,从酒店或零售商盗取的顾客面部图片可以帮助罪犯实施诈骗或冒充身份。

我们是否太宽容

数据泄露和数据严重滥用通常会引发消费者的强烈抗议。然而,我们实际上对数据滥用的容忍度也让人意外。

人脸识别公司FaceFirst的特雷普说:“80、90后更愿意提供面部图像。《少数派报告》里呈现的世界即将到来。如果做得好,人们将享受到便利,而且将变成积极的经历。不会感觉太古怪。”

那么问题来了:是否越来越多的人愿意用隐私来换取便利?他们都知道背后的风险么?监管部门是否能扮演保护者的角色?

乔治敦大学的研究员加维支持由法律监督该项技术。但她也表示立法者很难跟上技术发展的脚步:“跟指纹不一样的是,长期以来指纹采集的方式和时间一直有规则限制,而面部识别技术领域没有规则。”

很多情况下,消费者没有意识到自己在巨大数据集的正式与非正式研究中扮演“参加者”的角色。

在注册获得一项免费服务,或申请信用卡时,“大多数人都不知道自己同意了哪些事项,也不知道他们的数据会被用来做什么。” 凯洛格学院的卡特勒教授说。“他们或许会感到不安,但对于他们的数据会被如何使用,以及可能带来的损害则无了解。”

大多数人除了接受伴随新技术的益处而来的弊端之外别无选择,因为拒绝的成本往往太高。

不能缺席的法律法规

2017年12月15日,德国柏林火车站测试脸部识别系统,旨在协助反恐。图片来源:视觉中国
很多人开始警惕人脸识别技术的滥用,“反人脸识别”技术也开始涌现。比如“脑门贴纸”——穿戴绘制特定图案的眼镜、帽子、衣服能够有效干扰机器视觉,避免算法对人的识别。

当然,这并非是理想的解决方案。

中国清华大学法学教授劳东燕在其公众号发文称,有必要对人脸识别进行法律规制。劳东燕主阐述了四点原因,一是人脸是重要的个人生物数据,相关机构或组织在收集之前需证明合法性;二是需征求公众意见,经过严格的听证过程;三是验证分类标准的合理性和合法性;四是验证人脸识别技术的通行效率。

法学博士史宇航称,在我国正在制定的“民法典人格权编”草案二审稿中,就将面部特征等个人生物识别信息纳入个人信息的范畴。除此以外,面部特征还涉及肖像权的保护问题,是传统法律关系与新兴法律关系的碰撞与融合。围绕面部特征等个人信息的收集、利用,各国法律大多是以用户的“知情-同意”作为合法的基础。

美国已经有多个城市制定了与人脸识别数据相关的法案,禁止人脸识别技术的使用。

英国警方因为使用人脸识别技术,被认为侵犯了隐私而被告上法庭。这也是英国首宗因人脸识别技术而起的法律诉讼。

加拿大隐私专员办公室已在调查商场使用面部识别技术的合法性问题。

2019年8月,瑞典数据保护机构对瑞典一所中学因违反通用数据保护条例而判处2万欧元罚款。中学工作人员在一个教室里面安装了一部人脸识别相机作为实验,以检测采用此种方式登记学生考勤是否更为迅速,该实验共涉及22名学生。瑞典数据保护机构认为中学征得的同意不是“自由作出的”,并且不符合最小必要性原则。

在旷视科技的官方声明中,我们看到这样一句话:“旷视始终坚持技术向善,让人工智能造福所有人。”

技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。

乘客去坐地铁,不用担心被安检人员叫到一边去仔细搜查。

行人走在大街上,看蓝天白云,绿树红花,不用在脑门贴纸,不用担心脸部信息被某AI公司给抓取了。

坐在教室里的孩子,被窗外的云雀转移了注意力,思绪飘去了远方,就走神了这么一小会,他不用害怕被AI发现。

其实,人类的很多灵感就在走神的瞬间迸发了出来。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章

读者评论


您可能感兴趣的资讯
OR


最新资讯
OR


摘要:技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。



撰文 | 财富

OR--商业新媒体 】去年4月,江西省南昌国际体育中心,张学友举办了一场演唱会,现场约有六万粉丝。演唱会开始没多久,警察来到中心看台带走了一名男子。据警方介绍,男子是一名在逃嫌犯。为了看张学友,前一天上午他和妻子朋友们驱车近100公里。在一场万人演唱会上,他以为不会有人注意到他。

确实,在6万人中锁定一个目标不容易,但对AI来说,不是问题。

人脸识别技术的本事可不止是抓逃犯。在我国,人脸识别技术至少进入安防、金融、交通、零售、医疗、校园等多个领域。这项AI技术给用户带来便捷,给各行各业带来了实实在在的推动甚至是变革。

阿里巴巴的蚂蚁金服利用“微笑支付”功能,让用户在肯德基点餐更便捷;

杭州一所高中以此技术监控学生出勤率;

深圳以及其他城市的交警则以之锁定乱穿马路的行人和自行车;

北京天坛附近一处公园,将该技术应用于公厕,以防止游客盗窃厕纸。

北京的地铁可能也要采用人脸识别技术了。

有消息称,北京或将建立地铁“白名单”及快速安检通道制度,通过应用人脸识别技术,乘客“刷脸”即可快速通过安检通道。

据称,此举能提升安检效率、精准识别可疑乘客、降低地铁安检成本、增强对犯罪分子的震慑力。

这项看上去合情合理的举措,却引发了不少担忧。

有人设想了一下未来北京地铁的情形。

早高峰时期,“白名单”乘客有序地通过无安检或者不严格安检的通道,比之前确实快多了。而有少数乘客——或许是因为没有去申请进入白名单,或许是真的没通过白名单申请——他们需要去到另一个队列,接受严格的安检。半个月之后,网上开始有人呼吁为“可疑”乘客设置单独的地铁车厢,因为和他们乘坐同一车厢,感觉随时有危险。

光明网评论员在“别把人脸识别技术搞成现代‘刺黥’”一文中,就此事提出质疑:“一个人即使是涉嫌犯罪或涉违约侵权,其有罪与否、违约侵权与否,都要经过法庭的公开审理才可定论。审理期间,公诉人与律师、原告和被告之间,都要对各自的证据进行质证,而后经庭审法官依法判定,即使这样,还不能避免冤错案件。而应用人脸识别技术对乘客实施分类,则是公民被一个设备看了一下脸,在无知情况下就被定类。这,可行吗?”

有偏见,与你无关
 
人脸识别可能带来的歧视和偏见,已经引发担忧了。究其原因,一是源于AI技术本身,一是源于该技术被不当使用。

谁说AI是中立的

软件公司Salesforce的首席科学家理查德•佐赫尔在《财富》国际头脑风暴科技大会上指出:“偏见将成为未来人工智能领域里的一个根本性问题。”

颠覆认知的是,大规模的数据收集与分析并不代表能产生客观中立的观点,反而有可能加深先前存在的偏见。

如果一家银行使用社交媒体来预测某人拖欠贷款的可能性,或是警方依赖预测模型来决定将哪类人列为嫌疑对象,那么从数据中发现的任何种族、性别或阶级偏见都可以反映出来,并且可能被这些模型放大,从而产生带有歧视性的结果。

再具体一点说。比如有人发现,一些人脸识别系统在识别深肤色和浅肤色人脸时,精确度往往不高,原因是用于训练该系统的深肤色人脸数据远远不足。最臭名昭著的一个例子是,美国部分州的司法部门使用了一套人脸识别系统,用来决定是否应该批准犯罪嫌疑人保释或假释。然而在犯罪记录相似的前提下,系统却认为黑人嫌犯比白人嫌犯有更高的再次犯罪风险。

佐赫尔认为,在构建人工智能系统的人自身变得更加多元化之前,有些类型的偏见是不太可能被彻底消除的。目前,很多从事人工智能软件开发的计算机工程师都是白人,而且当前开发的很多人工智能软件都只反映了城市富裕人口的需求。

有争议的应用场景

正如美国苹果CEO库克所说:“技术本身没有好与坏,一切由我们人来决定”。让我们感到害怕的不是人脸识别技术本身,而是其被过度、不当的应用。

今年9月,一段运用人脸识别技术来监控学生的视频,在网上引发了热议。

“趴桌子2次,玩手机2次,睡觉1次,听讲0次,阅读0次,举手0次,笑了0次,厌恶表情出现了10次……”

这项被称作是能够实现对学生“精准监控”的技术,在网络上迅速引发了争议。有网友指出,“学校应该是个培养人的地方,而正常人就应该有喜怒哀乐兴奋懈怠开怀懒倦的情绪不是吗?”

这条视频出自AI独角兽公司旷视科技,事发当晚该公司发出声明称:“近日网络上出现的一幅课堂行为分析图片,为技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全。”

但在同一天,刚刚开学的某高校同学们发现,校门口、学生宿舍门口、图书馆、实验楼、教室里多了很多的人脸识别摄像头。所用设备就是旷视科技的产品。

危险的脸

歧视并不是最可怕的,在一些时候,人脸识别技术被认为具有危险性。

《经济学人》刊发于2017年的报道提出,人脸本身存在特殊性,“人脸和其他生物特征数据,比如和指纹之间存在一个巨大区别是,它们可以远距离起作用。任何人只要有手机都能拍摄一张照片供人脸识别程序使用。”

因此人脸面部特征有着更为广阔的运用前景,随之而来的是更高的风险。

还记得前不久,一款名为“ZAO”的AI换脸软件突然火爆全网吧?上线当晚就直接冲到了App Store的第二名。可以说这款软件说把用户想要体验的AI换脸门槛降到了最低。但随着ZAO越来越火,用户们对它的质疑声也变得越来越大。

我们来看看它的用户协议。该项条款包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的用户或肖像权利人的肖像权,以及利用技术对其肖像进行形式改动。

这也就意味着,如果你签了该协议,你就在无形中将自己的肖像权拱手让人了,以后你的脸将完全有可能被别人随意使用,变换。

其实早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制作的AI换脸视频发布在了网络上,它能够把照片和视频中的人脸替换成任何想要替换的人脸,且效果十分逼真,有些肉眼甚至难以分辨真假。

当时,“deepfakes”把情色电影里的女主角换成了盖尔•加朵等好莱坞明星,这也是世界上所有人们第一次公开见识到AI换脸的强大——和危险。

市场调研公司Market Research Future称,人脸识别市场每年增长20%,预计到2022年将达到每年90亿美元。

开发顶尖软件的竞争中,胜出的公司必然要算法精确度很高,可以迅速识别面部,尽量减少误差。与人工智能其他领域一样,要开发出最好的面部识别算法,就得收集大量数据,也就是面部图像用来训练。

“收集并分析这些数据是有许多益处的。”凯洛格学院的一位营销学副教授卡特勒说道。“然而它的风险也很大,因为同样的信息也能够被恶意使用。”而即便是出于最大的善意研究这些数据,它们依然有可能产生预料之外的负面副作用。

为了改进算法,很多公司经常在未经许可的情况下利用数十亿张面部照片来进行算法训练。你自己的脸就可能在面部识别公司的“训练库”里,也可能在公司客户的数据库里。

最近,美国国家广播公司的一篇报道重点批评了类似做法,道详细描述了IBM如何从照片共享网站Flickr中抓走超过100万张面部照片,用作人工智能研究。

此外也存在黑客攻击的风险。网络安全公司Gemini Advisors的安德雷•巴雷舍维奇说,曾经见过从印度国家生物特征数据库中窃取的资料,都在“暗网”上出售。他还没发现有人出售美国人面部数据库,但补充说,“这只是时间问题。”如果发生这种情况,从酒店或零售商盗取的顾客面部图片可以帮助罪犯实施诈骗或冒充身份。

我们是否太宽容

数据泄露和数据严重滥用通常会引发消费者的强烈抗议。然而,我们实际上对数据滥用的容忍度也让人意外。

人脸识别公司FaceFirst的特雷普说:“80、90后更愿意提供面部图像。《少数派报告》里呈现的世界即将到来。如果做得好,人们将享受到便利,而且将变成积极的经历。不会感觉太古怪。”

那么问题来了:是否越来越多的人愿意用隐私来换取便利?他们都知道背后的风险么?监管部门是否能扮演保护者的角色?

乔治敦大学的研究员加维支持由法律监督该项技术。但她也表示立法者很难跟上技术发展的脚步:“跟指纹不一样的是,长期以来指纹采集的方式和时间一直有规则限制,而面部识别技术领域没有规则。”

很多情况下,消费者没有意识到自己在巨大数据集的正式与非正式研究中扮演“参加者”的角色。

在注册获得一项免费服务,或申请信用卡时,“大多数人都不知道自己同意了哪些事项,也不知道他们的数据会被用来做什么。” 凯洛格学院的卡特勒教授说。“他们或许会感到不安,但对于他们的数据会被如何使用,以及可能带来的损害则无了解。”

大多数人除了接受伴随新技术的益处而来的弊端之外别无选择,因为拒绝的成本往往太高。

不能缺席的法律法规

2017年12月15日,德国柏林火车站测试脸部识别系统,旨在协助反恐。图片来源:视觉中国
很多人开始警惕人脸识别技术的滥用,“反人脸识别”技术也开始涌现。比如“脑门贴纸”——穿戴绘制特定图案的眼镜、帽子、衣服能够有效干扰机器视觉,避免算法对人的识别。

当然,这并非是理想的解决方案。

中国清华大学法学教授劳东燕在其公众号发文称,有必要对人脸识别进行法律规制。劳东燕主阐述了四点原因,一是人脸是重要的个人生物数据,相关机构或组织在收集之前需证明合法性;二是需征求公众意见,经过严格的听证过程;三是验证分类标准的合理性和合法性;四是验证人脸识别技术的通行效率。

法学博士史宇航称,在我国正在制定的“民法典人格权编”草案二审稿中,就将面部特征等个人生物识别信息纳入个人信息的范畴。除此以外,面部特征还涉及肖像权的保护问题,是传统法律关系与新兴法律关系的碰撞与融合。围绕面部特征等个人信息的收集、利用,各国法律大多是以用户的“知情-同意”作为合法的基础。

美国已经有多个城市制定了与人脸识别数据相关的法案,禁止人脸识别技术的使用。

英国警方因为使用人脸识别技术,被认为侵犯了隐私而被告上法庭。这也是英国首宗因人脸识别技术而起的法律诉讼。

加拿大隐私专员办公室已在调查商场使用面部识别技术的合法性问题。

2019年8月,瑞典数据保护机构对瑞典一所中学因违反通用数据保护条例而判处2万欧元罚款。中学工作人员在一个教室里面安装了一部人脸识别相机作为实验,以检测采用此种方式登记学生考勤是否更为迅速,该实验共涉及22名学生。瑞典数据保护机构认为中学征得的同意不是“自由作出的”,并且不符合最小必要性原则。

在旷视科技的官方声明中,我们看到这样一句话:“旷视始终坚持技术向善,让人工智能造福所有人。”

技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。

乘客去坐地铁,不用担心被安检人员叫到一边去仔细搜查。

行人走在大街上,看蓝天白云,绿树红花,不用在脑门贴纸,不用担心脸部信息被某AI公司给抓取了。

坐在教室里的孩子,被窗外的云雀转移了注意力,思绪飘去了远方,就走神了这么一小会,他不用害怕被AI发现。

其实,人类的很多灵感就在走神的瞬间迸发了出来。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章



地铁或采用人脸识别,你在“白名单”里吗?

发布日期:2019-11-02 08:41
摘要:技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。



撰文 | 财富

OR--商业新媒体 】去年4月,江西省南昌国际体育中心,张学友举办了一场演唱会,现场约有六万粉丝。演唱会开始没多久,警察来到中心看台带走了一名男子。据警方介绍,男子是一名在逃嫌犯。为了看张学友,前一天上午他和妻子朋友们驱车近100公里。在一场万人演唱会上,他以为不会有人注意到他。

确实,在6万人中锁定一个目标不容易,但对AI来说,不是问题。

人脸识别技术的本事可不止是抓逃犯。在我国,人脸识别技术至少进入安防、金融、交通、零售、医疗、校园等多个领域。这项AI技术给用户带来便捷,给各行各业带来了实实在在的推动甚至是变革。

阿里巴巴的蚂蚁金服利用“微笑支付”功能,让用户在肯德基点餐更便捷;

杭州一所高中以此技术监控学生出勤率;

深圳以及其他城市的交警则以之锁定乱穿马路的行人和自行车;

北京天坛附近一处公园,将该技术应用于公厕,以防止游客盗窃厕纸。

北京的地铁可能也要采用人脸识别技术了。

有消息称,北京或将建立地铁“白名单”及快速安检通道制度,通过应用人脸识别技术,乘客“刷脸”即可快速通过安检通道。

据称,此举能提升安检效率、精准识别可疑乘客、降低地铁安检成本、增强对犯罪分子的震慑力。

这项看上去合情合理的举措,却引发了不少担忧。

有人设想了一下未来北京地铁的情形。

早高峰时期,“白名单”乘客有序地通过无安检或者不严格安检的通道,比之前确实快多了。而有少数乘客——或许是因为没有去申请进入白名单,或许是真的没通过白名单申请——他们需要去到另一个队列,接受严格的安检。半个月之后,网上开始有人呼吁为“可疑”乘客设置单独的地铁车厢,因为和他们乘坐同一车厢,感觉随时有危险。

光明网评论员在“别把人脸识别技术搞成现代‘刺黥’”一文中,就此事提出质疑:“一个人即使是涉嫌犯罪或涉违约侵权,其有罪与否、违约侵权与否,都要经过法庭的公开审理才可定论。审理期间,公诉人与律师、原告和被告之间,都要对各自的证据进行质证,而后经庭审法官依法判定,即使这样,还不能避免冤错案件。而应用人脸识别技术对乘客实施分类,则是公民被一个设备看了一下脸,在无知情况下就被定类。这,可行吗?”

有偏见,与你无关
 
人脸识别可能带来的歧视和偏见,已经引发担忧了。究其原因,一是源于AI技术本身,一是源于该技术被不当使用。

谁说AI是中立的

软件公司Salesforce的首席科学家理查德•佐赫尔在《财富》国际头脑风暴科技大会上指出:“偏见将成为未来人工智能领域里的一个根本性问题。”

颠覆认知的是,大规模的数据收集与分析并不代表能产生客观中立的观点,反而有可能加深先前存在的偏见。

如果一家银行使用社交媒体来预测某人拖欠贷款的可能性,或是警方依赖预测模型来决定将哪类人列为嫌疑对象,那么从数据中发现的任何种族、性别或阶级偏见都可以反映出来,并且可能被这些模型放大,从而产生带有歧视性的结果。

再具体一点说。比如有人发现,一些人脸识别系统在识别深肤色和浅肤色人脸时,精确度往往不高,原因是用于训练该系统的深肤色人脸数据远远不足。最臭名昭著的一个例子是,美国部分州的司法部门使用了一套人脸识别系统,用来决定是否应该批准犯罪嫌疑人保释或假释。然而在犯罪记录相似的前提下,系统却认为黑人嫌犯比白人嫌犯有更高的再次犯罪风险。

佐赫尔认为,在构建人工智能系统的人自身变得更加多元化之前,有些类型的偏见是不太可能被彻底消除的。目前,很多从事人工智能软件开发的计算机工程师都是白人,而且当前开发的很多人工智能软件都只反映了城市富裕人口的需求。

有争议的应用场景

正如美国苹果CEO库克所说:“技术本身没有好与坏,一切由我们人来决定”。让我们感到害怕的不是人脸识别技术本身,而是其被过度、不当的应用。

今年9月,一段运用人脸识别技术来监控学生的视频,在网上引发了热议。

“趴桌子2次,玩手机2次,睡觉1次,听讲0次,阅读0次,举手0次,笑了0次,厌恶表情出现了10次……”

这项被称作是能够实现对学生“精准监控”的技术,在网络上迅速引发了争议。有网友指出,“学校应该是个培养人的地方,而正常人就应该有喜怒哀乐兴奋懈怠开怀懒倦的情绪不是吗?”

这条视频出自AI独角兽公司旷视科技,事发当晚该公司发出声明称:“近日网络上出现的一幅课堂行为分析图片,为技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全。”

但在同一天,刚刚开学的某高校同学们发现,校门口、学生宿舍门口、图书馆、实验楼、教室里多了很多的人脸识别摄像头。所用设备就是旷视科技的产品。

危险的脸

歧视并不是最可怕的,在一些时候,人脸识别技术被认为具有危险性。

《经济学人》刊发于2017年的报道提出,人脸本身存在特殊性,“人脸和其他生物特征数据,比如和指纹之间存在一个巨大区别是,它们可以远距离起作用。任何人只要有手机都能拍摄一张照片供人脸识别程序使用。”

因此人脸面部特征有着更为广阔的运用前景,随之而来的是更高的风险。

还记得前不久,一款名为“ZAO”的AI换脸软件突然火爆全网吧?上线当晚就直接冲到了App Store的第二名。可以说这款软件说把用户想要体验的AI换脸门槛降到了最低。但随着ZAO越来越火,用户们对它的质疑声也变得越来越大。

我们来看看它的用户协议。该项条款包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的用户或肖像权利人的肖像权,以及利用技术对其肖像进行形式改动。

这也就意味着,如果你签了该协议,你就在无形中将自己的肖像权拱手让人了,以后你的脸将完全有可能被别人随意使用,变换。

其实早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制作的AI换脸视频发布在了网络上,它能够把照片和视频中的人脸替换成任何想要替换的人脸,且效果十分逼真,有些肉眼甚至难以分辨真假。

当时,“deepfakes”把情色电影里的女主角换成了盖尔•加朵等好莱坞明星,这也是世界上所有人们第一次公开见识到AI换脸的强大——和危险。

市场调研公司Market Research Future称,人脸识别市场每年增长20%,预计到2022年将达到每年90亿美元。

开发顶尖软件的竞争中,胜出的公司必然要算法精确度很高,可以迅速识别面部,尽量减少误差。与人工智能其他领域一样,要开发出最好的面部识别算法,就得收集大量数据,也就是面部图像用来训练。

“收集并分析这些数据是有许多益处的。”凯洛格学院的一位营销学副教授卡特勒说道。“然而它的风险也很大,因为同样的信息也能够被恶意使用。”而即便是出于最大的善意研究这些数据,它们依然有可能产生预料之外的负面副作用。

为了改进算法,很多公司经常在未经许可的情况下利用数十亿张面部照片来进行算法训练。你自己的脸就可能在面部识别公司的“训练库”里,也可能在公司客户的数据库里。

最近,美国国家广播公司的一篇报道重点批评了类似做法,道详细描述了IBM如何从照片共享网站Flickr中抓走超过100万张面部照片,用作人工智能研究。

此外也存在黑客攻击的风险。网络安全公司Gemini Advisors的安德雷•巴雷舍维奇说,曾经见过从印度国家生物特征数据库中窃取的资料,都在“暗网”上出售。他还没发现有人出售美国人面部数据库,但补充说,“这只是时间问题。”如果发生这种情况,从酒店或零售商盗取的顾客面部图片可以帮助罪犯实施诈骗或冒充身份。

我们是否太宽容

数据泄露和数据严重滥用通常会引发消费者的强烈抗议。然而,我们实际上对数据滥用的容忍度也让人意外。

人脸识别公司FaceFirst的特雷普说:“80、90后更愿意提供面部图像。《少数派报告》里呈现的世界即将到来。如果做得好,人们将享受到便利,而且将变成积极的经历。不会感觉太古怪。”

那么问题来了:是否越来越多的人愿意用隐私来换取便利?他们都知道背后的风险么?监管部门是否能扮演保护者的角色?

乔治敦大学的研究员加维支持由法律监督该项技术。但她也表示立法者很难跟上技术发展的脚步:“跟指纹不一样的是,长期以来指纹采集的方式和时间一直有规则限制,而面部识别技术领域没有规则。”

很多情况下,消费者没有意识到自己在巨大数据集的正式与非正式研究中扮演“参加者”的角色。

在注册获得一项免费服务,或申请信用卡时,“大多数人都不知道自己同意了哪些事项,也不知道他们的数据会被用来做什么。” 凯洛格学院的卡特勒教授说。“他们或许会感到不安,但对于他们的数据会被如何使用,以及可能带来的损害则无了解。”

大多数人除了接受伴随新技术的益处而来的弊端之外别无选择,因为拒绝的成本往往太高。

不能缺席的法律法规

2017年12月15日,德国柏林火车站测试脸部识别系统,旨在协助反恐。图片来源:视觉中国
很多人开始警惕人脸识别技术的滥用,“反人脸识别”技术也开始涌现。比如“脑门贴纸”——穿戴绘制特定图案的眼镜、帽子、衣服能够有效干扰机器视觉,避免算法对人的识别。

当然,这并非是理想的解决方案。

中国清华大学法学教授劳东燕在其公众号发文称,有必要对人脸识别进行法律规制。劳东燕主阐述了四点原因,一是人脸是重要的个人生物数据,相关机构或组织在收集之前需证明合法性;二是需征求公众意见,经过严格的听证过程;三是验证分类标准的合理性和合法性;四是验证人脸识别技术的通行效率。

法学博士史宇航称,在我国正在制定的“民法典人格权编”草案二审稿中,就将面部特征等个人生物识别信息纳入个人信息的范畴。除此以外,面部特征还涉及肖像权的保护问题,是传统法律关系与新兴法律关系的碰撞与融合。围绕面部特征等个人信息的收集、利用,各国法律大多是以用户的“知情-同意”作为合法的基础。

美国已经有多个城市制定了与人脸识别数据相关的法案,禁止人脸识别技术的使用。

英国警方因为使用人脸识别技术,被认为侵犯了隐私而被告上法庭。这也是英国首宗因人脸识别技术而起的法律诉讼。

加拿大隐私专员办公室已在调查商场使用面部识别技术的合法性问题。

2019年8月,瑞典数据保护机构对瑞典一所中学因违反通用数据保护条例而判处2万欧元罚款。中学工作人员在一个教室里面安装了一部人脸识别相机作为实验,以检测采用此种方式登记学生考勤是否更为迅速,该实验共涉及22名学生。瑞典数据保护机构认为中学征得的同意不是“自由作出的”,并且不符合最小必要性原则。

在旷视科技的官方声明中,我们看到这样一句话:“旷视始终坚持技术向善,让人工智能造福所有人。”

技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。

乘客去坐地铁,不用担心被安检人员叫到一边去仔细搜查。

行人走在大街上,看蓝天白云,绿树红花,不用在脑门贴纸,不用担心脸部信息被某AI公司给抓取了。

坐在教室里的孩子,被窗外的云雀转移了注意力,思绪飘去了远方,就走神了这么一小会,他不用害怕被AI发现。

其实,人类的很多灵感就在走神的瞬间迸发了出来。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章
摘要:技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。



撰文 | 财富

OR--商业新媒体 】去年4月,江西省南昌国际体育中心,张学友举办了一场演唱会,现场约有六万粉丝。演唱会开始没多久,警察来到中心看台带走了一名男子。据警方介绍,男子是一名在逃嫌犯。为了看张学友,前一天上午他和妻子朋友们驱车近100公里。在一场万人演唱会上,他以为不会有人注意到他。

确实,在6万人中锁定一个目标不容易,但对AI来说,不是问题。

人脸识别技术的本事可不止是抓逃犯。在我国,人脸识别技术至少进入安防、金融、交通、零售、医疗、校园等多个领域。这项AI技术给用户带来便捷,给各行各业带来了实实在在的推动甚至是变革。

阿里巴巴的蚂蚁金服利用“微笑支付”功能,让用户在肯德基点餐更便捷;

杭州一所高中以此技术监控学生出勤率;

深圳以及其他城市的交警则以之锁定乱穿马路的行人和自行车;

北京天坛附近一处公园,将该技术应用于公厕,以防止游客盗窃厕纸。

北京的地铁可能也要采用人脸识别技术了。

有消息称,北京或将建立地铁“白名单”及快速安检通道制度,通过应用人脸识别技术,乘客“刷脸”即可快速通过安检通道。

据称,此举能提升安检效率、精准识别可疑乘客、降低地铁安检成本、增强对犯罪分子的震慑力。

这项看上去合情合理的举措,却引发了不少担忧。

有人设想了一下未来北京地铁的情形。

早高峰时期,“白名单”乘客有序地通过无安检或者不严格安检的通道,比之前确实快多了。而有少数乘客——或许是因为没有去申请进入白名单,或许是真的没通过白名单申请——他们需要去到另一个队列,接受严格的安检。半个月之后,网上开始有人呼吁为“可疑”乘客设置单独的地铁车厢,因为和他们乘坐同一车厢,感觉随时有危险。

光明网评论员在“别把人脸识别技术搞成现代‘刺黥’”一文中,就此事提出质疑:“一个人即使是涉嫌犯罪或涉违约侵权,其有罪与否、违约侵权与否,都要经过法庭的公开审理才可定论。审理期间,公诉人与律师、原告和被告之间,都要对各自的证据进行质证,而后经庭审法官依法判定,即使这样,还不能避免冤错案件。而应用人脸识别技术对乘客实施分类,则是公民被一个设备看了一下脸,在无知情况下就被定类。这,可行吗?”

有偏见,与你无关
 
人脸识别可能带来的歧视和偏见,已经引发担忧了。究其原因,一是源于AI技术本身,一是源于该技术被不当使用。

谁说AI是中立的

软件公司Salesforce的首席科学家理查德•佐赫尔在《财富》国际头脑风暴科技大会上指出:“偏见将成为未来人工智能领域里的一个根本性问题。”

颠覆认知的是,大规模的数据收集与分析并不代表能产生客观中立的观点,反而有可能加深先前存在的偏见。

如果一家银行使用社交媒体来预测某人拖欠贷款的可能性,或是警方依赖预测模型来决定将哪类人列为嫌疑对象,那么从数据中发现的任何种族、性别或阶级偏见都可以反映出来,并且可能被这些模型放大,从而产生带有歧视性的结果。

再具体一点说。比如有人发现,一些人脸识别系统在识别深肤色和浅肤色人脸时,精确度往往不高,原因是用于训练该系统的深肤色人脸数据远远不足。最臭名昭著的一个例子是,美国部分州的司法部门使用了一套人脸识别系统,用来决定是否应该批准犯罪嫌疑人保释或假释。然而在犯罪记录相似的前提下,系统却认为黑人嫌犯比白人嫌犯有更高的再次犯罪风险。

佐赫尔认为,在构建人工智能系统的人自身变得更加多元化之前,有些类型的偏见是不太可能被彻底消除的。目前,很多从事人工智能软件开发的计算机工程师都是白人,而且当前开发的很多人工智能软件都只反映了城市富裕人口的需求。

有争议的应用场景

正如美国苹果CEO库克所说:“技术本身没有好与坏,一切由我们人来决定”。让我们感到害怕的不是人脸识别技术本身,而是其被过度、不当的应用。

今年9月,一段运用人脸识别技术来监控学生的视频,在网上引发了热议。

“趴桌子2次,玩手机2次,睡觉1次,听讲0次,阅读0次,举手0次,笑了0次,厌恶表情出现了10次……”

这项被称作是能够实现对学生“精准监控”的技术,在网络上迅速引发了争议。有网友指出,“学校应该是个培养人的地方,而正常人就应该有喜怒哀乐兴奋懈怠开怀懒倦的情绪不是吗?”

这条视频出自AI独角兽公司旷视科技,事发当晚该公司发出声明称:“近日网络上出现的一幅课堂行为分析图片,为技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全。”

但在同一天,刚刚开学的某高校同学们发现,校门口、学生宿舍门口、图书馆、实验楼、教室里多了很多的人脸识别摄像头。所用设备就是旷视科技的产品。

危险的脸

歧视并不是最可怕的,在一些时候,人脸识别技术被认为具有危险性。

《经济学人》刊发于2017年的报道提出,人脸本身存在特殊性,“人脸和其他生物特征数据,比如和指纹之间存在一个巨大区别是,它们可以远距离起作用。任何人只要有手机都能拍摄一张照片供人脸识别程序使用。”

因此人脸面部特征有着更为广阔的运用前景,随之而来的是更高的风险。

还记得前不久,一款名为“ZAO”的AI换脸软件突然火爆全网吧?上线当晚就直接冲到了App Store的第二名。可以说这款软件说把用户想要体验的AI换脸门槛降到了最低。但随着ZAO越来越火,用户们对它的质疑声也变得越来越大。

我们来看看它的用户协议。该项条款包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的用户或肖像权利人的肖像权,以及利用技术对其肖像进行形式改动。

这也就意味着,如果你签了该协议,你就在无形中将自己的肖像权拱手让人了,以后你的脸将完全有可能被别人随意使用,变换。

其实早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制作的AI换脸视频发布在了网络上,它能够把照片和视频中的人脸替换成任何想要替换的人脸,且效果十分逼真,有些肉眼甚至难以分辨真假。

当时,“deepfakes”把情色电影里的女主角换成了盖尔•加朵等好莱坞明星,这也是世界上所有人们第一次公开见识到AI换脸的强大——和危险。

市场调研公司Market Research Future称,人脸识别市场每年增长20%,预计到2022年将达到每年90亿美元。

开发顶尖软件的竞争中,胜出的公司必然要算法精确度很高,可以迅速识别面部,尽量减少误差。与人工智能其他领域一样,要开发出最好的面部识别算法,就得收集大量数据,也就是面部图像用来训练。

“收集并分析这些数据是有许多益处的。”凯洛格学院的一位营销学副教授卡特勒说道。“然而它的风险也很大,因为同样的信息也能够被恶意使用。”而即便是出于最大的善意研究这些数据,它们依然有可能产生预料之外的负面副作用。

为了改进算法,很多公司经常在未经许可的情况下利用数十亿张面部照片来进行算法训练。你自己的脸就可能在面部识别公司的“训练库”里,也可能在公司客户的数据库里。

最近,美国国家广播公司的一篇报道重点批评了类似做法,道详细描述了IBM如何从照片共享网站Flickr中抓走超过100万张面部照片,用作人工智能研究。

此外也存在黑客攻击的风险。网络安全公司Gemini Advisors的安德雷•巴雷舍维奇说,曾经见过从印度国家生物特征数据库中窃取的资料,都在“暗网”上出售。他还没发现有人出售美国人面部数据库,但补充说,“这只是时间问题。”如果发生这种情况,从酒店或零售商盗取的顾客面部图片可以帮助罪犯实施诈骗或冒充身份。

我们是否太宽容

数据泄露和数据严重滥用通常会引发消费者的强烈抗议。然而,我们实际上对数据滥用的容忍度也让人意外。

人脸识别公司FaceFirst的特雷普说:“80、90后更愿意提供面部图像。《少数派报告》里呈现的世界即将到来。如果做得好,人们将享受到便利,而且将变成积极的经历。不会感觉太古怪。”

那么问题来了:是否越来越多的人愿意用隐私来换取便利?他们都知道背后的风险么?监管部门是否能扮演保护者的角色?

乔治敦大学的研究员加维支持由法律监督该项技术。但她也表示立法者很难跟上技术发展的脚步:“跟指纹不一样的是,长期以来指纹采集的方式和时间一直有规则限制,而面部识别技术领域没有规则。”

很多情况下,消费者没有意识到自己在巨大数据集的正式与非正式研究中扮演“参加者”的角色。

在注册获得一项免费服务,或申请信用卡时,“大多数人都不知道自己同意了哪些事项,也不知道他们的数据会被用来做什么。” 凯洛格学院的卡特勒教授说。“他们或许会感到不安,但对于他们的数据会被如何使用,以及可能带来的损害则无了解。”

大多数人除了接受伴随新技术的益处而来的弊端之外别无选择,因为拒绝的成本往往太高。

不能缺席的法律法规

2017年12月15日,德国柏林火车站测试脸部识别系统,旨在协助反恐。图片来源:视觉中国
很多人开始警惕人脸识别技术的滥用,“反人脸识别”技术也开始涌现。比如“脑门贴纸”——穿戴绘制特定图案的眼镜、帽子、衣服能够有效干扰机器视觉,避免算法对人的识别。

当然,这并非是理想的解决方案。

中国清华大学法学教授劳东燕在其公众号发文称,有必要对人脸识别进行法律规制。劳东燕主阐述了四点原因,一是人脸是重要的个人生物数据,相关机构或组织在收集之前需证明合法性;二是需征求公众意见,经过严格的听证过程;三是验证分类标准的合理性和合法性;四是验证人脸识别技术的通行效率。

法学博士史宇航称,在我国正在制定的“民法典人格权编”草案二审稿中,就将面部特征等个人生物识别信息纳入个人信息的范畴。除此以外,面部特征还涉及肖像权的保护问题,是传统法律关系与新兴法律关系的碰撞与融合。围绕面部特征等个人信息的收集、利用,各国法律大多是以用户的“知情-同意”作为合法的基础。

美国已经有多个城市制定了与人脸识别数据相关的法案,禁止人脸识别技术的使用。

英国警方因为使用人脸识别技术,被认为侵犯了隐私而被告上法庭。这也是英国首宗因人脸识别技术而起的法律诉讼。

加拿大隐私专员办公室已在调查商场使用面部识别技术的合法性问题。

2019年8月,瑞典数据保护机构对瑞典一所中学因违反通用数据保护条例而判处2万欧元罚款。中学工作人员在一个教室里面安装了一部人脸识别相机作为实验,以检测采用此种方式登记学生考勤是否更为迅速,该实验共涉及22名学生。瑞典数据保护机构认为中学征得的同意不是“自由作出的”,并且不符合最小必要性原则。

在旷视科技的官方声明中,我们看到这样一句话:“旷视始终坚持技术向善,让人工智能造福所有人。”

技术是没有善恶之分的,只有善用或滥用。善用技术的一项标准,就是有所为有所不为。

乘客去坐地铁,不用担心被安检人员叫到一边去仔细搜查。

行人走在大街上,看蓝天白云,绿树红花,不用在脑门贴纸,不用担心脸部信息被某AI公司给抓取了。

坐在教室里的孩子,被窗外的云雀转移了注意力,思绪飘去了远方,就走神了这么一小会,他不用害怕被AI发现。

其实,人类的很多灵感就在走神的瞬间迸发了出来。■ 



(注:本文仅代表作者个人观点。责编邮箱    service@or123.top)



  相关文章

读者评论


您可能感兴趣的资讯
OR



最新资讯
OR