原来段子里的“刷脸”时代真的来了。据报道进入9月,“刷脸”新闻频频进入公众视野:北京某大学宿舍楼全部安装了人脸识别门禁系统;杭州一家餐厅可以“刷脸”支付;多个银行可以“刷脸”转账;而最新出的iPhoneX也支持FaceID和支付……人脸识别技术应用“爆发”,随着人们对隐私意识的提升,这些应用背后的用户消费隐私安全吗?
先说隐私。人脸相比指纹等其他生物特征数据的一个巨大区别就是它们能够远距离起作用。人们只要有手机就可以拍下照片,供人脸识别程序使用。俄罗斯的一款应用FindFace抓拍陌生人的照片与社交网络VKontakte上的照片比对,识别人的准确率达70%。Facebook的面部图片库不能被其他人提取,但是,举个例子,这家硅谷巨头可以获得汽车展厅内到访者的照片,然后使用人脸识别技术在自己的网站上找到这些人,向他们发送汽车广告。即使私人公司无法将照片和身份联系起来,国家往往可以做到。中国政府有公民的面部记录;美国半数成年人口的照片储存在数据库中,可供FBI使用。如今,执法机关在追踪罪犯方面拥有了一个强大的武器,但它可能会令公民隐私遭受巨大的损害。
人脸不仅仅能表明身份,它还显示了许多其他信息,同样能由机器读取。这同样带来了一些益处。一些公司正通过分析脸部特征来自动诊断罕见遗传疾病,比如Hajdu-Cheney综合症【译注:颅骨发育不良伴肢端溶骨症】,和其他可能的手段相比,早早就发现了病情。测量情绪的系统也许能让自闭症患者更好地理解对他们来说难以捉摸的社交信号。但这项技术也造成了威胁。斯坦福大学的研究人员已经证明,面对一个男同性恋者和一个异性恋者的照片时,算法识别他们性取向的准确率可以达到81%。人类只能达到61%。在那些视同性恋为犯罪的国家,一个能从面部推断出性取向的软件让人恐惧。
不那么暴力的歧视也可能变得普遍。雇主本来就可能会根据自己的偏见来拒绝雇用某个人,而人脸识别也许会让这种偏见成为常态,令公司能够通过种族以及显现智力水平和性取向的特征过滤所有工作申请。夜总会和体育场馆也许会受到压力,可能需要扫描访客的脸来识别暴力威胁,从而保护人们――尽管由于机器学习的性质,所有的人脸识别系统都不可避免地面对概率问题。此外,这类系统可能会对那些非白色皮肤的人有偏见,因为用来训练算法的数据集里大部分是白人面孔,这样的算法不太适用于其他种族。在影响法院保释和量刑决定的自动评估工具中,已经出现过这样的偏见。
最终,持续的面部记录和用计算机数据测量真实世界的小工具可能会改变社交互动的本质。掩饰有助于润滑日常生活的齿轮。如果你的伴侣能发现每一个强压下去的哈欠,你的老板能觉察每一丝恼怒的表情,婚姻和工作关系都会变得更真实,但也更不和谐。社交互动的基础可能也会改变,从基于信任的一系列承诺,变成对风险和回报的算计,这些算计则源自于计算机对人们面部信息的解读。人际关系可能变得更理性,但也变得更像交易。
至少在民主国家,立法可以帮助改变利弊之间的平衡。欧洲监管机构已在即将出台的数据保护法规中嵌入了一套原则,规定包括“脸纹”在内的生物信息属于其所有者,使用这些信息需要征得本人同意。这样,Facebook在欧洲就不能像在美国那样,直接向参观汽车展的人推送广告了。反歧视法律可以适用于筛选求职者照片的雇主。商业人脸识别系统的供应商可能要接受审核,证明它们的系统没有在无意中传播偏见。使用这些技术的公司也应该被问责。
然而这类规定并不能改变发展的方向。随着可穿戴设备的普及,摄像头只会越来越普遍。从太阳镜到化妆,试图欺骗人脸识别系统的种种努力已被挫败。剑桥大学的研究表明,人工智能可以重建伪装之下的面部结构。谷歌已经明确表示不会将面部信息和身份匹配,担心这会被非民主政权滥用。其他的科技公司似乎没那么讲究。亚马逊和微软都在使用它们的云服务来提供人脸识别,这项技术也是Facebook计划的核心。政府不会想放弃自己的利益。改变即将到来。直面它吧。
“人脸识别”就好比是一把芝麻开门的钥匙,开启系统,进入应用,或者以“刷脸”作为一种支付路径,而正是在这个过程中,大量的用户“人脸”信息被采集并储存。不只苹果系统,其他与之连通的商业机构、组织等均有可能“正当”地获取众人的个人信息。这本身就是一个庞大的个人“生物特征”标本库。
并不是说,“人脸”被收录就必然指向泄漏,乃至被别有用心者倒卖,或被用来行骗牟利。只是刷脸技术的成熟,让我们真正进入了一个“弱隐私”时代。一旦用户的账户信息以及人脸特征同时外泄,利用“人脸识别”技术将个人财产转移,并非天方夜谭。此前,因个人信息泄漏而导致的诈骗事件并不鲜见。
用户的隐私保护,不能全靠企业的良心。在一个新技术日新月异、个人信息收录十分便捷的时代,如何看好我们的脸、保护好公民的个人隐私,不仅民众个体要多一些戒备与防范意识,企业也应该多一些技术层面的保障措施,监管也要及时跟进。
责任编辑:张泽群