人脸是个了不起的杰作。正是由于我们的面部存在数量惊人的特征,才帮助人们可以认出彼此,这也成为复杂的社会关系得以建立的重要基础。通过面部表情传达信号的能力同样十分重要,例如不由自主的面红耳赤或虚情假意。
无论是在办公室、法院,还是酒吧、卧室,人们清醒的时候都会花费很多时间解读人脸,寻找吸引力、敌意、信任、欺诈等各种各样的信号。他们还会花费很多时间掩盖自己的意图。
但科技正在人脸识别领域快速追赶人类。在美国,已经有教堂利用人脸识别来追踪做礼拜的人;在英国,还有零售商借此锁定曾经的商场扒手。今年,威尔士警方还利用这项技术在一个足球场外逮捕了一名嫌疑人。中国则用它认证专车司机的身份,为游客提供景点门票,让人们用微笑付款。苹果新iPhone也将利用人脸识别解锁主屏。
由于人类本身已经具备这种功能,所以人脸识别似乎只是锦上添花。飞机和互联网等技术突破显然改变了人类的能力,而人脸识别似乎只是解码了人类的能力而已。虽然每个人的面部各有不同,但也都会公开展示出来,所以乍一看,这种技术似乎不会威胁隐私。
然而,由于可以又快又便宜地批量分析面部图片,因此这项技术有朝一日可能会彻底改变隐私、公平和信任这些概念。
隐私担忧
先来看隐私。人脸与指纹等其他生物统计数据的重要差异在于,它可以在很远的距离之外识别出来。任何人只要有手机都能拍摄一张照片供人脸识别程序使用。
俄罗斯应用FindeFace将陌生人的照片与社交网络VKontakte上的照片进行对比,准确率可以达到70%。Facebook的人脸图片库不对外界开放,但这家硅谷巨头可以获取某家车行的客流图片,然后利用人脸设备向其发送汽车广告。
即使私有公司无法在图片与身份之间建立联系,政府却可以做到。中国政府保留着每个公民的面部照片,半数美国成年人的照片也都存储在FBI的数据库里,执法机构现在拥有强大的武器来追踪犯罪分子,但公民也会因此丧失一部分隐私。
人脸不仅是个姓名标签,还可以展示出许多其他信息——机器也可以读取这些信息。另外,有的公司可以通过分析人脸自动诊断Hajdu-Cheney综合征等罕见的基因疾病,而且能比其他监测手段更早地检测出这种疾病。情绪衡量系统甚至可以帮助自闭症人士掌握他们自己难以捕捉的社交信号。
但这种技术也蕴含着风险。斯坦福大学研究人员证实,当展示一个同性恋男士和一个异性恋男士的图片时,算法的识别率可以达到81%。人类却只有61%。在那些把同性恋视作犯罪行为的国家,用软件来推测性取向可能会引发不良后果。
影响广泛
暴力程度较低的歧视将会更加普遍。雇主本就可以按照自己的偏见拒绝某人,但人脸识别可以让这种偏见变得常态化,使得公司根据种族、智力和性取向等特征过滤所有的求职者。
夜店和球场也可能面临压力,因为他们可能不得不通过扫描入场者的面部来减少暴力威胁——尽管由于机器学习的特性,所有的人脸识别系统都会存在误差。
除此之外,这种系统可能还会对有色人种形成偏见,原因在于,倘若算法在接受训练时使用的数据以白人为主,那就可能不太适用于其他人种。在法院利用自动化技术评估保释和判决问题时,已经出现了这种偏见。
最后,持续的面部记录,以及能够将计算机化的数据绘制到现实图像上的电子设备,或许会改变社交互动模式。遮盖面部或许有助于润滑日常生活。如果你的伴侣能够看出你努力压制的每个哈欠,你的老板也能洞察你内心克制的每一份怒火,那么婚姻和工作关系肯定会更加可信,但和谐度却会大大降低。
社交互动的基础或许也会改变,原本是基于信任做出一系列承诺,今后则会变成以某人的面部识别信息计算出来的风险收益比。人际关系可能变得而更加理性,但也会更加功利。
在民主国家里,至少可以借助立法改变利弊之间的平衡。欧洲立法者已经在即将颁布的数据保护法中加入了一系列规定,认定包括“面部指纹”在内的生物识别信息都属于它的主人,必须获得许可才能使用——因此,与美国不同,Facebook不能在欧洲向去过车行的顾客展示广告。
可能还会出台专门的法律,禁止雇主利用面部识别技术筛选应聘者。商用面部识别系统供应商可能会被要求提交审计报告,以便证明他们的系统没有在无意间传播偏见。使用这类技术的公司也要肩负一定责任。
但这些法规都无法改变发展趋势。随着可穿戴设备的普及,摄像头会渗透到生活的更多角落。从墨镜到化妆等各种各样旨在欺骗人脸识别系统的措施,都在被一一攻克:剑桥大学的研究显示,即使经过伪装,人工智能也可以重构人们的面部结构。
谷歌(微博)已经明确拒绝将人脸与身份进行匹配,担心因此遭到滥用。其他科技公司似乎没有那么坚决。亚马逊和微软都在使用云计算服务提供人脸识别,而Facebook也将其列为核心计划。政府肯定不想放弃由此带来的好处。改变将至,让我们共同面对。
扫一扫在手机上阅读本文章