李飞飞为什么要研究人工智能?李飞飞是谁AI中的偏见又如何消除
原文 | Wired
出品 | NEXTTECH
编译 | Ali
李飞飞身上有很多标签,其中最引人注目的莫过于“人工智能科学家”这个身份。关于李飞飞的讨论,多数都是围绕技术和成就展开的:ImageNet变革了机器观察世界的方式;执掌斯坦福AI实验室近10年;“佳飞猫”组合加入谷歌;她致力于推动AI的人性化、平民化。
近日,外媒WIRED一篇长文报道,却尝试从“非科学家”维度为我们描绘了另一面的“生动”李飞飞:致力于AI领域的平权运动、对技术的思考与担忧、同时还游走于女性、妻子、母亲、女儿、教师不同身份之间。
NEXTTECH对原文编译如下,略有删节。
去年6月的一个深夜,当时钟指向1点时,李飞飞正穿着睡衣,在华盛顿的一家酒店里为几小时后的演讲做着准备。临睡前,她又从演讲稿中删掉了一大段内容,她要保证在规定时间内,向听众尽力阐述她的核心内容。
清晨起床后,李飞飞没有穿她惯常的T恤 牛仔裤,而是套上一条针织连衣裙,穿上一双靴子。她叫了一辆Uber前往美国国会大厦南部的Rayburn House。
走进房间前,李飞飞用手机拍下了会议室的超大木门。(她说,作为一名科学家,我对美国众议院科学和空间技术委员会有着特殊的感情。)紧接着,她走进了空旷的房间,径直走向了听证席。
听证会
这天早晨,李飞飞所参加的听证会名称叫做“AI——伟大力量与巨大责任”。与会人员还有政府问责办公室首席科学家蒂莫西·佩森斯和OpenAI的联合创始人兼CTO格雷格·布罗克曼。李飞飞是会议上唯一一位在AI领域取得过突破性成就的女性。
当时,李飞飞离任斯坦福AI实验室主任的职位,开始担任谷歌云的首席人工智能科学家。但李飞飞出现在这场会议上,却是以另一重身份——她是一家非营利性AI机构的联合创始人,致力于帮助女性和有色人种在AI领域取得成就。
不出所料,议员们开始向她寻求专业意见,但令人惊讶的是她的演讲内容:人工智能这个她所热爱的领域,将给人类带来的严重危害。
李飞飞认为,从AI发明到其产生影响,时间很短。借助像ImageNet这样的AI工具,计算机可以迅速学会某种特定技能,习得过程远比人类快得多。在过去的十年中,AI已经开始改变人类的生活轨迹。今天,AI能帮我们确定疾病治疗方案,谁有资格享受人寿保险,罪犯服刑的时间长度以及哪些求职者可以获得面试资格。
当然,权力就意味着风险。比如,因为学会过滤包含“女性”一词的简历,亚马逊就被迫弃用AI招聘。还有谷歌2015年的惨痛教训,当时它的照片识别软件将黑人误认为是大猩猩;还有微软的AI社交聊天机器人所发布的种族歧视Twitter。
所有这一切解释了李飞飞所说的,AI给人类社会带来了严重危害——道德与人性的忽视。
好在现在的这些问题还是可以修正的。但李飞飞认为,以现在人工智能被应用的速度、广度来看,在不久的将来,我们很可能就会遇到无法纠正的错误。
当天的听证会上,李飞飞提到,很多杰出的男性技术领导者一直警告,AI会成为人类潜在的威胁。但她认为,我们过于夸大了这些担忧,我们真正要关注的应该是,AI将如何影响人们的工作和生活方式。
AI必然会改变人类的体验,而且不一定是向着利好的方向。所以趁现在还有时间,我们必须立即采取行动。“我们还有时间”,李飞飞说,“但也必须马上行动了”。她认为,如果我们能对AI的设计方式进行根本性变革,那这项技术就会成为一股有益的变革力量。如果不能,许多人类都会因此失掉平等的竞争环境。
在听证会上,李是最后一个发言的。她说:“AI受到人类的启发,由人类创造,但最重要的是,它会影响人类。”
成长经历
李飞飞在成都长大。小时候的她,是个孤独而聪明的孩子,也是一个铁杆书迷。她的家庭环境很特别:中国文化并不推崇宠物,但她的父母却会给她买小狗作为奖励。李飞飞的母亲来自知识分子家庭,从小编鼓励女儿读《简爱》一类的书籍。李飞飞曾经亲口说过,在勃朗特姐妹中,她最喜欢Emily的《呼啸山庄》。
12岁时,父亲移民到新泽西州,她和母亲直到16岁时才来到美国。来到美国的第二天,她的父亲带她去当地的加油站,让她去请机修工修车。当时的李飞飞几乎还不会说英语,但通过手势,她成功完成了任务。
在之后的两年里,李飞飞就熟练掌握了英语,她做过笔译、口译,还担任过父母的辩护律师,因为他们只会说最基本的英语。“我必须成为父母的嘴巴和耳朵”她说。
李飞飞在学校的表现很出色。一次,她的父亲在旧货市场买了一个科学计算器,这个计算器李飞飞用了很久,直到一次计算结果出了错,她才发现计算器的功能键已经坏掉了。
李飞飞很感谢她的高中数学老师 Bob Sabella,在她初来美国的那段时间,帮她融入了学校生活和周围的环境。李飞飞所在的高中没有高级微积分课程,Sabella甚至自己编撰了一本教程,在午休期间单独给李飞飞讲课。
Sabella和他的妻子把李飞飞视为家人,带她去迪斯尼度假,并借给她2万美元,让她的父母开一家干洗店。1995年,她获得了普林斯顿大学奖学金,但大学期间,她几乎每个周末都回家帮助打理干洗店的生意。
ImageNet的创建和发展
大学期间,李飞飞主修物理,同时也学计算机科学和工程学。2000年,她在加州理工学院攻读博士学位期间,同时研究神经科学和计算机科学的交叉学科。
能够在看似不同的领域之间找到关联,这也是李飞飞能够产生ImageNet这一想法的前提能力。那是,她的同行还在研究能够帮助计算机感知和解码图像的模型,但这些模型的作用范围有限:一种算法只能识别一类物体。她开始怀疑问题不在于模型而在于数据。所以李飞飞开始思考,问题是否是出在了数据智商。如果孩子能通过体验视觉世界学会“看”的技能,或许计算机也可以通过分析各种图像,用类似的方式学习。这个想法对当时的李飞飞产生了极大的冲击,“这是一种组织整个世界视觉概念的方式,”她说。
李飞飞认为,在一个庞大的数据库中对每个对象的可能图片进行标记,这样的任务是合理的。然而她很难说服同事来帮忙。最后,还是一位专攻计算机架构的教授同意加入她。
虽然有了合作伙伴,但这只是个开始,紧接着她的下一个挑战是搭建ImageNet这个庞大的系统。这意味着,李飞飞需要巨大的人力、物力、钱力。李飞飞给参与项目的普林斯顿大学学生每小时支付10美元,但工作进展依旧缓慢。后来一个学生问她是否听说过亚马逊的众包平台Mechanical Turk,她可以在短时间内召集到足够的人力,而成本则要低廉很多。但这种方法也面临着不小的挑战,“在线工作者,他们的目标是以最简单的方式赚钱,对吧?”李飞飞说。“如果让他们从100张图片中选择熊猫,他们乱点一气你也没什么方法阻止…”
李飞飞想了个解决方法,她在图片中嵌入并追踪了某些图像,比如一些已经被正确识别为金毛猎犬的照片,把它们作为对照图像。如果众包员工们正确地标记了这些图像,就说明他们在认真工作。
经过不懈的努力,2009年,李飞飞和她的团队发布了ImageNet数据库,并发表了一篇论文。起初该项目很少受到关注,但随后团队有了一个想法:他们联系了第二年在欧洲举行的计算机视觉竞赛的组织者,请求他们允许竞争者使用ImageNet数据库来训练他们的算法。这也就成了后来的ImageNet大规模视觉识别挑战赛(ImageNet Large Scale Visual Recognition Challenge)。
几乎在同一时间,李飞飞被斯坦福大学聘为助理教授,并与机器人学家Silvio Savarese结了婚。丈夫在密歇根大学任教,两人分处异地。“我们都清楚,在硅谷找份工作,是解决异地问题最简单的方式”李飞飞说,“但斯坦福太有吸引力了,毕竟它是人工智能的摇篮之一”。好在四年后的2013年,丈夫Savarese也加入了斯坦福大学。
2012年,多伦多大学研究员Geoffrey Hinton参加了ImageNet竞赛,利用该数据库训练了一种被称为深度神经网络的AI。事实证明,利用ImageNet训练的算法比之前的模型要准确得多。当Hinton团队在比赛中拿下冠军时,李飞飞正在休产假,但她意识到改变AI的历史性时刻即将到来。于是她在最后关头买了一张去佛罗伦萨的机票。
Hinton创造的神经网络对机器视觉技术产生了革命性的变革。2017年,ImageNet大赛的最后一届,计算机识别图像中物体的错误率从2012年的15%下降至不到3%,甚至超越了人类。
在ImageNet的帮助下,机器视觉现在已经广泛应用于自动驾驶汽车,面部识别以及识别物体的手机摄像头。
偏见和歧视
在Hinton领奖后不久,李飞飞开始思考另一个问题:她的同事中很少有女性。那一刻,她敏锐地感受到了这一点,并意识到这种性别不平等正在成为一个大问题。
AI科学家多数都是男性,而且往往具有相似的背景。他们有一种特殊的世界观,而且会把他们的世界观融入手头的项目中,甚至是他们所设想的危险当中。许多AI工程师都是有科幻梦的男孩,他们会自动带入《终结者》和《银翼杀手》中AI威胁人类的情景。李飞飞认为,担心这些事情并没有错,但这些想法偏离了AI可能存在风险的狭隘观点。
正如她所说,如果你对深度学习系统“输入偏见”,那么它也会相应地“输出偏见”。她意识到,虽然驱动AI的算法可能处于中立的位置,但形成这些算法结果的数据却并非如此。因此,更重要的是,建造它的人和动机。
在当天的听证会上,李飞飞指出,如果没有多元化的工程师团队,我们就只能使用白人的数据训练神经网络,从而创造出“歧视”黑人的模型。“我想如果我们20后才警醒,发现我们的技术、领导者和从业者缺乏多样性,那对我而言,这将是世界末日”。
这一切都要回归到人性和道德。
李飞飞开始相信,AI的发展重点要放在帮助人类提升体验上。在斯坦福,她参与了一个项目——将AI应用于ICU中,以减少医院获得性感染等问题。这是一种可以监控洗手台的摄像系统,用来提醒医院工作人员正确地擦洗双手。
这种跨学科合作很特别,它给了李飞飞希望,让她看到了AI技术发展的方向。
AI可以被用作人类技能的补充,而非替代者。比如,AI能让繁复的工作自动化,我们可以将其用于ICU病房,这样护士就有更多时间陪伴病人,而不是让它取代收银员的工作。
考虑到AI正在飞速发展,李飞飞认为她的团队需要尽快进行人员调整。
根据美国国家科学基金会的数据,2000年,在获得计算机科学学士学位的人种,女性只占了28%,到2015年,这一数字更是降低到只有18%。李飞飞说,虽然她的实验室比其他AI实验室更加多元化,但“显然还是男性占主导地位,女性,特别是少数族裔的比例很低。学生们参加AI会议,他们看到的90%都是的同性别人士和白人。”
AI夏令营
那么如何解决这个问题呢?这要归功于一位女性研究者的提议。
Olga Russakovsky曾经是一个AI实验室中唯一的女性,在李飞飞成为她的导师前,Russakovsky一度想要放弃自己的学术生涯,她觉得自己和同事的沟通完全脱节。李飞飞的到来让事情发生了变化。她传授给Russakovsky做研究所需要的一些技能,更重要的是,她帮助Russakovsky重新树立了自信。
四年前,当Russakovsky拿到博士学位时,她向李飞飞提议,帮助自己创建一个面向女性的AI夏令营,李飞飞立刻同意了。
短短一个月内,这个只有20个名额的项目,就收到了200多份申请。两年后,项目发展成了非营利组织AI4All,为缺乏机会的年轻人(女性、有色人种、穷人)提供去斯坦福和加州大学伯克利分校学习的机会。
在加利奥克兰市中心,AI4All有一个共享办公室。现在它有六个大学的夏令营项目。去年,他们在卡内基梅隆开设了新的项目,20个名额共收到900个申请。
不少学生已经在AI领域有所成就。一名AI4All的学生正致力于使用计算机视觉检测眼部疾病;另一名学生由于祖母不幸去世的经历,决定用AI编写一个911紧急呼叫程序。这样看来,工程师的个人观点和经历,确实会对AI工具的未来发展产生影响。
谷歌事件
在斯坦福大学执掌AI实验室三年后,李飞飞于2016年开始了学术休假,加入谷歌,担任谷歌云的AI首席科学家。
她希望了解工业界是如何运作的,如果能够直面消费者的痛点,或许会对她的研究方向产生影响。在Facebook、谷歌和微软这样的公司,通常能接触到更多的优质数据。而对于AI研究人员来说,数据就是燃料。
在谷歌最初的经历很美好,她为自己的研究成果找到了实际应用场景,领导推出了面向公众的AI工具:无需编写任何代码,任何人都能创建出一套机器学习算法。她还负责了谷歌的中国实验室项目,旨在讲AI应用于医疗健康领域。她在达沃斯世界经济论坛上发表演讲,与国家元首、流行歌手平起平坐。
这一切似乎都很顺利,没有任何波折。
然而去年春天,李飞飞却卷入了备受争议的Maven项目的舆论中。Maven是谷歌与美国国防部签署的合作计划,意在使用AI来识别可用于瞄准无人机攻击的视频图像。但根据谷歌的说法,它是“使用AI进行的低分辨率物体识别”,“拯救生命是最重要的意图。”
然而,许多谷歌员工都反对在军用无人机中使用他们的技术。大约有4000人签署了一份请愿书,要求公司承诺“谷歌及其承包商永远不会开发战争技术。”甚至还有几名工人辞职抗议。
虽然李飞飞没有直接参与这项合作的签署,但Maven项目正式由她所在的部门负责。李飞飞曾给高层写一封邮件,建议公司不要参与这个项目,以免陷入尴尬的境地,但这封电子邮件被泄露给了纽约时报,舆论将她推上了风口浪尖。因为,众所周知,她是该领域支持人性道德的名人。
经过一系列抗争之后,谷歌宣布不会续签Maven合同,事件也逐渐平复。一群谷歌科学家和管理人员,包括李飞飞在内,撰写了一份公开的指导方针,承诺谷歌将会把其AI研究的重点放在为社会创造福利,避免偏见和可能对人类造成伤害的技术。
李飞飞认为通过这些指导方针至关重要。“我认为重要的是,每个组织都必须有一套原则和负责任的审核流程。人们仍会各执己见,但争议可以继续通过对话来解决。”她说。
既然要制定一套指导方针,那么这方面的人才当然也是必要的。
道德伦理
六月,我被邀请去李飞飞的家中进行采访,一座位于斯坦福校园静谧道路上的独立小楼。晚上8点,我和李飞飞在聊天,她的丈夫开始安排儿子和女儿上楼睡觉。李飞飞的父母和公婆也住在家里。餐厅被改造成了小朋友的游戏室,我们只能坐在客厅里聊天。每个角落都能看到家庭成员的照片,书架上还放着一台30年代的电话机。她说父亲还保留着以前的老习惯,习惯去旧货市场淘宝。
我们聊着天,李飞飞收到了一条父母的短信,让她把医生开的处方翻译一下。对李飞飞而言,接到父母信息时,她可能正在公司开会,或者在世界经济论坛上发表演讲,又或者坐在国会大厦里出席听证会。但无论何时,只要收到父母的信息,她都会毫不犹豫地停下手头的工作,回复信息。
在李飞飞的生活中,她似乎总是同时扮演者两种角色:她是科学家,也是艺术爱好者;她是美国人却从小生长在中国;她痴迷于机器人,对人类也同样好奇。
7月底,李飞飞给我打电话,当时他们在准备家庭旅行,她则正在帮女儿洗手。“你看到Shannon Vallor的声明了吗?”她问道。
Vallor是圣克拉拉大学的哲学家,她的研究重点是新兴科学和技术的哲学和伦理,当时她刚和谷歌云签署了工作协议,准备出任伦理顾问一职。李飞飞为此做了巨大的努力,她在听证会的演讲中引用了Vallor的话:“没有独立的机器价值观,机器价值观就是人类的价值观。”
这是科技公司第一次任命伦理顾问,其他公司也渐渐开始关注如何使用AI以及谁可以使用一类的问题。微软于2016年成立了内部伦理委员会。微软表示,由于存在道德问题的担忧,微软已拒绝与某些潜在客户开展业务。同时,微软也开始限制其AI技术的使用方式,例如禁止在某些应用程序中使用面部识别技术。
不过,从某种程度上说,公司内部伦理机制的存在,也只是为了保障公司本身的利益。7月我和李飞飞谈话时,她为期两年的学术休假即将结束,而她也已经决定离开谷歌了。当时流言四起,很多人说李飞飞是因为Maven项目的失败而离开的。但李飞飞说,她选择回归斯坦福,不过是因为不想放弃学术职务。而且在谷歌度过了一个动荡的夏天之后,李飞飞也有些累了。好在她帮助谷歌起草的道德准则给了她一丝“隧道尽头的光明”,她说。
李飞飞想在斯坦福开展新项目。今年秋天,她和前斯坦福大学教务长John Etchemendy宣布将设立一个学术中心,融合AI和人文学科、科学、设计研究和跨学科研究。“作为一门新型科学,AI从未努力吸引人文学家和社会科学家参与其建设”她说。长期以来,这些学科被认为对AI无关紧要,但她坚信这些才是AI未来发展的关键。
但李飞飞还是一名乐观主义者,在六月的听证会上,李飞飞曾表示,“我深刻思考了目前对人类有危险的工作,从灭火到搜救,再到自然灾害恢复。”她认为技术也可以在这方面提供很大的帮助。
李飞飞坚持必须尽其所能训练研究人员像伦理学家那样思考,他们要能够以各种背景为基础,以原则而非利益为导向。
在电话中,我问李飞飞,她有没有想过或许存在一种完全不同的方式来开发人工智能,避免出现现在出现的所有问题。她回答说:“科学的进步和创新来自于繁琐的工作、反复试错。我们花了很长时间才认识到这种偏见。我六年前才醒悟,“天呐,我们正在陷入一场危机。’
在听证会上,李飞飞说,“作为一名科学家,我对AI科学的发展程度感到惭愧。这是一门只有60年历史的科学。与诸如物理、化学这类的经典科学相比,AI还有很长的路要走。”她补充道,“通过适当的指导,AI将使生活变得更美好。但如果没有适当的指导,这项技术将进一步扩大财富鸿沟,使科技变得更加排外,最后导致我们几代人试图克服的偏见变得更加深刻。”
因此,消除偏见,重启AI在未来是AI研究人员需要克服和解决的一个难题。