当前位置: 首页 > 科技新闻 >

计算机历史上,女性是怎么消失的?

时间:2020-02-21 15:32来源:网络整理 浏览:
欢迎关注“创事记”微信订阅号:sinachuangshiji文/赵家鹏来源:AIPharos月光社(ID:AI-Pharos)1816年的圣

欢迎关注“创事记”微信订阅号:sinachuangshiji

文/赵家鹏

来源:AIPharos月光社(ID:AI-Pharos)

1816年的圣诞夜,诗人拜伦给一位密友寄去了一封信。

信中附有他新作的一首诗,这首诗名为《路德分子之歌》,后来成为了拜伦的代表作之一。诗中写道:让我们把织梭换成刀剑。

拜伦是路德运动的同情者之一。工业革命后的英国,机器的大量普及取代了人力劳工,失业的纺织工人对此发起了暴力抵抗,被称作“路德运动”。身为勋爵的拜伦认为,“路德分子”是反抗强权的英雄,并极力歌颂他们毁坏纺织机的作为。

就在寄出这首诗的同年,一则家庭变故发生在拜伦家中。诗人重男轻女,一直渴望男丁,结果妻子却为他诞下了一名女婴。失望的诗人跟妻子离了婚,刚满月的女婴也就此离开了父亲。

这名女婴长大后,捡起了被拜伦扔下的织梭,成为了第一个将分析引擎技术与提花织机相结合的计算机程序员。她叫做埃达·洛夫莱斯,被许多人认为是史上第一位计算机程序员。从她和她的同代人开始,一场更新颖的技术浪潮将席卷而来。

世界上最早的计算机是由英国人构想和设计的。英国数学家查尔斯·巴贝奇于1820年构想和设计了第一部完全可程序化计算机,埃达·洛夫莱斯即是为查尔斯·巴贝奇的机器撰写了第一段算法。

为什么是埃达·洛夫莱斯,一位女性完成了最早的编程工作?

在计算机成为电子技术之前,计算与编程被视作应由女性从事的工作。在当时傲慢的绅士们看来,它需要的并非体力劳动,而是死记硬背,即使很多时候需要高级的数学知识,也被认做是“非智力的劳作”。英国哲学家萨迪·普兰(Sadie Plant)研究认为,早期与计算科学相关的工作,与“编织”有某种程度的相似性,“它是通过复杂的过程将多条线集成到一块布料中。”换句话说,如果妇女可以操作纺织机,那么为什么不能是计算机?

这样的刻板印象为英国的计算科学发展带来了最早的劳动力:女性程序员群体。她们负责操作、编程、排除故障和组装新机器。二战期间,英国皇家海军的女兵们甚至组装了世界上第一台电子数字可编程计算机:巨人计算机(Colossus Computer)。这台机器曾用来破译纳粹德国的密码,并为确定诺曼底登陆的具体时间做出了贡献。

埃达·洛夫莱斯毫无疑问是计算科学中的女性先驱。为了纪念她,从上世纪八十年代开始,多个国家和组织设立了以其名字命名的奖项和学会,一位英国记者还创立了“埃达·洛夫莱斯日”,用以提高女性在科学,技术,工程和数学(STEM)上的形象。

每年十月的第二个星期二,“埃达·洛夫莱斯日”的聚会活动会如期举办。纪念活动的一个主题是:如何提高计算科学领域中的女性地位。

这是我们今天不得不面对的一桩事实。

01

来自麻省理工的发现

三十多年过去,计算科学经历了发展高潮,互联网与人工智能兴起,但留在行业里的女性,处境却正在变得更加艰难。

加拿大女孩乔·布兰维尼,提醒我们注意到了这件事。

平常她喜欢戴彩色厚边框眼镜,留一头蓬松卷曲的黑发。前者是她的时尚标签,后者则透露出她的另一重身份标签:一位加纳裔的黑皮肤女孩。

乔是一位天才少女。少年时,她就在计算机科学上表现出了独特天赋,其后在多所名校进修。在麻省理工媒体实验室,乔参与了一款交互式艺术装置的研究。这款装置可以识别头部运动与面部表情,进而生成一副数字面罩,并投射到屏幕上。

乔遭遇了挫折。研究中,她的面孔并未被识别出来。她和同伴研究发现,这款采用了通用的面部识别软件的装置,只能在肤色较浅的面孔前,保持良好运转。对于有色人种特别是女性有色人种的面孔,它总是显得无动于衷。

问题出在程序上吗?

乔和伙伴展开进一步研究。她们用奥普拉·温弗瑞、米歇尔·奥巴马等人的照片,在多个面部分析程序上进行了测试。结果发现,这些程序均出现了不同程度的识别错误:上述杰出的黑人女性皆被判定为男性。

2018年,乔的研究团队发表了名为《性别阴影》的论文,对商业化面孔识别技术的性别与肤色偏见提出了质疑和探讨。论文检验了三款流行的商业化面部分析程序,发现这些程序在确定浅肤色男性性别时,错误率不低于0.8%,但在识别肤色较深女性时,两款程序的错误率超过了34%,一款超过20%,几乎无法正确识别。

这不仅仅是程序或算法的偏差问题。乔认为,算法反映了那些有权塑造技术的人的偏见。女性,特别是深色皮肤的女性,正在遭遇“算法凝视”。

即使是白人女性,也难以逃脱另类的“算法凝视”。

微软的一次算法测试中,研究人员试图让算法根据梅琳达·盖茨(Melinda Gates)的LinkedIn信息,推测其职业。结果发现,不同性别的人称代词会带来完全不同的结果:当梅琳达·盖茨是“她”时,其职业是教师;换成“他”时,这位微软创始人比尔·盖茨的夫人,则被认为是一位律师。

通用的商业化算法可能是今天最具有全球化属性的商品之一,它也将是未来的信息基础设施。它会延续现实世界的性别歧视吗?

此前,我们已获得过不少教训。尽管女性科学家在现实中占比不少,但在维基百科中,只有18%的科学家传记页面留给了女性。电影工业亦如此,自1946年以来,全年龄段电影的集体场景中,女性角色仅占比17%。

今年,联合国教科文组织公布了一份名为《如果可以,我会脸红(I’d blush if I could)》的报告。研究者发现,市面上流行的智能语音助手,正试图通过创建一种“温顺而乐于助人”的助手模型,向新一代年轻人传递性别歧视。这份报告同时预测,到2021年,智能语音助手的全球使用量将达到18亿。如果情况得不到改善,影响将是巨大的。

为什么算法会产生性别歧视?

训练数据集的偏差是原因之一。算法需要大型、带标注的数据集来进行训练,数据样本在采集与标注过程中,就会率先带上倾向与偏见。如,用于计算机视觉研究、包含1400万余张带标签的图片的ImageNet数据集,其中45%的数据量来源于美国,中国和印度加起来只占3%的数据量,这从某种程度上造成了乔所发现的“性别阴影”问题,更少的深色皮肤女性用于训练,以至于难以识别。

来自先前文化中的偏见,也在误导训练数据集。负责微软人工智能研发的沈向洋认为,互联网公开的新闻与网页数据,构成了训练算法的基准数据集,而这些数据本身早已包含了互联网既有的性别偏见:“sassy(刁蛮)”、“knitting(编织)”这类词更靠近女性,而“hero(英雄)”、“genius(天才)”与男性的关联更密切。

性别偏见的另一个来源是算法本身。通常情况下,如果训练数据集中的某类人群出现比例较高,那么算法程序会为此类进行优化,以期提高整体预测准确率。这也就是说,在不加干涉的情况下,算法会强化数据集带来的偏见。

2018年,斯坦福大学两位教授指出,谷歌翻译在翻译西班牙语到英语时,会出现默认使用男性代词的情况,事后,谷歌修补了这一缺陷。这是算法偏见的一个案例,在今日的英语语料库中,男性代词与女性代词的比例为2:1。

上世纪六十年代,这一比例曾高达4:1,后因性别平权等社会运动,它降至如今水平。有人担心,不加干涉的算法,会破坏这一得之不易的成果。

02

多样性的历史低点

唐娜·哈拉维曾对新技术寄予厚望。

1985年,她公开发表了《赛博格宣言》,呼吁人们通过科技塑造新的性别身份。这份乐观的文本相信,未来将是一个由人工智能主导的时代,新技术能让女性逃离传统性别角色的约束。

现实令这位技术哲学家失望了。技术进步,并未令古老偏见消失。甚至带来了糟糕的影响:以计算科学领域为例,大范围的性别偏见传染发生的同时,行业中的女性从业比例也变得更少了。

国际劳工组织测算,2018年女性占美国劳动力的比重约为46.9%。而据苹果、谷歌、脸书和亚马逊公布的数据,这些公司科技从业人员中,女性占比不到30%。两者相差严重。

在计算科学的前沿领域,性别人口的比例不足更为严重。今年的一份研究报告指出,在脸书和谷歌,女性人工智能研究人员占比分别仅为 15% 和 10%;在人工智能学术领域,女性作者也只有18%。

另有统计表明,2018年全球人工智能专业从业者中,只有22%是女性,女性从业者大多从事应用领域的工作,更少涉及技术开发。岗位的不同,意味着薪酬差距。即使是相同的技术岗位,女性收入也往往比男性更低,在今年的一份针对技术领域女性的调查中,女性比同岗位男性的薪酬少28%。

女性消失在计算科学的工作场所,会带来什么样的影响?

微软曾对欧洲各地11500名女孩和年轻妇女进行采访。结果显示,从十五岁开始,女孩对STEM(科学、技术、工程、数学)的兴趣开始下降,很重要的一个原因是,该领域内缺乏女性榜样。

兴趣的缺失导致更少的女性进入这些领域学习。斯坦福大学发布的一则报告显示,该校2017年人工智能入门课程的男性比例为74%,机器学习入门课程的男性比例为76%,作为对比,加州大学伯克利分校两门课程的男性比例分别为73%和79%。

这意味着,参与人工智能相关学习的学生中,每五个人中只有一名女性。

这是一场持续的衰退。

就在《赛博格宣言》发表的1985年,美国计算机科学的女性入学比例是37%。三十年过去,这一比例下降到了18%。考虑到这一领域的从业者大多需要专业背景,女性学生群体的缩水,已使这个领域发生了“多样性的丧失”,甚至有观察者认为,我们今天正处在一个多样性的历史低点。

梅琳达·盖茨为此感到沮丧。这位遭遇过“算法凝视”的慈善活动家发现,既往科技公司用于慈善和社会责任方面的努力,只有大约5%惠及了科技行业的女性,其中仅有0.1%是有色女性。

这些数字背后的潜在指责是,科技巨头们似乎并没为此作出太多努力。

那么,如何增加女性在计算科学领域的机会?

2015年,斯坦福大学人工智能实验室主任李飞飞等人,发起成立了一个名为“AI4ALL”的项目。这是一个面向学生的人工智能体验与教育项目,主要对象是女性、一些有色人种和低收入家庭的学生。

在李飞飞这样的从业者看来,要改变计算科学领域的性别偏见,需要从教育入手,教育则要从娃娃抓起。项目发起者们雄心勃勃地表示,该计划要在五年内惠及一百万人。

如果缺少女性,那就投入女性,如果没有女性,那就培养她们。这看起来是一条充满实用主义精神的有效路径。但它并未触及的症结是:

“多样性的丧失”背后,更大的原因是什么?

03

谁把女性赶出大门?

斯蒂芬妮·雪莉知道答案。

斯蒂芬妮的职业生涯开始于1950年代的英国。她是一位计算机程序员,在邮政研究站(Post Office Research Station)负责为大型计算机编写代码。邮政研究站位于伦敦西北部的多利斯山,二战期间,丘吉尔政府在这里建立了秘密的密码破解机构。战后,这里成为了英国计算机研究的中心。

邮政研究站最早的雇员都是像斯蒂芬妮这样的女性。在1950年代,大型计算机的操作复杂繁琐,实际的用处却有限。英国政府当时并未过多关注这种庞然大物的潜力,沿用战时思路,仅组建了一支有女性组成的技术工人团队。这群女性技术工人就是英国乃至全球最早的程序员群体。

和今日不同,程序员在那时算不上值得羡慕的好工作。一开始,这群女性程序员被编入英国的公务员体系,处于公务员体系中的“机器等级”。她们获得的报酬很低,不仅无法与男性相比,也远比在政府工作的其他女性更低。甚至,1950年代中期,英国政府承诺执行同工同酬政策时,这些处理技术工作的女性也未获得同等报酬。

糟糕的报酬,糟糕的地位,斯蒂芬妮忍受着这一切,内心依旧感谢这个国家。斯蒂芬妮是一位出生在德国的犹太人,二战期间,在一项英国人道计划的帮助下,她和其他一万名犹太儿童逃离德国,来到英国。和所有励志故事的开头一样,成人后,她获得了计算机程序员的工作,然后依靠在夜校的勤奋,取得了数学学位,并在工作岗位上做出了不凡的成绩。

1950年代后期,在斯蒂芬妮这样的女性程序员的努力下,计算机工业在英国继续取得突破,在应用层面,计算机开始在电力、税收、宏观调控、科学研究等公共事业领域发挥作用,逐渐成为了福利国家的一种基础设施。铁幕拉下后的全球竞争中,越来越多的国家开始意识到这种新技术将带来的改变。作为一线从业者,斯蒂芬妮和她的同伴为此感到骄傲,她们开始期待更大的成就。

斯蒂芬妮申请晋升。她提交了几次申请,无一例外地失败了。最终,她得知,评估她晋升的官员,宁可辞职也不赞成女性进入管理岗位。甚至,这并非针对她个人,与技术技能与受教育程度无关,这样的歧视源于更深层的考虑。

看到了计算机潜力的英国政府,正打算把女性逐出这个领域。当时英国政府的判断是,为了匹配计算机在政府和企业运作中的重要地位,这个领域不能仅仅依赖低端的技术工人,需要引入更高级的管理层。

这个判断看上去是合理的,但接下来的就是典型的偏见时刻:负责制定政策的人认为,女性是不适合担任管理工作的,这个领域需要一支由男性领导的专业技术团队。这是技术史上一次国家恐慌:面对女性,男性主导的政府开始担心失去对未来机器的控制权。

问题是,在一个几乎全由女性组成的行业了,去哪里找到懂计算机的男性?

一项荒唐的计划出炉了。斯蒂芬妮们被要求在完成工作之余,每人要训练两名男性,教他们学习并掌握操作大型计算机所需要的一切技能。按照计划,这些受训的男性最终将取代训练他们的女性。

这项计划不出意外地失败了。当时,计算与编程工作早已与同女性的歧视捆绑在一起,年轻的男性对此兴趣寥寥,几乎没有什么人对接受由女性指导的计算机培训感兴趣。尽管如此,英国政府依旧坚定着排斥女性的决心,在接下来的1960年代,越来越多的女性程序员被赶回了家。

斯蒂芬妮辞职了。她嫁给了一位物理学家,然后像那年头许多已婚妇女一样,她离开了工作,回到了家庭妇女的岗位上。她并不甘心,1962年,她在家创办了自己的软件公司,开始为拥有大型计算机的政府和企业提供外包程序。

这并不是一件容易事。身为家庭妇女,斯蒂芬妮需要在照顾孩子的同时,开展工作,有时,她不得不在家接客户电话时,播放录有打字机声音的录音带,以此掩盖孩子发出的声音。歧视依旧盛行,为了获得合同,她把签名改成了“史蒂夫·雪莉”,因为她沮丧地发现,斯蒂芬妮这样的女性化名字,无法帮她获得任何生意反馈。

斯蒂芬妮当然没有向歧视投降。一则刊登在1964年《伦敦时报》上的广告昭示了她的决心:退休女程序员之良机,反女权主义者勿扰。

许多此前被迫赋闲的女性程序员慕名而来,斯蒂芬妮为她们提供了在家工作的机会和灵活的工作时间。和今天的编程工作不同,当时的编程大多是在纸上完成的:在纸上打孔,然后把打孔纸交给交付给对方,进行机器测试。换句话说,任何人都可以在家里完成这项工作。就这样,这群依靠兼职编程的女性,成就了英国最早的软件公司之一。

斯蒂芬妮的生意越来越好时,英国计算机领域却陷入了危机。当时,英国的技术官僚们正沉浸在“白热化”浪潮中。“白热化”是时任英国首相哈罗德·威尔逊提出的宣言,旨在利用技术革命,帮助英国实现现代化。但在计算机领域,由于女性程序员的缺失,劳动力发生了短缺。为了应对,实现政治上的目标,英国政府将当时还有剩余生产能力的计算机公司合并为一家大型计算机公司:国际计算机有限公司(ICL),一家由男性劳动力为主的技术公司。

后来的故事是,计算机产业发生巨变,个人电脑产品开始出现,大型机很快被淘汰。ICL在开始交付产品时,发现市场甚至英国政府也已经不需要它提供的服务的。但在当时,除了ICL,英国计算机产业已几乎消失殆尽。

如果要为英国计算机产业撰写一份墓志铭,年份上可以写下:1940-1970年代。短短三十年时间,世界上最早的计算机强国,从有到无,从生到死。与之一同消亡的,是一群被权力刻意驱逐的女性程序员群体。

04

噩梦并未醒来

计算机女性史学者玛丽·希克斯认为:技术是一种在人们身上行使权力的工具。通常,那些已掌握权力的人,是那些最不了解我们当前系统缺陷的人,同时也是决定我们技术未来的人。

对女性的歧视与偏见是诸多技术权力暴行中的一桩,它并未因技术的进步而有所好转,也并未因权力来源的不同而所有改善。

1980年代中期以后,个人计算机的兴起,带来了计算科学的大众化普及。更多年轻人进入了计算科学的领域,包括女性。但与此同时,计算机专业毕业生的性别比例中,女性却逐年下降。以美国为例,这一比例从1984年的37%下降到了今天的18%左右。

为什么会发生这种变化?

有研究表明,早期个人计算机的营销目标,主要集中在男性和男孩群体上,不仅忽略了女性,甚至通过电视广告等媒介形式,不断传递女性不适合这种新奇机器的观念。这导致了进入消费时代后,女性对于计算科学的兴趣衰减。也正是从那时开始,程序员或黑客这一形象变成了“男性书呆子”的形象。

随着娱乐产业的全球扩张,刻板的性别印象在人工智能时代甚至得到了加强和发展。

在好莱坞的脚本中,程序员大多呈现为对技术狂热痴迷的男性,男性机器人也大多承担更多的探索型工作:探索太空、救助人类、进行科学研究;女性大多表现为辅助性角色,女性机器人则多是《银翼杀手》中的性感、魅惑与顺从的形象,甚至一旦女性机器人开始拥有自主思维,她们就会变成《西部世界》中噩梦般的杀戮角色。

新加坡南洋理工大学的一项研究,与好莱坞不谋而合。研究者测量了人类对于不同机器人完成工作的心理偏好,发现人们更倾向于女性机器人完成家政工作,而希望男性机器人完成安保工作。

“男性擅长征服,女性擅长守护。大家都害怕机器,没有人想被机器智能所征服,但是所有人都愿意被温柔的机器智能所守护。”这是马云在2019全球女性创业者大会上的发言,这位来自商业世界的发言人,同样不小心袒露出了内心的性别安排。

我们不知道的是,计算科学领域中的女性,是否会接受这一安排呢?

乔安妮·李普曼相信:在男性建立起来的社会体系中,女性的观点被重视、甚至被听到都要比男性困难得多。

掌握技术权力的男人们,也应该了解这一点。

参考资料:

1.《女性化的机器和机器化的女性》,纽约时报中文网

2. 《千余名谷歌员工要求将反跨性别保守派从人工智能委员会剔除》,澎湃新闻

3. 《微软研究院:求索不已,为全人类,打造负责任的人工智能》,沈向洋

4. 《马云:90% 的人工智能是女性》,极客公园

5. 《AI, Ain't I A Woman?》,Joy Buolamwini

6.《AI programs exhibit racial and gender biases, research reveals》,The Guardian

7.《Global AI Talent Report 2019》,jfgagne

8.《Meet the Bay Area Women in Tech Fighting Bias in AI》,Seismic Sisters

9.《Women’s work: how Britain discarded its female computer programmers》,New Statesman

10.《WOMEN IN TECHNOLOGY SURVEY 2019》,Women In Tech

11.《The Future of AI Depends on High-School Girls》,The Atlantic

12.《The artificial intelligence field is too white and too male, researchers say》,The Verge

13.《Women in Computer Science》,Computer Science

14.《Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification》,J Buolamwini,T Gebru

15.《Analyze, Detect and Remove Gender Stereotyping from Bollywood Movies》,Nishtha Madaan,Sameep Mehta,Taneea S Agrawaal,Vrinda Malhotra,Aditi Aggarwal,Yatin Gupta,Mayank Saxena

16.《Why are There so Few Female Computer Scientists

推荐内容