半左右。[35]尽管当代美国英语语料库有5.2亿个词,收录近至2015年文本,但男女代词比例也是2比1。[36]依据这些满是缺口语料库来训练算法,就给人留下这样种印象:这个世界实际上是由男性主宰。
图像数据集看来也存在性别数据缺口问题:2017年,项对两组常用数据集分析发现,男性图像数量远超女性图像;这两组数据集包含“来自网络10万多张复杂场景图像,并附有说明”。[37]华盛顿大学项类似研究发现,在他们所测试45种职业中,女性在谷歌图像搜索中出现比例偏低,其中CEO比例最为悬殊:美国27%CEO是女性,但在谷歌图像搜索结果中,女性只占11%。[38]搜索“作家”结果也是不平衡,谷歌图片中只有25%搜索结果是女性,相比之下,美国作家中女性实际占比有56%,研究还发现,至少在短期内,这种差异确实影响人们对某个领域性别比例看法。当然,对于算法来说,影响会更长远。
这些数据集不仅未能充分代表女性,而且歪曲她们形象。2017年项对常用文本语料库分析发现,女性名字和相关用词(“妇女”“女孩”等)与家庭关系大于与职业关系,而男性情况正好相反。[39]2016年,项基于谷歌新闻流行公共数据集分析发现,与女性相关最热门职业是“家庭主妇”,与男性相关最热门职业是“名家大师”。[40]与性别相关十大职业还包括:哲学家、社交名人、队长、前台接待员、建筑师和保姆——你可以自行猜测,哪些是男性,哪些是女性。2017年图像数据集分析还发现,图像中包含活动和物体表现出“明显”性别偏见。[41]研究人员之马克·亚茨卡尔预见这样种未来:如果机器人是通过这些数据集来训练,当它不确定人们正在厨房里做什时候,它就会“给个男人杯啤酒,让个女人帮忙洗碗”。[42]
这些文化成见可从现已广泛使用人工智能技术中找到。例如,斯坦福大学教授隆达·席宾格想把报纸对她采访从西班牙语译成英语,而谷歌翻译和Systran翻译系统都反复使用男性代词指代她,尽管文中出现像profesora(女教授)这类明显指代女性术语。[43]谷歌翻译还在将土耳其语译成英语时,赋予原本性别中立句子刻板成见意味。Obirdoktor意思是“她/他是个医生”,但被翻译成“他是个医生”,而Obirhemsire(意思是“她/他是个护士”)被译成“她是个护士”。研究人员发现,翻译软件在将芬兰语、爱沙尼亚语、匈牙利语和波斯语译成英语时,也出现同样现象。
好消息是们现在有这些数据——但程序员们是否会用这些数据来修正他们偏向男性算法还有待观察。们希望他们会,因为机器不仅能反映们偏见,有时还会放大它们——而且是大幅放大。2017年图像研究显示,女性出现在烹饪相关图片中可能性至少比男性高33%,但以这个数据集为基础训练算
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。