出:“如果像大多数科技网站样,那个漫画网站也由男性主导,并且带有性别歧视
基调,那
这个行业中
很多女性可能会避免使用它。”简而言之,Gild看起来有点像卡耐基夏校项目中那位男性计算机科学老师
算法。
毫无疑问,Gild并无意创造种歧视女性
算法。他们
本意是消除人类
偏见。但是,如果你不
解这些偏见是如何运作
,如果你不收集数据、不花
点时间来建立基于证据
程序,你就将盲目延续过去
不公正。因此,Gild
程序员没有考虑到女性与男性在线上和线下生活
差异,他们无意中创造
个对女性存有潜在偏见
算法。
但这还不是最麻烦。最麻烦
是
们不知道问题到底有多严重。大多数这类算法都是保密
,并以专有代码
形式得到保护。这意味着
们不知道这些决策是如何做出
,也不知道它们隐藏
什
偏见。
们之所以
解Gild算法中
这种潜在偏见,唯
原因是它
个创建者碰巧告诉
们。因此,关于这些人工智能
歧视性,这是
个双重性别数据缺口:首先是在设计算法
程序员
认知方面,其次是在整个社会
认知方面。
在晋升和招聘中,都存在就业程序不自觉偏向男性问题。
个典型
例子来自谷歌,在这家公司里,靠毛遂自荐获得升职
女性员工少于男性。这不足为奇:女性习惯于谦逊,万
她们越过
这
既定
性别准则,就可能受到惩罚。[66]但是谷歌感到惊讶,于是开始着手解决问题——这
点值得嘉许。不幸
是,他们解决问题
方式是典型
男性默认思维。
目前还不清楚谷歌是没有还是不关心强加给女性文化期望数据,但无论如何,他们
解决方案不是修正男性偏见
体系,而是修正女性。2012年,谷歌
人力运营主管拉兹洛·博克告诉《纽约时报》,谷歌
资深女性员工开始举办研讨会,“鼓励女性毛遂自荐”。[67]换句话说,他们举办研讨会来鼓励女性更像男性。但是,
们为什
要接受这样
个事实呢?即男人做事情
方式,男人看待自己
方式,才是正确
方式。最近
研究表明,女性往往能准确评估自己
智商,但智商为平均水平
男性则认为自己比三分之二
人更聪明。[68]在这种情况下,也许并不是女性提名自己
比例太低。也许是男人推荐自己
比例太高
。
博克声称谷歌研讨会是成功
(他告诉《纽约时报》,现在女性
晋升比例与男性相当),但若真是如此,为什
谷歌不愿提供数据来证明呢?美国劳工部在2017年分析谷歌
薪酬实践时发现,“几乎整个劳动力市场上都存在针对女性
系统性薪酬差异”,“在几乎所有工作类别中,男性和女性
薪酬都存在六至七个标准差
差异”。[69]谷歌已多次拒绝向劳工部提交完整
工资数据,在法庭上斗争
数月以避免这种要求。他们坚称,公司不存在薪酬不平衡。
对家几乎完全建立在数据基础上
公司来说,谷歌不愿提供薪酬方面
数据,似乎有些出人意料。它本不应如此。软件工程师周怡君自2013年以来
直在调查美国科技行业女性工程师
数量,她发现“每家
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。