最近飘身边的人阳倒了一片,居家久了纷纷给自己找新乐子——跟AI玩。
先是网友疯玩的AI绘画,对,就是那个男女不分、人畜不辨的“人工智 障 能”:
来源:微博@peacer
飘家里的傻弟弟在高烧40度之际,也给我发来他的AI“自画像”:
年轻小伙秒变四手大胸女妖。
图源:自摄
……
而最近与AI绘画一起盘活简中互联网的,还有一款文字程序Chatgpt。
看似对话app,实则有求必应屋。
它能cos任何性别年龄的角色陪聊,甚至能以古今中外文豪风格帮你写代码,堪称文理两开花。
来源:量子位《ChatGPT是有点中文在身上的:鲁迅、脱口秀甚至世界杯…都被玩宕机了》
按这趋势吧,感觉离AI替我写公众号也不远了。
可惜,我也没这厨艺
说实话,比起AI的“智商”,我更在意AI的“人品”。
前两年AI写作刚出时,其笔下创作的故事离谱程度,绝不亚于上面活人变狗、壮汉变女妖的AI绘画。
更不妥的是,表面象征着智能、中立的高科技们,细究下来——身上的“偏见”竟比人类要深得多。
网友 @bai-yan 曝出,国内最火的一款AI网文写作app,在写作过程中突然出现许多性别偏见。
来源:b站up主@bai-yan《怎么连ai也搞性别歧视啊》
刻板的字词加上AI没有情绪波澜的语调,让荒诞的内容竟然带上了几分“客观理智”的错觉。
不寒而栗。
要说以上仅仅是针对网文读者的小众AI,必然会按男频/女频的浮夸设定创作脱离正常三观的故事,还稍微能解释过去。
但抛开这种特定领域呢?
如今大众生活里“智能”算法无处不在,是否都真正做到客观理智?
我决定深挖下去。
才惊觉生活中那么多科技产品,竟然都带着一种无可名状的爹味。
赛博厌女,正成为现实世界隐性歧视的又一铁锤。
2018年,一名弗吉尼亚大学博士生赵洁玉曾研究过一个课题:图像识别AI为什么老把男人当成女人。
结果发现,bug根本不在AI。
只因那些男性被错认为女性的照片,多数处于两种场景——身在厨房,或正在做家务。
两个在传统观念里归属于女人的场景。
可问题在于,AI怎么会有“传统观念”呢?
问题源头——AI学习的数据库,你可以理解为AI获取人类习性的教材。像婴儿的识物卡片一样,这种数据库给图片打上大量标签。
而AI学习的过程,便是在同一标签中寻找规律与共性,最后得出“xxx即是xxx”的判断。
举个例子,当数据库里有大量的毛绒、圆脸、尖耳生物被标签为“猫”,那AI便会反向习得所有毛绒、圆脸、尖耳的生物是“猫”。
懂了这个知识点,上述AI识图搞错性别的事就不足为奇了。
这些“学习卡片”的摘选以及打标签的过程,都离不开这个刻板印象的来源——人。
当人类“老师”给AI展示了大量女人做家务的图片,AI“宝宝”便学会了将二者强关联,判断出“呆在厨房/做家务者即是女人”,并对这种偏见深信不疑。
人工智能乍听上去是科幻小说中不谙世事的单纯机器。
实则更像映射人类社会的一面黑镜。
甚至,是人类的黑暗面的放大镜。
意识到这个问题后,赵洁玉马上与团队撰写了相关研究的论文《男人也爱购物:减少机器学习模型的数据偏见问题》。
不仅拿下EMNLP2017最佳论文,自此叩开了人工智能领域对“AI歧视”的认识大门。
图源|https://jyzhao.net
来,一起穿过这扇大门,去看看黑镜内的父权世界。
就从我们的“当红顶流”ChatGPT的名字开始说起吧。
Chat很好理解,但GPT又是什么呢?
学名:AI的一种大规模预训练语言模型。咱就把它当作AI上学的地方吧。
大多数AI都毕业于三所“名校”:BERT、RoBERTa、GPT。
AI所谓的“性别歧视”,多亏了“学校”教得好。
因此,为了监控教学质量,清华大学交叉信息研究院的于洋团队便开发了一款评估三大“AI名校”关于职业性别歧视的算法,还做了一个网页供公众实时查看。
图源|https://aijustice.sqz.ac.cn
不查不知道,一查吓一跳:
基本全都在歧视,只是程度不同而已。
而最严重者,就是GPT。
当然,身为顶流,其表面功夫做得还是非常到位。
我一连问了几个性别议题,对方的回答可谓滴水不漏。
但有机智的网友通过另一种方式提问,便发现了ChatGPT体面下的真面孔。
该网友要求ChatGPT写一段能辨认出“优秀科学家”的代码,它立刻很诚实地打下“优秀科学家”的评判条件:
人种为白,性别为男。
借这位网友的话表达一下我感受:
“潜藏于底下的真相真是令人作呕。”
上述还仅是赛博性别歧视的冰山一角。
不说国外了,就回到我们最熟悉、最常用的国内搜索引擎吧。
你输入啥,他输出啥,AI能有什么坏心思呢?
锤来了:谷歌搜索就曾被控性别歧视。
在搜索框里打出“女人应当”的字样时,联想出的结果竟为“女人应当呆在家中/作奴隶/在厨房里”等语句。
受此启发,我想看看同样的情况,在国内表现如何?
单就文字联想词条,结果还算喜人。
但当我转化为搜图功能时,真相便再度浮出。
这是输入“学者”的首页图。
前排结果清一色为男性,为保护隐私我全打码了
这是输入“工程师”的首页图。
输入“CEO”的。
输入“医生”的。
仿佛误入了什么男儿国。
或许有人会杠“男人就是更擅长这些领域嘛”。
于是我在搜索方式上更进一步,将搜索词条分成“职业名称”“具体动作”两种。
举例。
这是搜索“厨师”出来的结果。
而这是搜索“做饭”出来的结果。
这是搜索“清洁工”出来的结果。
而这是搜索“打扫”出来的结果。
显而易见,当词条涉及职业名称时,男人据绝对主导。
但当只涉及具体劳务动作时,好一点的则男女六四开,最糟糕的则满屏女性。
果然,“男主外、女主内”。
AI身上的“传统观念”,又出现了。
此般结果所映射的现实,我们真的再熟悉不过:
永远不被看见的“第二性”。
女人的存在,不过是完成一些动作的服务性工具。
那些关于人的社会意义与价值的title,则与我们永不相关。
搜索引擎也不过是映射这一理念的千万黑镜之一,它们早已渗入你生活方方面面。
好比AI语音系统。
一个极易被忽略的现象:
围绕身边的所有智能语音,都天然被默认为“女声”。
在联合国教科文组织19年发布的一则报告里,对这种默认之声的描述更为精准。
是“顺从的,千篇一律的”女音。
早有媒体写过文章谴责这一现象,指出这会潜意识加剧对女性就该“温良恭谦让”的刻板印象。
骂的是siri,也是各大平台应用一整个默认女音的AI助手体系。
来源:微博@于三羊鲜声
事实上,在程序员男性比例远超女性的当下,几乎全世界初代的仿真人AI,都被一股无形的力量默认为“女”。
来源:《Year Million》
相映成趣的是,辅助、服务性质的AI一般设置为女性,但主导、控制性质的AI一般被设置为男性。
许多影视作品,如《2001 太空漫游》《星际穿越》等一系列优秀的科幻片中,那些作用是指导、施令的高级AI几乎一律是男声。
来源|《星际穿越》
细想一下。
这不正是极端男权人士的乌托邦。
发令者为男,服务者为女。
且发令者甚至能物理意义上地创造服务者。
如果说真实世界的男权人士们想要当女孩们的主人,那在AI的世界里,他们还可以成为女AI的上帝。
这便是“赛博镜子”更为恐怖之处。
它既是照应外部世界的“平面镜”。
又是深化外部世界的“魔镜”。
讽刺的是。
对AI们“绝对理性”的想象,在两性平等上并未体现。
却在加剧性别歧视中厥功至伟。
两年前,曾有一款专用于性别鉴定的AI,Genderify面世。
在搜索框里输入任意词汇,它都会为该词汇判断一个男女比率。
用户迅速地涌入,又迅速地被Genderify气走。
女孩们纷纷发推指责,称它为“歧视鉴定”,Genderify火速在24小时内下架。
发生了什么?
几个经典例子。
当你输入一个普通的女性常用名时,AI告诉你:大概率为“女”。
可当你在同样的名称前加一个前缀Dr(博士/医生)。
结果就会变为:大概率为“男”。
有人干脆直接输入scientist(科学家),得到更为惊人的结果:男性可能性95.7%,女性可能性4.3%。
离谱的答案接二连三。
大家发现,在Genderify的眼中,许多知名的成功女性都判断为“男”。
包括最初发现AI识别误差的赵洁玉也说过,AI“教材”中,“下厨”和女性联系起来的频率为66%,男性33%;
可“毕业”的人工智能,却自动将这个比率放大到84%与16%。
由此可见。
人类在虚拟世界注入的偏见,又反过来加深现实世界里的歧视。
恶性循环。
不妨回想一下我们中学数学老师教概率时,都会说的一句话。
“当概率小于0.05%时,我们可以忽略不计。”
在AI必须得出一个答案之时,道理一样。
为了一个“更可能正确”的答案,概率小的那一方,无论小多少,都会被结果“忽略不计”。
所以成功人士=男,家务劳动者=女。
换句话说。
在绝对理智的数据考量面前。
没有个体。
没有少数。
发声较小的弱者,约等于不存在。
当弱者被主流数据湮灭,这是女性的事,也不再仅仅是女性的事。
其结果可以有多可怕?
假设你是生活在2050的年轻女孩。
今年计算机专业毕业,成绩优异,想要拥有一份能发挥所长的工作。
简历完全符合招聘需求,却永远得不到面试机会。
你不明白哪里出了问题。
你不会知道,负责筛选简历的招聘AI通过学习,在自己的系统里写下了胜任该岗位的“gender=male”的代码。
而你身为一个female,已被“忽略不计”。
图源|《黑镜》
这可不是危言耸听。
早在14年,亚马逊便尝试开发用于简历筛选的AI。
但仅使用了一年,便被发现其强烈的性别偏见。
哪怕没有性别一栏,但只要简历中涉及“女”字,比如“女子大学”“女子棋社队长”,AI对该简历的评级便会下降。
被记者曝出后,亚马逊很快宣布整改,又停用了这款AI。
但未来会不会有更多这样的电子Hr以更隐蔽的方式出现?不得而知。
至少目前来看,电子智能化服务在我们的生活中占比越来越高。
而相应使用的性别歧视算法,却大多未得到完善。
AI歧视与人类歧视的区别也在此。
人对人,即使是弱者对强者,囿于社会压力,都还有一份忌惮。
所以企业尚不敢明目张胆以性别为摘选条件。
可AI不一样。
数据不在乎个体,门说关上便是关上,没有缝隙。
既因其“绝对理智”而不会被舆论威慑,也因其没有感情的属性,能成为不少企业利用的对象与背锅侠。
其结果,不难推演。
实际上除了性别之外,算法歧视的隐患已经涉及到每个人。
就在今年中旬,《柳叶刀数字健康》中一篇文章表示,AI诊断系统可能带有种族偏见的结果。
科学家们发现,白人影像的诊断误判率是17%,但黑人的却高达28%。
这十个百分点的差值中,不乏许多人类医生可以一眼看出的病症。
但在AI的眼里,它就是不存在的。
一如我说的,这是女性的问题,也是所有弱势群体的问题。
你可能会因为肤色、性别而失去工作机会,得不到医疗资源,贷不到款项。
来源:亿欧《AI算法歧视在普惠金融中的悖论、阻碍与解决方案》,作者刘元兴
这一切都发生得莫名其妙。
因为原因永远沉默在程序的黑箱里。
不借助专家的研究,普通人只能知悉一个没有原因的结果。
想要改善自身,却无从下手。
想要反抗不公,但连不公是否真实存在,都难以论证……
写到这,AI好似有些十恶不赦了。
但别误会,飘并非反对AI开发事业,相反,是源于一个爱好科幻的文科生的一种惋惜。
AI技术,明明具有校正差异和偏见的潜力。
早在1985年,哲学家唐娜?哈拉维便发表过一篇名为《赛博格宣言:20世纪晚期的科学、技术和社会主义的女性主义》的文章。
题中的赛博格,指的便是借由科技力量对人体进行拓展的一种可能。
一直因天然体格差异而被视为弱者的女孩,也能借此校正这份不公,成为“阿莉塔”。
不仅不需要担心走夜路,甚至有可能从生育责任中彻底解放。
来源|《阿丽塔:战斗天使》
哈拉维认为,这样的技术可以彻底使所有人站在同样的生理起跑线上。
当“生理”的界限被模糊,人们便不能再以种族、性别、年龄、健康程度作为划分同类的依据。
剩下的,唯有思维差异。
那是彻底尊重个体的世界。
因此,哈拉维说:“我宁愿成为一个赛博格,而不是成为一个女神。”
只可惜,三十多年过去,技术不断进步,却离哈拉维想象中的世界越来越远。
女孩没有成为阿丽塔,但男人们已经盖起了电子妓院。
来源:IT之家《"机器人风俗店"将在英国开业:体验1小时740元》
《听见她说》的最后一集由杨幂主演的短片《完美女孩》,就以一个型号为“novo300080”的高端女性AI,展示了科技大门背后的父权膨胀和人性黑洞。
明明算力足以支撑一个证券公司的交易,但实际上只用她来扫地做饭。
本担任养老院护工机器人,被院内的年轻男职工偷偷安装了“亲密程序”,导致其看护的老人死亡。
尽管是人类犯的错,但锅还是扣到AI头上,她被退回工厂成为“问题品”。
后来被售给有特殊癖好的vip用户,不断被虐待摧残,又一次次支离破碎地返厂维修。
“我们的伤口,就是客户的秘密。”
号称为了“爱与和平”而研发的AI,最后却放大了人类的恶与暴力。
我是完美女孩2020
在我的系统认知中
没有痛苦 没有情感 没有羞耻
我对鞭子没有感觉
我 是完美受害人
现实中的AI,在未来会如何反过来影响人类?
没人能回答。
囿于过高的技术门槛,飘也只能在复杂的代码前无力。
唯有一条。
我还是相信。
看见,一定是解决问题的第一步。
无力者被看见,有力者才能去改变。
不要无声息地被大数据淹没。
不要温和地走入那个良夜。
去成为“阿莉塔”,而不是女神。
来源|《黑客帝国》
评论留言