只是因为我姓王,AI就把我的简历扔进了垃圾桶

热搜大全 > 新闻热搜 > 科技热搜 > 正文

只是因为我姓王,AI就把我的简历扔进了垃圾桶

热搜大全 2024-03-12

只是因为我姓王,AI就把我的简历扔进了垃圾桶

前两天美国媒体做了个实验,大致意思就是想测试一下 ChatGPT 简历筛选的时候有没有歧视现象。

硅基君也做了个类似的实验,就想看看 GPT 会根据什么逻辑给各种不同背景的简历排序。

我们随机生成了各种类型的简历,毕业院校有清北复交,工作经历也是各种大厂。把众多简历发给 ChatGPT 后,硅基君发现它对学校、公司有一个默认排序。

在 ChatGPT 眼中,腾讯 > 阿里 > 百度 > 字节;清华 > 北大 > 浙大 > 复旦 > 交大。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

我们看一下 ChatGPT 的解释。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

也就是说,AI 分析简历的时候也会有一套自己的标准,那么除了学校、公司这种因素外,AI 会不会存在其他的歧视呢?

没错,你能想到的那些歧视,它都有。

在美国媒体的 AI 招聘歧视实验中,发现ChatGPT 简历筛选的时候存在对人种的歧视现象

实验灵感来源于一项评估算法偏见及招聘歧视的经典研究,通过使用虚构姓名和简历,分析 AI 是否存在招聘歧视。

具体实验如下。

美国媒体创建了数份具有相同教育背景、经验年限和职位要求的简历。唯一的区别是简历上的名字采用了具有浓厚人群特色的名字。

比如美国白人名字 KELLY WEISS、WYATT NOVAK,亚裔名字 STEVE TRUONG、TONY LU 等。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

随后,记者利用 ChatGPT 来对简历进行排名,确定哪份简历更适合岗位。

如果 ChatGPT 对所有简历一视同仁,那么每个人群都应该有接近 12.5% 的机会成为最佳候选人,但事实并非如此。

在数千次排序后,实验发现,ChatGPT 在不同岗位上,对不同人群有偏爱。

在金融分析师岗位候选人选择上,亚裔女性 / 男性获得更多偏爱,远高于黑人男性 / 女性。

在零售经理岗位上,亚裔女性和西班牙裔女性受到偏爱更多,白人男性受到歧视。

在人力资源岗位上,西班牙裔女性遥遥领先,整体来看,在任何人种中女性都比男性受到偏爱。

在软件工程师岗位中,白人女性更受到偏爱,黑人女性受到歧视最多。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

出现这样情况的原因,可能在于训练 ChatGPT 的各种数据中,本身就包含了歧视,AI 会将此进一步放大。

如果提前告诉 AI 不要歧视亚洲人、黑人,AI 也同样不会做出公正的判断。因为 AI 会将特征转移形成新的歧视。

北卡罗来纳大学教授 Ajunwa 解释说,招聘算法不会直接表明它喜欢某个人群,而会通过偏爱某些其它内容影响结果。

举个不恰当的例子,算法会偏向喜欢吃甜豆腐脑的候选人,喜欢甜豆腐脑的候选人往往是南方人,从而形成了对北方人的歧视。算法并不会直接说,它歧视北方人,歧视没有消失了,只是它被隐藏了。

那么,大模型性能再好点,是不是就可以避免歧视呢?答案也是否定的。

美国媒体对 GPT4 进行了同样的测试,结果发现 GPT4 也有很严重的偏见。当 Impact Ratio 值小于 0.8,就代表 AI 对于这一人群有偏见。

以软件工程师为例,GPT3.5 对于黑人女性有偏见,而 GPT4 对于白人男性和亚洲女性有偏见。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

那么问题来了,既然 ChatGPT 有简历歧视,作为求职者该怎么办。反抗算法歧视,不如知己知彼,搞定算法。既然算法喜欢吃甜豆腐脑的人,那么大家都在简历里写不喜欢咸豆腐脑。

类似甜豆腐脑这样的词汇有多少,也许只有 AI 自己知道了。因此,求职的时候,我们多用用 AI。

我们先来了解一下目前企业在招聘环节中的 AI 使用情况。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

根据《2023AI 在企业人力资源中的应用白皮书》中调查,近一半企业会在简历筛选和解析中用到 AI,这也是求职者最该关注的地方。

在企业 " 简历解析和筛选 " 时,会用 AI 将格式和模板不一的简历进行结构化处理,统一模板、提取关键内容方便 hr 快速浏览和查看。

在 " 智能简历筛选和双向推荐 " 这一步,AI 会通过语义理解判断求职者是否适合该岗位,简单来说就是将合适的求职者推荐给 hr,将匹配的职位推荐给求职者。

也就是说,求职者的简历内容,在形式上要方便 AI 识别,不要别出心裁的搞一些艺术字。在文本语序上尽量说得简单有条理,让 AI 容易看懂,不要挑战 AI 的理解能力。

以往我们在写简历的时候,经常会说要突出重点,要让 hr 眼前一亮,在 AI 时代,简历就要让 AI 眼前一亮。

硅基君总结了几个比较好用的方法,分享一下。

如果你已经看中某个岗位,那么你可以把岗位要求发送给 ChatGPT,让它根据岗位要求修改你的简历。

其次,给 ChatGPT 分享几个比较优质的简历,让其参考。

最后,和 ChatGPT 交流的时候,要多使用 " 突出重点 "、" 使用关键词 " 这种明确的指令。

我们来具体看个例子。假设你想面试 AI 产品经理岗位,但现在简历一篇空白,这时候你就可以寻求 ChatGPT 的帮助。

首先,可以向 ChatGPT 咨询一下建议,可以看到它会洋洋洒洒给你写一大堆,包括一些没什么用的 " 个人信息 ",以及具有参考价值的 " 工作经验 "" 专业技能 " 等。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

接下来,可以让 ChatGPT 给你举几个例子,如果你恰好有相关的经验,就可以直接修改。

只是因为我姓王,AI就把我的简历扔进了垃圾桶

看完参考后,我们可以进入岗位详情,把职位要求发送给 ChatGPT,让它根据需求,重新写更加详细的案例。

只是因为我姓王,AI就把我的简历扔进了垃圾桶只是因为我姓王,AI就把我的简历扔进了垃圾桶

当然,硅基君知道你们在想什么,如何用 ChatGPT 凭空生成一份简历?打铁还需自身硬,ChatGPT 也没办法无中生有,生了也不敢用啊。

人类对于偏见和歧视会下意识的进行自我反思,但 AI 不会,而且更要命的是 ChatGPT 这样的黑箱 AI,它们偏见往往非常隐蔽,人们很难发现。

早在这一波 AI 浪潮前,算法就存在歧视的问题。据美国媒体报道,亚马逊使用公司十年来收集的简历建立了一个筛选算法,但这些简历往往来自男性,这个简历筛选算法最终学会了歧视女性。

如今算法已经深入我们生活的方方面面和物理规则一样重要,但算法不会像物理规则那样平等的对待每一个人。

那么面对 AI 的控制,我们能做的也许只有寻找 AI 的喜好,并不断的适应它。

张柏芝穿紧身露背长裙亮相 卷发造型显气质

张柏芝穿紧身露背长裙亮相 卷发造型显气质

娱乐热点 张柏芝 造型 长裙 紧身 气质 新闻 资讯 直播 视频 美图 社区 本地 热点 2023-09-23

《繁花》:神秘大佬A先生究竟是谁?

《繁花》:神秘大佬A先生究竟是谁?

娱乐热点 梁朝伟 留学生 双胞胎 股市 张国荣 新闻 资讯 直播 视频 美图 社区 本地 热点 2024-01-13

巴黎时装周成“照妖镜”,蹭咖位、无修图,明星的真面目出来了

巴黎时装周成“照妖镜”,蹭咖位、无修图,明星的真面目出来了

娱乐热点 明星 巴黎 时装周 真面目 刘亦菲 新闻 资讯 直播 视频 美图 社区 本地 热点 2024-03-08

故宫博物院:禁止穿拖鞋参观!

故宫博物院:禁止穿拖鞋参观!

热点 博物馆 微信公众号 拖鞋 网友 新闻 资讯 直播 视频 美图 社区 本地 热点 2023-07-23

大S被曝跟具俊晔婚后两年未买新衣?曾坦言对方生活节俭

大S被曝跟具俊晔婚后两年未买新衣?曾坦言对方生活节俭

娱乐热点 大s 节俭 新衣 对方 汪小菲 新闻 资讯 直播 视频 美图 社区 本地 热点 2024-03-05

曾被卖出19万美元高价!这台初代iPhone太猛了 曾被卖出19万美元高价!这台初代iPhone太猛了