压铸企业免费展示宣传

面试的时候,发现面试官竟然是一台电脑?

如果你的面试官是一台电脑,你会怎么做?

这个问题,或许有人想过,但大多数人都不知道怎么做。

这让透爷想起,以前大家经常讨论的一个话题,计算机将来会不会取代人类。

那会很多人都慌得一批,讨论出种种结果。

但到最后,大多数人一致认为,计算机能做的,只是取代一些苦力活的劳动工作,至于其他创意类的工作,包括职场中的那些工作,几乎不可能。

但现在却出现面试官是一台电脑,有人好奇为什么呢?

说来说去,原因都离不开疫情。

由于疫情的缘由,很多人开始了远程视频面试的操作。即便是美国,这样的情况也不例外。

通过远程视频面试的求职者人数激增,需求还相当得高。

视频面试也没什么太大问题,但谁能想到,面试你的不是真人,而是一台电脑,即电脑=面试官。

面试官是一台电脑,更准确的说是,这是 AI 算法面试。

进行 AI 算法面试的话,应聘者无法和其他人交谈。

所以,他们更为疑惑的是,幕后的人工智能系统是否会影响最终的招聘决策。

透爷仔细了解了下,发现最先出现这种情况的,还得从一些招聘软件的骚操作说起。

据美联社报道,一些招聘软件开始提供视频面试服务和人工智能评估工具。

它们扬言自家面试系统具备衡量「候选人能否成功」的能力,可以为雇主省下大笔资金。

不仅如此,它们还声称能过避免招聘人员的偏见,与此同时,增大范围搜索合适的候选人。

对此,透爷想说,话说得有多漂亮,后面就有多打脸。

为什么这么说呢?

第一、AI 算法面试官,说到底只是计算机。

既然如此,它就很难准确 get 到作为人特有的情绪,以及应对不同人不同性格时,所要做出不同的判断。

它所做出的判断,都是从算法出发,也就是通过数据去做分析。

第二、容易造成给某类群体贴上有偏见的标签。

假设 AI 算法从种族和性别差异等偏见普遍存在的行业现象中获取信息,那么它得出的结论,做出的判断也是基于此。

这就做出误判或者给某类群体贴上有偏见的标签。

比如此前亚马逊开发了一种简历扫描工具,以此来招聘优秀人才。但这个所谓的工具,偏爱男性担任技术职位。

部分原因是它将求职者与公司自己的男性主导的技术劳动力进行比较。

这显然有失公平,显然是在歧视女性。

第三、AI 算法只负责结果,没有解释。

它是分析出自己的判断,并且给出了结果,但是 AI 算法并没有人会给出一个合理的解释。

即便有,那也是:算法使然。多让人百口莫辩,无奈可气。

当然,也有人会说,如果对方是真人面试官,在面试的过程中,自己能够感受到自己是否是因为对方的偏见而被拒绝。

但因为是 AI 算法面试,所以你不会知道。

可归根结底,不还是因为我们无法知道,计算机它是否在进行公平的评估。

再有,对大多数人来说,还是更倾向于知道,自己落选或者被选上的理由是什么。

只有这样,我们才能扬长避短,客观正视自己,不是吗?

最后,AI 算法面试,是个好想法,但实行起来未必就是好事。

它做出的公平性如何评估,俨然是个大难题。

比起 AI 算法面试给我们带来的价值,它造成的争议其实更大。



文章来源自:透爷就是我 透漏点消息

免责申明:部分内容来源于网络或网友自主投稿编辑整理,版权归原作者所有,其内容为作者个人观点,并不代表本平台赞同其观点和对其真实性负责。如您(单位或个人)认为本平台某部分内容有侵权嫌疑,敬请立即通知我们,我们将第一时间予以更改或删除。