找回密码
 立即注册
搜索
查看: 19|回复: 0
打印 上一主题 下一主题
收起左侧

[转帖] 媒体:AI招聘与AI应聘“斗法”是双输结局

[复制链接]

灰铜v1_05绿金v1_01绿铜v3_05绿银v3_03灰金v1_05

跳转到指定楼层
楼主
 楼主| 发表于 2024-11-23 10:55 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
  当AI招聘碰上了AI应聘,魔法能否打败魔法?

  据新京报报道,继不少企业通过AI面试官进行大规模面试后,市场上出现了帮助面试者应对“AI面试”的工具产品,广告声称“面试者实时生成面试答案,轻松拿下Offer”。

  这一新闻引发讨论,是因为外界没有人能预测到,AI大模型之间的碰撞,竟然是率先发生在面试场景下。这原本应当是最需要人与人沟通、决策、判断的场景,随着AI工具的迅速应用,却变成了“机器人与机器人之间的战争”。

  据报道,随着面试者开始使用AI工具进行面试,招聘者则通过AI进行“反作弊”,而在反作弊工具出现后,AI面试产品则定向推出了“反检测”功能。

  不论从什么角度看,这都是一场莫名其妙的技术攻防战。让AI来作为面试官,并不应当是一个值得推荐的应用。面试本质上是对一个人的综合评定,而让机器来判断人,其实是用大数据形成的标签来简约化对人进行数据集的归类定性。从AI伦理上看,也是对人的主体尊严的冒犯。

  面试者使用AI工具应对AI面试官,从面试的逻辑看,又涉嫌新技术逼迫下的“作弊”。当面试官是人时,AI工具作弊极容易被识别,但当对面换成了工具,那么,用工具来制衡工具,显然要比让人来应对工具的提问更合乎逻辑一些。

  这一场技术战,起源于用人单位对于“人才”的不重视,视应聘者为“工具”,而应聘者在此种情境下,干脆用工具去欺骗工具,继而形成了双重伦理陷阱:招聘者不视人为人,求职者就坦然在面试中作弊。

  这也是AI过度应用对传统伦理造成的挑战。我们社会习俗中对面试双方平等、诚信、尊重的要求,是基于人与人互动的关系而形成的共识。但对AI的过度应用,使得传统伦理在这些场景中骤然失效。仔细揣摩一下面试者的心理,当对方不再是人时,面试似乎就不必再遵循什么“诚信”之类的准则。

  如果回到面试的本质上看,面试双方通过工具来“提升效率”的做法,事实上都只会造成双输的结局。

  一个人是否匹配工作岗位,显然不是单纯的履历和材料等大数据可以决定的,还包括了性格、动机、状态等多方面。AI工具面试依据的规则和数据,只会第一轮就筛选掉那些有个性的、独特的、有创造性的人才,而后者显然才更符合未来人才的定义。

  因此,用AI来提升的面试效率,实际上等于是把人才引进的标准交给了机器,而机器从概率上只会继续引入“符合机器定义的机械性人才”。

  而对于求职者来说,用AI工具来面试,从技术和商业逻辑上看,个体所使用的大模型工具,不可能在技术水平上长期超越企业工具。

  面试是典型的商业化应用场景一部分,而作为求职工具却缺少长期稳定的付费模式,且用户的付费能力较低,因此,后者很可能只是一些套皮的大模型,来收割求职者的韭菜而已。极有可能出现的情况是,求职者为了蒙骗AI面试官,又被人割了韭菜。

  为企业大规模商业化应用而开发调试的大模型,理论上最终肯定比个人所使用的工具更加高效、精准。这也意味着,使用者不仅可能被割韭菜,还可能被识别“作弊”而永久失去一次求职机会。对于求职者来说,这可谓是双输的高危局面。

  因此,不管是从伦理上看,还是工具使用的最终结果看,面试都不应该成为AI工具的博弈战场。尤其是其中潜藏的科技伦理问题,值得社会共同思考。简单地让AI工具去决定一个具体的人的命运,既有违科技伦理,也有违职业道德,更长期损害了所有参与者的利益。

插件设计:zasq.net
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋| ( Q群816270601 )

GMT+8, 2024-11-23 18:36 , Processed in 1.105224 second(s), 46 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表