华人在澳求职好难!AI系统听不懂中文口音,错误率高达22%
<div style='font-size:1em;'><p>
AI招聘系统正在深刻改变就业市场,为雇主提供了一种更快捷且经济的筛选候选人的方式。
</p><p>
然而,墨尔本法学院研究员Natalie Sheard的最新研究警告,这些系统可能无意中加剧对女性、残疾人及多元文化申请者的歧视。</p><p><br><br>data/attachment/forum/202505/17/img_cdn_138_5621747446604.jpg<br></p><p>
(图片来源:News) </p><p>
目前,约30%的澳洲企业使用AI招聘工具,预计未来几年这一比例将继续上升。这些系统通过算法筛选简历、评估候选人回答,并对其适合性进行排名,提高筛选效率。然而专家指出,AI系统可能无意间将部分人群排除在就业市场之外。 </p><p>
研究还发现,AI工具常因就业空白对候选人作出负面评估,而女性因育儿或医疗休假而造成的空白受影响尤大。研究还发现,视频面试中使用的语音转文字工具在应对非英语母语者时表现不佳。 </p><p>
以中文非英语母语者为例,其错误率飙升至惊人的22%,而美国英语母语者的错误率则低于10%。Sheard指出,训练这些AI系统的数据多来自美国,无法反映澳洲人口多样性。</p><p><br><br>data/attachment/forum/202505/17/img_cdn_138_65091747446606.jpg<br></p><p>
(图片来源:News) </p><p>
报告指出,“虽然AI招聘系统为雇主节省了时间和成本,改善了招聘质量与候选人体验,但它们也可能强化甚至加剧历史上的歧视问题。” </p><p>
报告显示,这些系统可能对佩戴头巾的申请者或有非裔名字申请者存在歧视,尤其是当无法为残疾人士做出合理调整时。就像亚马逊开发的AI系统曾自动降低简历中包含“女性”一词申请者的评级那样。 </p><p>
许多算法根据“理想”特征排名候选人,例如无间断的职业生涯路径,或采用设计不佳的过滤器,比如对特定大学或最低GPA的要求,而这些标准往往与社会阶层、年龄或性别等因素相关。</p><p><br><br>data/attachment/forum/202505/17/img_cdn_138_35631747446608.jpg<br></p><p>
(图片来源:News) </p><p>
当历史数据反映歧视性做法时,这种依赖就会造成问题,尤其是当这些数据反映出以男性为导向的工作模式或特定语言风格的惩罚时。 </p><p>
Sheard警告,这些失误可能对被影响群体造成严重影响。“雇主使用AI系统产生的歧视风险是独特的,”报告写道,“一个歧视性的AI系统以前所未有的速度和规模造成伤害,有可能将弱势群体排除在劳动力市场之外。” </p><p>
由于全球已有42%的公司依赖这些工具,研究呼吁采取紧急监管措施,确保AI招聘系统的透明性、公平性和包容性。 </p><p>
Sheard强调,AI面试系统缺乏透明性是一个主要问题。“这就是问题所在,在人工流程中,你可以向招聘者询问反馈,但我发现很多招聘者甚至不知道决策的原因,因此无法提供反馈。” </p><p>
“这对求职者来说是个问题……难以追责,但供应商和雇主必须对系统中的任何歧视负责。” </p> </div>
页:
[1]