- 
					
												 算法偏见 算法偏见
 
						Workday陷AI招聘监管风暴:美国法院要求其提交识别HiredScore客户的时间表
						
2025年8月,美国加州北区联邦地方法院发布最新裁定,要求全球知名企业服务平台 Workday 在 8 月 20 日前提交一份识别使用 HiredScore AI 招聘技术客户的时间计划表(timeline)。此举旨在推动集体诉讼的下一步进展,该案指控该 AI 工具在招聘过程中对 40 岁以上求职者存在歧视行为,成为当前 HR 科技领域关注的焦点事件。
案件背景:AI招聘引发年龄歧视争议
诉讼最初由一位求职者发起,挑战 Workday 在招聘流程中所使用的 AI 工具,尤其是 2024 年整合的 HiredScore 技术。该技术被指会根据算法对求职者进行评分、筛选或排序,而这一过程可能存在年龄偏见,影响中高龄求职者的申请机会。
法院文件显示,Workday 试图将法律责任限定在其自家开发的“Candidate Skills Match”工具,而非 HiredScore 模块。Workday方面强调两者为“完全不同的技术平台”,HiredScore 可部署于任何招聘系统,理应不受影响。然而,法院拒绝了这一狭义解释,明确指出:凡是曾被HiredScore算法筛选、评分、排序或排除的申请人,均应被纳入集体诉讼范围。
法院最新裁定:提交“客户识别时间表”
根据修订后的法院命令,Workday 并非立即需要交出所有客户名单,而是需要在 2025年8月20日前提交一份时间计划表,说明其如何在未来识别出那些使用了 HiredScore 招聘功能的雇主客户。
此前在5月的庭审文件中,Workday 表示识别这些客户存在“操作上的障碍与复杂性”。但法院法官 Rita Lin 明确指出,“在现有证据下,这些挑战看起来并非无法克服(insurmountable)。”
这一裁定也意味着案件仍处于推进阶段,但法院已释放出对AI招聘技术更高透明度的信号。
监管环境日趋严峻,HR不可掉以轻心
本案并非孤例,而是全球AI招聘合规趋势的一部分。早在2023年,纽约市就已实施《自动化招聘工具审计法》,强制要求使用AI招聘系统的企业进行独立审计并通知候选人。加州和科罗拉多州也将在2026年推出类似法规,要求HR部门全面审查AI工具的公平性与合规性。国内有大量的AI面试应用,这块的监管势必会跟上,目前还没有候选人提出异议,且国内法规的不同还有时间。
在 欧洲,《人工智能法案(AI Act)》更是将“简历筛选工具”明确定义为“高风险AI应用”,需要满足严格的法律义务,包括数据透明度、公平性测试、可解释性要求等。
对HR部门的四点提醒与建议
此次裁定为全球HR专业人士敲响警钟,特别是以下四点应引起高度重视:
 	定期审计AI招聘系统,确保评分、筛选流程无偏见;
 	及时向候选人披露AI参与招聘流程的事实;
 	密切关注本地与国际的AI合规法规变化;
 	与法务、技术部门协作共建AI招聘治理机制。
随着 AI 技术广泛进入招聘流程,HR 不再只是技术的“使用者”,更是组织中推动“负责任AI(Responsible AI)”实践的关键角色。要确保 AI 在招聘中真正助力公平与效率,HR 需要从以下四个方面切实行动:
 	
算法透明性(Transparency)明确AI工具的使用范围、影响流程,并将相关信息向候选人和管理层公开。避免“黑箱决策”。
 	
偏见识别与监控(Bias Detection)定期与技术团队合作进行偏差测试,识别是否对年龄、性别、种族等变量存在不公平影响。
 	
候选人通知与知情同意(Informed Consent)在招聘流程中明确标示AI是否参与了初筛或排序,并尊重候选人对数据使用的知情权。
 	
跨部门治理机制(Cross-Functional Governance)组织内部应建立由HR、法务、IT及DEI(多元、公平、包容)负责人组成的 AI 使用评估机制,确保技术部署始终遵循伦理与法规底线。
在AI快速演进的背景下,“Responsible AI”将成为企业HR声誉与组织公信力的核心基石。唯有将责任机制融入招聘流程设计,HR才能真正成为AI时代的赋能者,而非风险承担者。
透明、合规、可解释,是AI招聘未来的底线
随着 AI 技术快速嵌入人力资源流程,HR 不仅要提升效率,更要承担起对候选人公平性的守护责任。Workday 此案将成为AI招聘合规史上的一个里程碑,也预示着“算法问责时代”的正式到来。未来,任何一个HR组织若想构建可信的招聘体系,都必须以“透明、合规、可解释”为基础,全面审视其AI招聘工具的使用现状与潜在风险。
						
					 
- 
					
												 算法偏见 算法偏见
 
						HRTech观点:AI招聘透明化挑战—候选人对AI黑洞的担忧引发的问题
						AI招聘正在加速变革,但候选人的信任感仍需加强!最新调查显示,67%求职者对AI简历筛选感到不安,90%希望企业披露AI招聘的使用方式。面对人才市场竞争加剧,企业如何在提高招聘效率的同时保障公平性?部分AI招聘工具已推出透明AI功能,让求职者看到简历匹配度及改进建议,增强信任。与此同时,纽约市、欧盟等地区已立法规范AI招聘,要求提高透明度和公平性。
HRTech倡导负责任的AI(RAIHR),提出六大核心原则:透明性、公平性、隐私性、安全性、道德性、持续性。企业需主动披露AI招聘流程,AI厂商应优化算法,求职者也可优化简历适应AI趋势。AI招聘透明化不仅影响候选人体验,也关乎企业品牌和法律合规。让我们共同推动负责任AI,打造更公平、透明的职场未来!
这两年,人工智能(AI)招聘技术在全球范围内迅速发展,越来越多的企业依赖AI进行简历筛选、人才评估和招聘决策。AI的应用确实提升了招聘效率,但与此同时,它也引发了候选人对公平性、透明度和隐形歧视的担忧。ServiceNow的最新调查显示,67%的求职者对AI筛选简历感到不安,90%的人希望企业能清晰披露AI在招聘中的应用方式。面对人才市场竞争日益激烈的现状,企业如何平衡AI技术的高效性与候选人的信任感?
HRTech与几位应聘的候选人交流,普遍谈到在招聘过程中人工智能参与的透明度问题,简历投递后进入了一个黑洞,从筛选简历、通知面试,视频面试,是否通过面试等都是在跟AI打交道,感到非常困惑,不知道该怎么办?这就引发了我们今天要讨论的话题:负责任的AI!
AI招聘带来的多重挑战:求职者的不安、企业的困境与厂商的责任
1. 候选人对AI招聘的不安来源
从求职者的角度来看,AI招聘系统更像是一个“黑盒”:
 	决策不透明:候选人无法得知自己被淘汰的原因,简历筛选的标准也未公开。
 	算法偏见:AI招聘系统通常基于历史数据进行训练,但这些数据可能包含无意识的性别、年龄、种族等偏见,导致潜在的招聘歧视。
 	缺乏人性化考量:AI难以理解求职者的软技能、潜力和非线性职业发展轨迹,这对非传统背景的候选人尤其不利。
尤其是对于初级岗位求职者,他们往往依赖简历投递,而不像高级职位候选人那样能通过社交网络或内推绕开AI筛选。因此,AI筛选的不透明性加剧了他们的求职焦虑,甚至可能让他们因担忧而放弃申请某些企业。
2. AI招聘厂商的责任与挑战
AI招聘工具的开发者和供应商不仅是推动招聘数字化的主力军,同时也是解决招聘透明度问题的关键环节。这些厂商面临的挑战主要包括:
 	提高AI模型的可解释性:AI招聘系统必须提供更透明的筛选标准和评估逻辑,而不仅仅是输出一个通过或淘汰的结果。求职者和HR都需要理解AI如何做出决定。
 	避免算法偏见:AI模型的训练数据往往基于历史招聘案例,但如果数据本身存在性别、种族或教育背景等偏见,AI可能会放大这种歧视。因此,厂商需要投入更多资源进行公平性审计和算法优化,确保招聘AI的公正性。
 	增强企业客户的信任:企业在采购AI招聘工具时,越来越关注合规性和透明度。招聘厂商若能提供可解释的AI功能,如“筛选理由可视化”或“人工复核机制”,将更受市场青睐。
 	确保法律合规:全球多个地区(如欧盟、美国纽约市)已经出台相关法规,要求AI招聘产品符合透明度和公平性标准。厂商需要不断调整产品策略,以符合最新法规要求。
部分AI招聘公司已经开始推出“透明AI”功能,例如让候选人能够查询自己的简历评分、匹配度及改进建议。这种趋势将成为未来AI招聘产品竞争的核心要素。
3. 企业在AI招聘中的现实困境
尽管AI在提高招聘效率方面展现了巨大潜力,但如果透明度问题得不到解决,企业可能面临人才流失、品牌损害以及法律风险:
 	损失高质量候选人:如果求职者对AI招聘系统不信任,他们可能直接跳过某些企业的职位申请,导致企业错失潜在优秀人才。
 	影响雇主品牌:招聘流程是企业形象的重要组成部分,如果候选人对AI招聘产生负面体验,他们可能会在社交媒体或求职平台上分享自己的不满,从而影响企业的市场声誉。
 	合规风险上升:全球范围内,越来越多的法规正在限制AI招聘的黑箱操作。例如,美国纽约市已推出法案,要求AI招聘系统必须进行审计,以确保公平性和透明度。
如何推进AI招聘透明化?HRTech各方的建议
要实现AI招聘透明化,必须从企业、AI招聘工具提供商和候选人等多方共同推动。
1. 企业:主动披露AI招聘使用方式,提升信任感
企业需要意识到,招聘流程的透明度直接影响到人才吸引力。因此,企业应主动披露AI在招聘流程中的作用,包括:
 	在哪些环节使用AI(如简历筛选、面试安排、候选人匹配);
 	AI的主要评估标准(如关键词匹配、技能要求、经验年限等);
 	是否有人类HR复核AI筛选的结果,确保最终决策不会完全由算法决定。
2. AI招聘工具提供商:增强透明度,提高市场竞争力
AI招聘工具的供应商同样需要顺应市场需求,将透明化作为产品的核心竞争力。具体措施包括:
 	提供“可解释的AI”功能,允许企业查看AI的决策逻辑,并根据需要调整筛选标准。
 	让候选人获取筛选反馈,例如“您的简历匹配度为85%,主要匹配项是A、B、C,建议补充D、E、F”。
 	支持人工与AI结合的招聘模式,例如保证一定比例的申请者由HR人工筛选,而不是完全依赖算法。
3. 候选人:主动适应并推动透明化变革
面对AI招聘的不透明性,候选人可以:
 	优化简历,提升AI适配度;
 	利用社交网络绕开AI系统;
 	积极反馈,推动行业透明化变革。
AI招聘透明化不仅是技术进步的标志,更是企业吸引人才和实现长期发展战略的必由之路。唯有企业、供应商和候选人共同努力,才能真正实现公平透明的招聘环境。
在此,我们倡议所有HR从业者积极加入并实践“负责任AI在人力资源(RAIHR)”的行动,共同推进AI招聘的透明性、公平性、安全性与道德性,明确公开AI决策的依据,建立完善的候选人反馈机制,并推动AI技术真正服务于人才与组织的共同发展。让我们携手共进,共同打造更透明、更公平、更负责任的职场未来。
RAIHR的实施,不仅能够强化企业的雇主品牌,吸引更多高质量的人才,还能帮助AI招聘工具提供商在激烈的市场竞争中脱颖而出,赢得客户的信赖与认可。同时,对于候选人而言,这一倡议的落实意味着更公平的职业机会和更透明的职场环境。我们相信,只有实现负责任的AI实践,才能确保技术进步真正服务于人的发展,构建企业、厂商与候选人多方共赢的未来。
 
RAIHR倡议提出六大实践原则:
 	透明性(Transparency):清晰地公开AI在HR决策过程中的使用方式与评估标准,让候选人和员工清楚AI如何影响他们。
 	公平性(Fairness):通过消除算法偏见,确保AI应用不会对任何特定群体造成歧视或不公平对待。
 	隐私性(Privacy):全面遵守隐私保护法规,严格保护员工及候选人的数据隐私。
 	安全性(Security):保障AI系统的安全性,避免信息泄漏或滥用,确保数据的完整性与安全性。
 	道德性(Ethicality):以人为本,确保AI的使用增强而非削弱员工的职场福祉与体验。
 	持续性(Sustainability):关注AI技术的长期影响,确保其应用与企业长期战略和员工发展目标保持一致。
						
					 
 
		
	
			
	
	
		
	
		 扫一扫 加微信
			hrtechchina
 扫一扫 加微信
			hrtechchina