• 美国地方法院
    Workday陷AI招聘监管风暴:美国法院要求其提交识别HiredScore客户的时间表 2025年8月,美国加州北区联邦地方法院发布最新裁定,要求全球知名企业服务平台 Workday 在 8 月 20 日前提交一份识别使用 HiredScore AI 招聘技术客户的时间计划表(timeline)。此举旨在推动集体诉讼的下一步进展,该案指控该 AI 工具在招聘过程中对 40 岁以上求职者存在歧视行为,成为当前 HR 科技领域关注的焦点事件。 案件背景:AI招聘引发年龄歧视争议 诉讼最初由一位求职者发起,挑战 Workday 在招聘流程中所使用的 AI 工具,尤其是 2024 年整合的 HiredScore 技术。该技术被指会根据算法对求职者进行评分、筛选或排序,而这一过程可能存在年龄偏见,影响中高龄求职者的申请机会。 法院文件显示,Workday 试图将法律责任限定在其自家开发的“Candidate Skills Match”工具,而非 HiredScore 模块。Workday方面强调两者为“完全不同的技术平台”,HiredScore 可部署于任何招聘系统,理应不受影响。然而,法院拒绝了这一狭义解释,明确指出:凡是曾被HiredScore算法筛选、评分、排序或排除的申请人,均应被纳入集体诉讼范围。 法院最新裁定:提交“客户识别时间表” 根据修订后的法院命令,Workday 并非立即需要交出所有客户名单,而是需要在 2025年8月20日前提交一份时间计划表,说明其如何在未来识别出那些使用了 HiredScore 招聘功能的雇主客户。 此前在5月的庭审文件中,Workday 表示识别这些客户存在“操作上的障碍与复杂性”。但法院法官 Rita Lin 明确指出,“在现有证据下,这些挑战看起来并非无法克服(insurmountable)。” 这一裁定也意味着案件仍处于推进阶段,但法院已释放出对AI招聘技术更高透明度的信号。 监管环境日趋严峻,HR不可掉以轻心 本案并非孤例,而是全球AI招聘合规趋势的一部分。早在2023年,纽约市就已实施《自动化招聘工具审计法》,强制要求使用AI招聘系统的企业进行独立审计并通知候选人。加州和科罗拉多州也将在2026年推出类似法规,要求HR部门全面审查AI工具的公平性与合规性。国内有大量的AI面试应用,这块的监管势必会跟上,目前还没有候选人提出异议,且国内法规的不同还有时间。 在 欧洲,《人工智能法案(AI Act)》更是将“简历筛选工具”明确定义为“高风险AI应用”,需要满足严格的法律义务,包括数据透明度、公平性测试、可解释性要求等。 对HR部门的四点提醒与建议 此次裁定为全球HR专业人士敲响警钟,特别是以下四点应引起高度重视: 定期审计AI招聘系统,确保评分、筛选流程无偏见; 及时向候选人披露AI参与招聘流程的事实; 密切关注本地与国际的AI合规法规变化; 与法务、技术部门协作共建AI招聘治理机制。 随着 AI 技术广泛进入招聘流程,HR 不再只是技术的“使用者”,更是组织中推动“负责任AI(Responsible AI)”实践的关键角色。要确保 AI 在招聘中真正助力公平与效率,HR 需要从以下四个方面切实行动: 算法透明性(Transparency)明确AI工具的使用范围、影响流程,并将相关信息向候选人和管理层公开。避免“黑箱决策”。 偏见识别与监控(Bias Detection)定期与技术团队合作进行偏差测试,识别是否对年龄、性别、种族等变量存在不公平影响。 候选人通知与知情同意(Informed Consent)在招聘流程中明确标示AI是否参与了初筛或排序,并尊重候选人对数据使用的知情权。 跨部门治理机制(Cross-Functional Governance)组织内部应建立由HR、法务、IT及DEI(多元、公平、包容)负责人组成的 AI 使用评估机制,确保技术部署始终遵循伦理与法规底线。 在AI快速演进的背景下,“Responsible AI”将成为企业HR声誉与组织公信力的核心基石。唯有将责任机制融入招聘流程设计,HR才能真正成为AI时代的赋能者,而非风险承担者。 透明、合规、可解释,是AI招聘未来的底线 随着 AI 技术快速嵌入人力资源流程,HR 不仅要提升效率,更要承担起对候选人公平性的守护责任。Workday 此案将成为AI招聘合规史上的一个里程碑,也预示着“算法问责时代”的正式到来。未来,任何一个HR组织若想构建可信的招聘体系,都必须以“透明、合规、可解释”为基础,全面审视其AI招聘工具的使用现状与潜在风险。
    美国地方法院
    2025年08月06日