- 
					
												 AI幻觉 AI幻觉
 
						【AI“幻觉”惹祸】德勤退还澳大利亚政府44万澳元:AI责任与信任的边界被推上风口浪尖
						德勤(Deloitte)因使用AI生成报告出现虚假引用,已向澳大利亚政府退回部分项目款项。报告价值约44万澳元,生成工具为OpenAI GPT-4o。事件核心并非“AI出错”,而是“人未复核”。当AI进入专业决策场景,如合规审查、HR管理、绩效评估,风险就不再是技术问题,而是责任问题。
2025年10月6日,多家国际主流媒体——包括《金融时报》(Financial Times)、《卫报》(The Guardian)与《商业内幕》(Business Insider)——同时报道:全球“四大会计师事务所”之一的德勤(Deloitte)已向澳大利亚政府退回部分咨询费用,原因是一份由AI辅助生成的官方报告出现了严重引用错误与虚构文献。
这份价值约44万澳元(约合人民币210万元)的报告名为《Targeted Compliance Framework Assurance Review》(目标合规框架保障评估报告),由澳大利亚就业与劳工关系部(DEWR)委托编制,旨在评估政府福利与合规系统的执行效果。报告发布后不久,学术界发现其中存在大量不实引用、错误脚注甚至虚构学术来源,随后被媒体揭露使用了生成式AI撰写部分内容。
【AI参与写报告?德勤承认并退款】
在舆论持续发酵后,德勤承认报告部分内容由微软Azure OpenAI GPT-4o辅助生成。由于AI“幻觉”导致文献造假、案例失真,德勤决定退回合同的最后一笔款项,澳大利亚政府也确认将公开合同细节。
德勤在声明中强调,报告的核心结论与政策建议未受影响,错误仅限于引用与注释层面。然而,公众和立法机构的质疑并未因此平息。澳大利亚工党参议员Deborah O’Neill直言:“德勤的问题不是AI问题,而是人类智力问题(a human intelligence problem)。”
她进一步呼吁,所有与政府合作的咨询机构应明确披露“AI在项目中的使用范围与程度”,并建立AI审查与复核机制。
【时间线回顾】
7月:德勤提交最终报告,未披露AI使用。
8月:学术界发现报告引用了不存在的案例与研究文献。
9月:媒体报道德勤正在内部审查并准备修订。
10月6日:德勤公开承认使用AI,并确认退款;政府表态将强化未来合同披露要求。
【咨询业的信任危机:从AI到责任边界】
这起事件不仅揭示了AI在文本生成领域的潜在风险,也让整个咨询与公共服务行业重新思考“责任”的归属。当AI生成报告、起草政策或撰写分析文件时,如果缺乏人类复核机制,错误就不再只是“技术问题”,而是专业信任危机。
AI的“幻觉”并非罕见——它会在缺乏事实支撑时生成貌似合理却虚构的信息。但当此类内容出现在政府报告、政策研究或企业审计中,其后果已不止于“学术瑕疵”,而可能直接影响公共决策与财政责任。
专家指出,AI可用于信息整理与初步分析,但在涉及法律、政策与公共治理的场景中,必须建立“三层防线”:算法审计、人工复核、责任归属。否则,AI效率越高,错误传播也越快。
【对HR与企业管理的启示】
这场“AI幻觉风波”不仅属于咨询行业的教训,也对人力资源与组织管理发出了强烈信号。AI的普及正快速改变招聘、绩效、培训与合规管理等领域,但如果HR不掌握AI使用的监督与伦理权力,这一权力就会被技术部门接管。
负责任的AI治理(Responsible AI)并非技术议题,而是组织文化与价值观的延伸。HR不仅要懂得如何应用AI提升效率,更要懂得如何为AI“设边界”。
AI可以加速决策,但只有人类能为决策承担责任。在AI时代,HR是组织中最后的信任守门人。
德勤的退款事件或许只是AI时代众多“幻觉案例”中的一个,但它让我们重新看清一个本质:技术从不犯错,真正出问题的,是放弃了复核与判断的人。
						
					 
 
		
	
			
	
	
		
	
		 扫一扫 加微信
			hrtechchina
 扫一扫 加微信
			hrtechchina