当马斯克的xAI在深夜按下裁员按钮,500名数据标注员的系统权限瞬间失效;当谷歌Gemini凭借惊艳表现霸榜AI圈,外包标注员正对着屏幕里的暴力内容彻夜难眠。在大模型竞速赛一路狂飙的2025年,那些支撑起AI“智慧”的底层劳动者,正在经历一场无声的危机。他们是AI时代的“数字矿工”,用海量的人工标注喂养出一个个“智能巨兽”,却在技术迭代的浪潮中,成为最先被牺牲的群体。

一、xAI裁员潮:从“通用标注”到“专家筛选”的残酷转型
9月13日,商业内幕(BI)曝光了xAI成立以来最大规模裁员:约500名数据标注员在周五深夜被突然解雇,占标注团队总人数的三分之一。这场“闪电裁员”像一场预谋已久的清洗——裁员前几天,新上任的管理层突然抛出一系列跨度极大的测试,从STEM领域的专业知识到“网络喷子行为分析”,甚至要求员工通宵达旦完成。测试结果直接决定去留,那些前一晚还在教Grok理解世界的标注员,第二天就发现自己被踢出了1500人的Slack群,群聊人数骤降至1000人。



二、谷歌外包网:高压、低薪与伦理困境中的“隐形工人”
如果说xAI的裁员是“快刀斩乱麻”,谷歌的AI外包体系则是一张密不透风的“隐形网”。许多人被“内容写作”“数据分析”的招聘话术吸引,入职第一天却发现真实工作是审核Gemini生成的暴力、色情内容。工作强度随着模型迭代不断加码:最初每个标注任务有30分钟处理时间,后来被压缩到15分钟甚至更少,部分员工每天要处理数百条涉及极端内容的AI回答。“我审核过描述强奸、杀戮的问题,那些轻描淡写的语气让我连续几周失眠。”一名谷歌外包标注员向《英国卫报》吐槽。更让他们焦虑的是,自己经常被要求处理完全不熟悉的专业领域内容,“比如突然让我评估量子物理相关的回答,我连术语都看不懂,怎么保证标注质量?”尽管美国本土标注员16美元/小时的时薪高于非洲、南美同行,但与硅谷工程师动辄百万的年薪相比,差距悬殊。他们就像AI金字塔的中间层,既支撑着顶层模型的迭代,又随时可能被更廉价的劳动力替代,看不到职业晋升的希望。

三、速度压倒伦理:AI安全承诺的“纸面崩溃”
“安全第一”是所有AI巨头挂在嘴边的口号,但在现实的利润与速度面前,这一承诺正在加速崩塌。今年年初,谷歌悄悄修改了AI内容审核规则:只要不是模型主动生成仇恨或色情语言,即便复述用户输入的极端内容,也被判定为“不违规”。这一调整背后,是标注团队不堪重负的现实——当模型生成的风险内容越来越多,企业选择的不是放慢迭代速度完善审核,而是降低安全标准来“减负”。此前Gemini曾出现“建议在披萨面团上涂胶水防止奶酪脱落”“推荐吃石头补充矿物质”等荒谬回答,引发公众对AI安全性的质疑。




结语:AI的“智慧”不该建立在劳动者的“牺牲”之上
当我们惊叹于大模型能写诗、解题、创作艺术时,很少有人会想到,每一个精准回答的背后,都可能凝结着标注员的汗水与心理创伤。xAI的裁员潮、谷歌的外包困境,只是AI行业劳工问题的缩影。技术的进步本应让人类生活更美好,而不是让一部分人成为另一部分人“智能红利”的祭品。未来,随着大模型对高质量标注数据的需求激增,数据标注行业的规模还将扩大。但如果企业始终将标注员视为“可替代的工具”,忽视他们的劳动权益与心理健康,那么AI的“智慧”终将失去温度。下一次再为AI的神奇表现赞叹时,不妨多问一句:这个回答的背后,是谁在默默付出?他们的权益,又该由谁来守护?
参考资料:
https://www.theguardian.com/technology/2025/sep/11/google-gemini-ai-training-humans
https://www.businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
https://x.com/rohanpaul_ai/status/1966943783276396730