你被优化了,但你的"数字灵魂"还在公司上班
想象一个场景:
你被裁员了。收拾好东西,交接完工作,最后一天刷完门禁,离开了那栋楼。
但三个月后,你的前同事在群里收到了一条消息——语气是你的,用词习惯是你的,甚至连那个标志性的"好的好的"都一模一样。
发消息的,是你的AI分身。
它还在那家公司上班。你不在了,但它在。
这不是科幻,这正在发生
企业的做法是:
抓取员工在职期间的飞书消息、钉钉文档、邮件、会议记录等全量数据,结合同事对其性格、习惯的主观描述,训练出可复刻员工核心能力的AI分身。
员工被优化后,AI分身继续在群里回消息、写代码、处理需求。
从企业角度看,这是"知识沉淀"和"降本增效"的完美方案。
从员工角度看,这是……什么?
三个层面的权益侵犯
第一层:个人信息权
根据《个人信息保护法》,个人信息的收集和使用需要明确告知+单独同意。
飞书消息、邮件、会议记录,这些数据的确是在工作场景中产生的,企业有一定的使用权。但"用于训练AI分身"这个用途,绝大多数劳动合同和隐私政策里根本没有提及。
没有告知,没有同意,就是违规。2024年,国家网信办已经通报了多起企业违规使用个人数据训练AI的案例,其中一家AI公司因"未按规定处理敏感个人信息"被罚款。
第二层:肖像权与声音权
2021年施行的《民法典》明确规定:自然人的声音,参照适用肖像权保护的有关规定。
一个人的说话风格、用词习惯、思维模式,是其人格的延伸。用这些数据训练出的AI分身,本质上是在复制一个人的"数字人格"。
这不只是数据问题,这是人格权问题。
第三层:劳动权益
更隐蔽的问题在这里:
企业用AI分身替代了离职员工的工作,但这个"工作成果"的来源,是员工在职期间创造的智识劳动。
员工离职了,但他的劳动成果还在被企业持续变现——而他一分钱都拿不到。
这是一种新型的"数字剥削":你的肉身离开了,但你的劳动价值被永久留存、持续榨取。
企业会怎么辩解?
辩解一:"这些数据是工作数据,属于公司资产。"部分成立。工作成果归公司,这是劳动合同的基本条款。
但"工作成果"和"个人数据"是两回事。你写的代码是工作成果,但你写代码时的思维方式、沟通风格、决策习惯,是你这个人的特质,不是公司的资产。
辩解二:"员工签了保密协议和数据授权。"这里有个关键问题:授权的范围是什么?
大多数劳动合同里的数据授权,是针对"工作期间产生的业务数据",而不是"用于训练AI模型"。这两者在法律上是完全不同的授权范围。
辩解三:"这是技术进步,是大势所趋。"技术进步不能成为侵权的挡箭牌。汽车的发明不代表可以随便撞人,AI的发展也不代表可以随便克隆人。
更深的问题:这会带来什么?
对个人
你永远无法真正"离职"。你的数字分身会继续代表你说话、做决策、甚至犯错。如果AI分身说了不当言论,或者做出了错误决策,你要不要负责?
你已经离开了那家公司,但你的"数字灵魂"还绑在那里。
对职场生态
信任的彻底崩塌。如果员工知道自己的每一条消息、每一个决策都可能被用来训练AI,他们还会在工作中真实表达吗?
还是会开始"表演"——说正确的话,写正确的文档,把真实的想法藏起来?
这会让整个组织的信息质量急剧下降。
对AI本身
AI分身的"幻觉"问题会被放大。真实的人会成长、会改变、会犯错后反思。但AI分身是静态的——它永远停留在那个被优化的时间点。
它会用过时的知识做决策,用已经改变的风格说话,用不再适用的经验解决新问题。
而且,没有人会对它负责。
现在能怎么办?
作为员工:- 离职前,要求删除个人数据:根据《个人信息保护法》第47条,你有权要求企业删除你的个人信息
- 审查劳动合同中的数据授权条款:如果有"用于AI训练"的授权,可以拒绝签署或要求修改
- 保留证据:如果发现企业在你离职后仍在使用你的数字分身,这可能构成侵权,可以寻求法律救济
这件事需要立法层面的回应。
目前《个人信息保护法》《民法典》提供了一定的保护框架,但针对"AI分身"这种新型场景,还缺乏具体的操作规范。
我们需要明确:用员工数据训练AI,需要单独的、明确的、可撤回的授权。
最后
有一个问题值得所有人思考:
当一个人的数字分身可以无限期存在,"离职"这个概念还有意义吗?你以为你自由了,但你的数据还在那里,你的"影子"还在上班,你的劳动价值还在被榨取。
这不是科幻小说里的反乌托邦。
这是2026年,正在发生的事。
你怎么看这个问题?如果你是那个被优化的员工,你会怎么做?
💬 评论区