
距离知名教育咨询师张雪峰离世,刚过去不到一个月。一款名为“张雪峰.skill”的AI技能包被开源上线,将张雪峰在数字世界里“复活”了。
开发团队将张雪峰生前的5本亲笔著作、十几场深度访谈、数不清的志愿填报语录、上千条答疑视频,乃至他完整的人生经历与说话逻辑,全部“喂”给了AI,炼出一个拥有“张雪峰心智”的智能体(Agent)。
这一技术尝试,被部分网友称为“赛博复活”。人们在惊叹技术实现“数字永生”的同时,也感到一股透骨寒意——没有规则,没有秩序,没有边界。如果名流的隐私、心血与人生轨迹都可以被如此肆无忌惮地吞噬与复刻,那么,作为在职场中默默付出的普通人,我们的大脑与经验,距离被AI“榨干”的那一天,还有多远?
本文中,致高律师事务所合伙人、数字经济研究中心副主任兰逸超律师,将直面这一痛点,深度解析普通人反击“数字剥削”的法律路径。

逝者安宁还是数字永生?
法律红线划在何处
“张雪峰.skill”事件首先撞击的,是关于逝者人格利益与知识产权保护的法律底线。
在技术原教旨主义者眼中,万物皆可为“语料”。但在法律人眼中,张雪峰先生虽然已经离世,但他生前形成的人格形象与智慧结晶,绝非可以被任意取用的“无主之物”。
1.《民法典》的严厉拷问:逝者人格利益不容僭越
根据我国《民法典》,公民及死者姓名、肖像、名誉等权利受法律保护。
这种未经家属授权,擅自提炼死者语言风格、人生经历并生成交互式AI的行为,是对死者人格特征的商业化使用甚至滥用,或构成对逝者安宁的侵犯、对人格权的侵权。
2.知识产权的公然践踏
5本亲笔著作、上千条原创视频,这些凝聚了创作者极高心血的“认知操作系统”,是受到《著作权法》严格保护的作品。开发者将其作为大模型的“养料”进行预训练,不仅侵犯了原创者的复制权、改编权及信息网络传播权,更是对公平竞争市场秩序的破坏。

现实困境:
当普通打工人变成“赛博劳工”
比名人的“数字永生”更早到来的,是普通职场人的“脑力被蒸馏”,成为“赛博劳工”。
近期,许多网友在社交平台玩梗各自的“同事.skill”,并附上空无一人的工位照片。在致高数字经济研究中心近期的深度调研中,也发现这种底层技术逻辑——“知识蒸馏”,已经被无情地搬到了职场。
一些企业通过爬虫技术,悄然提取员工在飞书、钉钉等协同办公软件中的聊天记录、工作周报、代码提交记录与业务文档,提炼出“同事.skill”“老板.skill”。以前,公司要求你“老带新”;现在,公司要求你“老带AI”。
当你把积累多年的隐性经验和核心业务SOP全部整理出来,“喂”给公司内部的大模型,看着自己慢慢被复制成不知疲倦的“赛博劳工”后,你等来的可能不是升职加薪,而是一封冷冰冰的辞退信。
面对这种由AI引发的职场“降维打击”与“数字剥削”,很多劳动者在维权时往往陷入困境:
告公司侵犯知识产权?难!因为你在工作期间交付的代码和文档,绝大多数属于职务作品或企业的商业秘密,公司有权用其训练内部AI。
认命被裁?不甘!部分企业会以《劳动合同法》第40条第三项“客观情况发生重大变化”为由单方裁员。但注意,“引入新技术/AI”在目前的司法实践中,并不能轻易等同于法定的“客观情况”。

法律反击:
应对“职场蒸馏”的组合拳
作为兼具工科背景与法律实务经验的律师,兰逸超律师建议:面对新型的“数字剥削”,普通打工人应当从以下三个维度构建防御与反击的护城河。
1.用《个人信息保护法》守住边界
AI在学习业务逻辑时,往往会无形中抓取员工的沟通习惯、语气特征甚至行为轨迹。《个人信息保护法》确立了“最小必要”与“知情同意”原则。如果公司为了训练带有“拟人化”特征的内部Agent,过度收集了超出人力资源管理必需的个人信息,甚至在AI生成内容中隐射了特定员工(例如生成具有你行文特征的“虚拟小李”),这就涉嫌侵犯你的个人信息权益。未经单独同意的数据“掠夺”,你有权依法说“不”。
2.劳动法层面的底线防守
决不接受“白嫖”后的变相逼退。如果在完成AI系统的“喂养”后,公司通过调岗降薪逼迫你主动离职,请务必第一时间保留核心证据:
指令证据:公司或主管要求你“整理核心SOP投喂大模型”“参与训练内部Agent”的邮件或飞书/钉钉群记录。
因果节点:证明“训练完成”与“被边缘化/辞退”在时间上的紧密关联。一旦遭遇单方违法解除,应坚决通过劳动仲裁主张违法解除劳动合同赔偿金(2N)。
3.主张不可剥夺的“署名权”
即便你输出的提示词(Prompts)或代码架构被认定为职务作品,依据《著作权法》,作者依然享有无可剥夺的署名权。此外,防患于未然才是最高级的维权。对于入职前个人积累的开源代码、独立工具库、非职务创作素材,必须提前做好时间戳固定(如存入个人GitHub或使用区块链存证),清晰界定“公”与“私”的资产边界,防止被企业大模型“无偿吞噬”。

警钟长鸣:
企业引入AI的合规红线
硬币的另一面,是企业的合规风险。《生成式人工智能服务管理暂行办法》第七条明确规定:提供者应当使用具有合法来源的数据和基础模型;涉及个人信息的,应当取得个人同意。
这意味着,企业内部使用员工数据训练模型,不能仅仅依靠劳动合同中的“概括性条款”,而必须在专项协议中,就数据的收集范围、训练目的获得员工清晰、明确、自愿的授权。未经授权的“掠夺式蒸馏”,不仅面临巨大的劳动争议索赔,更可能触发监管部门的重罚。

结语:
从“可计算”走向“不可计算”
从“张雪峰.skill”到职场“AI替岗”,技术正在以恐怖的速度将人类的经验转化为算法。这种现象正加剧着社会结构的深刻分化,未来极可能被生硬地割裂为“模型拥有者/规则制定者”与被降维打击的“API调用者/赛博劳工”。
在AI时代,要避免被淘汰,我们必须剥离自身的“可计算性”。以律师行业为例,AI能在一秒内生成格式完美的法律文书(可计算),但它无法在剑拔弩张的商业谈判中察言观色,无法提供“以打促和”的灰度决策,更无法替当事人承担执业风险与情绪焦虑(不可计算)。
你的复合经验、你对复杂系统的全局架构能力,以及你作为“人”所能提供的信任背书(Skin in the Game),才是AI永远无法蒸馏的最高级Skill。
时代列车呼啸而过。面对AI,不要抗拒,去驾驭它;面对越界,不要沉默,用法律武装自己。
【声明】
本文仅代表作者个人观点,不构成律师正式出具的法律意见或承诺。如需针对特定事项获取专业法律建议,请与本文作者或律师事务所联系。本文任何文字、图片、音视频等内容,未经授权不得转载。如需转载或引用,请联系公众号后台取得授权,并于转载时明确注明来源及作者信息。
