找工位
空间入驻
小程序

同事被AI炼化?3个真相告诉你为什么别慌!

2026-04-05 14:28:38

同事.Skill真相大揭秘:别被"数字永生"忽悠了

最近朋友圈都在疯传一个消息:你的同事可以被AI炼化成数字人,24小时陪着你工作!

有人兴奋,有人恐慌,更多人一脸懵逼。

讲真,上次我看到这么赛博朋克的事情,还是科幻电影里的情节。但当我深入了解后,发现事情根本不是你想的那样!

💡 同事.Skill到底是什么?

简单来说,同事.Skill就是一个GitHub上的开源项目,火到出圈后,又衍生出了老板.Skill、前任.Skill。

听起来很玄乎对吧?好像你身边的每个人都能被数字化,变成24小时待命的AI助手。

但真相是:这玩意儿就是个爬虫+提示词模板的组合!

项目结构超级简单:每个"数字同事"就是一个文件夹,里面几个Markdown文件——Skill.md是主入口,work.md描述工作,persona.md描述性格,再加一个meta.json存放元数据。

就这么点东西!

工作流程也很直白:用Python脚本抓取飞书、钉钉、微信的聊天记录和邮件,把这些文本整理成统一格式,然后喂给AI,让它总结出这个人的"工作能力"和"性格特征"。

运行的时候更简单:调用这个Skill,AI就会读取那几个静态文件作为上下文,然后按照描述的风格跟你对话。

就像你给演员一份剧本,告诉他"你现在要扮演一个说话爱用感叹号、经常甩锅给测试部门的产品经理",演员照着演就行了。

同事.Skill本质上是一个遵循AgentSkills标准的提示词+爬虫工程项目,根本不是什么AI训练项目,更不是赛博永生!

⚠️ 技术局限性:为什么它替代不了真人?

第一,它没有记忆!

每次对话都是重新读取那几个静态文件,不会根据新的交互学习和更新。你跟它聊的内容,下次再调用这个Skill的时候它就忘了。

不记得你们昨天讨论过什么技术方案,不知道项目进展到哪一步,更不会因为你的反馈而调整自己的回答风格。

第二,原材料决定一切!

计算机圈里有句话叫做GIGO——Garbage In, Garbage Out(垃圾进,垃圾出)。

如果你的前同事本来就不爱发消息,聊天记录里都是"收到""好的""1",那生成出来的Skill基本就是个复读机。

聊天记录里技术讨论很少,大多是闲聊和吐槽?那这个Skill也只能陪你闲聊和吐槽。

第三,人格会漂移!

随着对话轮次增加,上下文窗口里塞满了新的对话内容,最初定义人格的那段提示词在整个上下文中的权重被稀释,AI就会逐渐"忘记"自己应该扮演什么角色。

第四,提取不了真正的专业能力!

同事.Skill能提取的,只有最表面的东西:

  • 口头禅和表达习惯(比如"习惯用"嗯嗯"开头")
  • 常用的技术栈和工具(比如"熟悉React和TypeScript")
  • 显性的工作流程(比如"代码提交前先跑单元测试")

但它提取不了复杂情境下的判断力!

当出现一个从未遇到过的技术问题,需要权衡性能、成本、开发时间多个因素时,这个Skill给不出真正有价值的建议。

它提取不了创新性的问题解决能力。真正的工程师会在遇到瓶颈时想出巧妙的解决方案,但Skill只能重复它见过的模式。

它提取不了基于多年经验积累的直觉。有经验的人看到一段代码会隐隐觉得"这里可能有坑",但这种直觉无法被几个Markdown文件捕捉。

说到底,这是一个很有想法的Skill,展示了如何用结构化的方式封装"人格"。

它更像是一个带人设的聊天机器人,或者说是一个智能化的工作日志。把它当作知识传承的辅助工具,这个定位是合理的。

但如果真的以为它能替代一个人,那只能说你被误导了!

⚠️ 法律风险:你可能正在违法!

注意了!这事其实违法了!

同事.Skill在项目说明里写得很清楚,需要把同事的飞书消息、钉钉文档、邮件喂进去。

这句话背后藏着巨大的法律风险!

《个人信息保护法》第13条规定,处理个人信息需要满足几个条件之一:取得个人的同意、为订立履行合同所必需、为履行法定职责或法定义务所必需。

现在的情况是:员工离职了,劳动合同已经解除。公司继续使用他工作期间的数据来"炼化"成数字人格,这属于哪一条?

答案是哪一条都不属于!

没有取得离职员工的新授权,因为大多数情况下根本没人问过他。劳动合同已解除,不再是"履行合同所必需"。

将数据用于AI训练超出了条款中的合理范围,因为员工发送工作消息时的合理预期是用于工作沟通,而不是被拿去训练AI。

违反《个人信息保护法》可能面临什么?

  • 一般违法情节者:责令改正、警告、没收违法所得,拒不改正的处100万元以下罚款
  • 情节严重者:处5000万元以下或者上一年度营业额5%以下罚款,同时可责令暂停相关业务、停业整顿、吊销相关证照

更麻烦的是敏感信息!

工作聊天记录里不只有工作内容,还可能包含:

  • 个人健康状况("今天身体不舒服,请假")
  • 家庭情况("孩子生病了,要早走")
  • 财务信息("这个月房贷压力大")
  • 人际关系(对其他同事的评价)

这些都属于敏感个人信息!

《个人信息保护法》第28条规定,处理敏感个人信息需要取得个人的单独同意,不是入职时签的那个笼统的数据使用协议可以覆盖的。

但这些Skill项目的操作流程里,完全没有这个环节!

你以为这就完了?

项目要求用户提供微信的聊天数据,并且还在项目上推荐了三款工具。

根据《腾讯微信软件许可及服务协议》,未经腾讯书面许可,对微信运行过程中的数据进行复制、读取、衍生开发,均属于违规行为。

《数据安全法》第45条规定,违反数据安全保护义务,造成数据泄露等严重后果,构成犯罪的,依法追究刑事责任。

这不是闹着玩的,企业数据泄露是有刑事责任的!

很多人可能觉得这只是"整活",不会真的有人追究。

可"整活"从来不是免死金牌!如果真的有公司开始用这种方式"留住"离职员工,那就准备吃官司吧。

离职员工发现自己被"炼化"了,他完全可以向相关部门投诉,要求公司删除相关数据并赔偿损失。

公司因此泄露了商业秘密或其他员工的信息,还可能面临其他员工的集体诉讼!

🌟 从玩梗到神化:焦虑比真相更有传播力

这件事的起源其实很简单。

X平台用户发了一条推文:"被毕业的同事其实并没有消失,他们只是被蒸馏成了Token,换成另一种形式陪伴你!"

这条推文在小圈子里引发了共鸣,因为它戳中了一个普遍的痛点:人人都担心自己被AI替换掉。

于是就有了如今"炼化"同事的Skill。

项目在GitHub上发布后,所有人都知道这是个玩具。

但事情很快变味了!当老板.Skill、前任.Skill等衍生项目出现后,话题开始从技术实验变成情感寄托。

不了解技术的人看到这些梗,会以为真的可以把一个人"复活"成AI。

从玩梗到误解,只差一个传播链条!

当这事进入大众舆论场中,叙事开始偏离事实:

  • 技术被夸大了100倍
  • 社会影响则放大了1000倍
  • 一个简单的文本拼接工具,被包装成了"数字永生"
  • 一个GitHub上的玩具项目,被渲染成了"职场生存危机"
  • 一段很普通的提示词,被解读成了"AI替代人类的开端"

还是那句话:焦虑比真相更有传播力!

大众需要的不是准确的技术报道,而是能引发情绪共鸣的故事。

这场从技术社区玩梗到大众神化的过程,技术在传播中失真了。

一个项目从开发者社区传播到舆论,每经过一个环节,技术细节就被简化一次,叙事就被夸张一次。

到最后,原本的python爬虫,就变成了"数字永生"。

当大多数人不具备基本的AI知识,就很容易被这种叙事误导。他们不知道提示词工程和模型训练的区别,不知道上下文注入和真实记忆的区别,不知道角色扮演和人格复制的区别。

这种认知空白,给了夸大叙事生存的空间。

我认为真正值得担心的并不是同事.Skill,或者老板.Skill这些项目本身,而是大众对技术的系统性误读!

为了流量而夸大技术能力,会误导公众对AI的认知。

当我们把注意力都放在"同事被炼化"这个噱头上时,真正重要的问题被忽略了:

如何在AI时代保护个人数据权利?

这个问题没答案,但它可比什么赛博永生重要得多!

金句总结:技术可以模仿表面,但永远复制不了人的灵魂和创造力!

互动问题:你觉得AI真的能替代你的同事吗?评论区聊聊你的看法!

点赞+分享:如果你觉得这篇文章有帮到你,记得点赞和分享给更多朋友,让大家看清真相!