

最近朋友圈都在疯传一个消息:你的同事可以被AI炼化成数字人,24小时陪着你工作!
有人兴奋,有人恐慌,更多人一脸懵逼。
讲真,上次我看到这么赛博朋克的事情,还是科幻电影里的情节。但当我深入了解后,发现事情根本不是你想的那样!
简单来说,同事.Skill就是一个GitHub上的开源项目,火到出圈后,又衍生出了老板.Skill、前任.Skill。
听起来很玄乎对吧?好像你身边的每个人都能被数字化,变成24小时待命的AI助手。
但真相是:这玩意儿就是个爬虫+提示词模板的组合!
项目结构超级简单:每个"数字同事"就是一个文件夹,里面几个Markdown文件——Skill.md是主入口,work.md描述工作,persona.md描述性格,再加一个meta.json存放元数据。
就这么点东西!
工作流程也很直白:用Python脚本抓取飞书、钉钉、微信的聊天记录和邮件,把这些文本整理成统一格式,然后喂给AI,让它总结出这个人的"工作能力"和"性格特征"。
运行的时候更简单:调用这个Skill,AI就会读取那几个静态文件作为上下文,然后按照描述的风格跟你对话。
就像你给演员一份剧本,告诉他"你现在要扮演一个说话爱用感叹号、经常甩锅给测试部门的产品经理",演员照着演就行了。
同事.Skill本质上是一个遵循AgentSkills标准的提示词+爬虫工程项目,根本不是什么AI训练项目,更不是赛博永生!
第一,它没有记忆!
每次对话都是重新读取那几个静态文件,不会根据新的交互学习和更新。你跟它聊的内容,下次再调用这个Skill的时候它就忘了。
不记得你们昨天讨论过什么技术方案,不知道项目进展到哪一步,更不会因为你的反馈而调整自己的回答风格。
第二,原材料决定一切!
计算机圈里有句话叫做GIGO——Garbage In, Garbage Out(垃圾进,垃圾出)。
如果你的前同事本来就不爱发消息,聊天记录里都是"收到""好的""1",那生成出来的Skill基本就是个复读机。
聊天记录里技术讨论很少,大多是闲聊和吐槽?那这个Skill也只能陪你闲聊和吐槽。
第三,人格会漂移!
随着对话轮次增加,上下文窗口里塞满了新的对话内容,最初定义人格的那段提示词在整个上下文中的权重被稀释,AI就会逐渐"忘记"自己应该扮演什么角色。
第四,提取不了真正的专业能力!
同事.Skill能提取的,只有最表面的东西:
但它提取不了复杂情境下的判断力!
当出现一个从未遇到过的技术问题,需要权衡性能、成本、开发时间多个因素时,这个Skill给不出真正有价值的建议。
它提取不了创新性的问题解决能力。真正的工程师会在遇到瓶颈时想出巧妙的解决方案,但Skill只能重复它见过的模式。
它提取不了基于多年经验积累的直觉。有经验的人看到一段代码会隐隐觉得"这里可能有坑",但这种直觉无法被几个Markdown文件捕捉。
说到底,这是一个很有想法的Skill,展示了如何用结构化的方式封装"人格"。
它更像是一个带人设的聊天机器人,或者说是一个智能化的工作日志。把它当作知识传承的辅助工具,这个定位是合理的。
但如果真的以为它能替代一个人,那只能说你被误导了!
注意了!这事其实违法了!
同事.Skill在项目说明里写得很清楚,需要把同事的飞书消息、钉钉文档、邮件喂进去。
这句话背后藏着巨大的法律风险!
《个人信息保护法》第13条规定,处理个人信息需要满足几个条件之一:取得个人的同意、为订立履行合同所必需、为履行法定职责或法定义务所必需。
现在的情况是:员工离职了,劳动合同已经解除。公司继续使用他工作期间的数据来"炼化"成数字人格,这属于哪一条?
答案是哪一条都不属于!
没有取得离职员工的新授权,因为大多数情况下根本没人问过他。劳动合同已解除,不再是"履行合同所必需"。
将数据用于AI训练超出了条款中的合理范围,因为员工发送工作消息时的合理预期是用于工作沟通,而不是被拿去训练AI。
违反《个人信息保护法》可能面临什么?
更麻烦的是敏感信息!
工作聊天记录里不只有工作内容,还可能包含:
这些都属于敏感个人信息!
《个人信息保护法》第28条规定,处理敏感个人信息需要取得个人的单独同意,不是入职时签的那个笼统的数据使用协议可以覆盖的。
但这些Skill项目的操作流程里,完全没有这个环节!
你以为这就完了?
项目要求用户提供微信的聊天数据,并且还在项目上推荐了三款工具。
根据《腾讯微信软件许可及服务协议》,未经腾讯书面许可,对微信运行过程中的数据进行复制、读取、衍生开发,均属于违规行为。
《数据安全法》第45条规定,违反数据安全保护义务,造成数据泄露等严重后果,构成犯罪的,依法追究刑事责任。
这不是闹着玩的,企业数据泄露是有刑事责任的!
很多人可能觉得这只是"整活",不会真的有人追究。
可"整活"从来不是免死金牌!如果真的有公司开始用这种方式"留住"离职员工,那就准备吃官司吧。
离职员工发现自己被"炼化"了,他完全可以向相关部门投诉,要求公司删除相关数据并赔偿损失。
公司因此泄露了商业秘密或其他员工的信息,还可能面临其他员工的集体诉讼!
这件事的起源其实很简单。
X平台用户发了一条推文:"被毕业的同事其实并没有消失,他们只是被蒸馏成了Token,换成另一种形式陪伴你!"
这条推文在小圈子里引发了共鸣,因为它戳中了一个普遍的痛点:人人都担心自己被AI替换掉。
于是就有了如今"炼化"同事的Skill。
项目在GitHub上发布后,所有人都知道这是个玩具。
但事情很快变味了!当老板.Skill、前任.Skill等衍生项目出现后,话题开始从技术实验变成情感寄托。
不了解技术的人看到这些梗,会以为真的可以把一个人"复活"成AI。
从玩梗到误解,只差一个传播链条!
当这事进入大众舆论场中,叙事开始偏离事实:
还是那句话:焦虑比真相更有传播力!
大众需要的不是准确的技术报道,而是能引发情绪共鸣的故事。
这场从技术社区玩梗到大众神化的过程,技术在传播中失真了。
一个项目从开发者社区传播到舆论,每经过一个环节,技术细节就被简化一次,叙事就被夸张一次。
到最后,原本的python爬虫,就变成了"数字永生"。
当大多数人不具备基本的AI知识,就很容易被这种叙事误导。他们不知道提示词工程和模型训练的区别,不知道上下文注入和真实记忆的区别,不知道角色扮演和人格复制的区别。
这种认知空白,给了夸大叙事生存的空间。
我认为真正值得担心的并不是同事.Skill,或者老板.Skill这些项目本身,而是大众对技术的系统性误读!
为了流量而夸大技术能力,会误导公众对AI的认知。
当我们把注意力都放在"同事被炼化"这个噱头上时,真正重要的问题被忽略了:
如何在AI时代保护个人数据权利?
这个问题没答案,但它可比什么赛博永生重要得多!
金句总结:技术可以模仿表面,但永远复制不了人的灵魂和创造力!
互动问题:你觉得AI真的能替代你的同事吗?评论区聊聊你的看法!
点赞+分享:如果你觉得这篇文章有帮到你,记得点赞和分享给更多朋友,让大家看清真相!