AI克隆人:光明、阴暗与灰色地带
作者: CBISMB
责任编辑: 邹大斌
来源: CBISMB
时间: 2026-05-09 09:31
浏览: 1
点赞: 0
收藏: 0
如今,AI完全可以模仿真人,这项技术早已成熟,其伦理边界在多数场景下本应清晰。但随着应用不断翻新,越来越多的情况正在让伦理判断变得模糊。
好的一面
如,企业CEO或政治人物可以主动选择用AI工具为自己打造数字分身,包含聊天机器人与虚拟形象,代自己与人互动。硅谷对此尤为热衷:Meta的创始人扎克伯格和LinkedIn的联合创始人里德・霍夫曼都在打造或已拥有自己的数字孪生体。
政坛也有不少案例,比如巴基斯坦前总理伊姆兰・汗在狱中通过授权语音克隆开展竞选活动;纽约市长埃里克・亚当斯用AI克隆语音拨打自动电话,用普通话、意第绪语等多语种与选民沟通。
这类应用通常合乎伦理——前提是互动方明确知道自己面对的是AI克隆体,而非真人。
坏的一面
AI生成克隆人的另一面,是大量未经许可、违背伦理的滥用。而且这类案例已经比比皆是。例如:
2019年,首个被广泛记录的案例出现,骗子用AI模仿某集团高管的声音与德国口音,成功诱骗英国一家能源公司CEO转账22万欧元至欺诈账户。
2023年,美国亚利桑那州一位名叫詹妮弗・德斯蒂法诺(Jennifer DeStefano)的母亲遭勒索,犯罪分子用AI克隆其15岁女儿的声音索要100万美元赎金。
2024年,香港一名跨国企业财务人员在视频会议中被深度伪造的CFO与多位同事欺骗,转账2500万美元。
其他恶意用途还包括把名人面孔换到色情视频上。这些行为的是非曲直一目了然,全都属于严重错误。
但随着AI克隆快速兴起,相关的伦理争议变得更加复杂。
灰色地带
一种新趋势是,员工用专用软件打造上司或同事的数字替身。最受关注的项目是“同事技能”(Colleague Skill),由上海一位24岁工程师周天翼在3月底发布。
Colleague Skill及其开源的分支和仿制品,允许人们上传聊天记录、邮件和内部文档,生成模仿特定同事专业能力与沟通风格的数字人格。其技术栈包括Claude、Kimi、ChatGPT、DeepSeek API、OCR(Tesseract)和情感分析模块等工具。
Colleague Skill利用一个人过去的通讯记录来构建其人格的对话替身。如果把普通的AI想象成一个什么都懂一点的全科学生,那么这个工具就像是一个专属面具,强制AI表现得像某一个特定的个体。
换句话说,它产出的聊天机器人,具备了真人的知识储备和语言模式。
据报道,Colleague Skill最初只是讽刺AI引发的裁员潮。但后来被不少员工认真使用,用途包括:留存机构知识;随时模拟讨论方案和想法。
类似的动机还包括克隆上司,以便员工能更好地预判上司对自己工作的反应。然而,这些职场克隆很难获得本人同意。如果未经许可就基于同事或上司打造定制聊天机器人,这算不算不道德?