AI克隆人:光明、阴暗与灰色地带

作者: CBISMB

责任编辑: 邹大斌

来源: CBISMB

时间: 2026-05-09 09:31

关键字: AI 伦理 克隆

浏览: 1

点赞: 0

收藏: 0

如今,AI完全可以模仿真人,这项技术早已成熟,其伦理边界在多数场景下本应清晰。但随着应用不断翻新,越来越多的情况正在让伦理判断变得模糊。

好的一面

如,企业CEO或政治人物可以主动选择用AI工具为自己打造数字分身,包含聊天机器人与虚拟形象,代自己与人互动。硅谷对此尤为热衷:Meta的创始人扎克伯格和LinkedIn的联合创始人里德・霍夫曼都在打造或已拥有自己的数字孪生体。

政坛也有不少案例,比如巴基斯坦前总理伊姆兰・汗在狱中通过授权语音克隆开展竞选活动;纽约市长埃里克・亚当斯用AI克隆语音拨打自动电话,用普通话、意第绪语等多语种与选民沟通。

这类应用通常合乎伦理——前提是互动方明确知道自己面对的是AI克隆体,而非真人。

坏的一面

AI生成克隆人的另一面,是大量未经许可、违背伦理的滥用。而且这类案例已经比比皆是。例如:

2019年,首个被广泛记录的案例出现,骗子用AI模仿某集团高管的声音与德国口音,成功诱骗英国一家能源公司CEO转账22万欧元至欺诈账户。
2023年,美国亚利桑那州一位名叫詹妮弗・德斯蒂法诺(Jennifer DeStefano)的母亲遭勒索,犯罪分子用AI克隆其15岁女儿的声音索要100万美元赎金。
2024年,香港一名跨国企业财务人员在视频会议中被深度伪造的CFO与多位同事欺骗,转账2500万美元。
其他恶意用途还包括把名人面孔换到色情视频上。这些行为的是非曲直一目了然,全都属于严重错误。

但随着AI克隆快速兴起,相关的伦理争议变得更加复杂。

灰色地带

一种新趋势是,员工用专用软件打造上司或同事的数字替身。最受关注的项目是“同事技能”(Colleague Skill),由上海一位24岁工程师周天翼在3月底发布。

Colleague Skill及其开源的分支和仿制品,允许人们上传聊天记录、邮件和内部文档,生成模仿特定同事专业能力与沟通风格的数字人格。其技术栈包括Claude、Kimi、ChatGPT、DeepSeek API、OCR(Tesseract)和情感分析模块等工具。

Colleague Skill利用一个人过去的通讯记录来构建其人格的对话替身。如果把普通的AI想象成一个什么都懂一点的全科学生,那么这个工具就像是一个专属面具,强制AI表现得像某一个特定的个体。

换句话说,它产出的聊天机器人,具备了真人的知识储备和语言模式。

据报道,Colleague Skill最初只是讽刺AI引发的裁员潮。但后来被不少员工认真使用,用途包括:留存机构知识;随时模拟讨论方案和想法。

类似的动机还包括克隆上司,以便员工能更好地预判上司对自己工作的反应。然而,这些职场克隆很难获得本人同意。如果未经许可就基于同事或上司打造定制聊天机器人,这算不算不道德?

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。