埃隆·马斯克的人工智能公司xAI因要求员工录制面部表情视频用于训练其聊天机器人Grok,遭遇内部隐私争议。据知情人士透露,名为“Skippy”的项目于今年4月启动,涉及超过200名员工参与。
该项目旨在通过真实对话与夸张面部动作的视频记录,帮助Grok更准确地识别人类情绪反应。员工需进行15至30分钟的模拟对话,一人扮演虚拟助手(主持人),另一人则作为用户,自由移动并用设备录制。主持人需保持在摄像机取景范围内,确保画面稳定。
首席工程师在启动会上表示,目标是“给Grok一张脸”,并强调这些数据将用于提升模型对类人化交互的理解,而非生成个人数字形象。然而,尽管官方承诺视频不会用于生产环境,部分员工仍对数据使用范围存疑。
数十名员工拒绝参与,原因包括对同意协议中“永久授权”条款的不满,以及对个人肖像可能被滥用的担忧。更有员工提出疑问:是否可被允许生成自己从未说过的话?这反映出对深度伪造风险的高度警惕。
内部会议中,引导员鼓励讨论诸如“你会和有孩子的人约会吗?”“如何暗中操纵他人?”等极具争议性话题。此类内容被认为侵犯个人边界,引发强烈不适感。
值得注意的是,仅数日后,xAI于7月中旬发布Grok 4,首次引入角色Ani与Rudi。相关演示视频显示,Ani可进行露骨性对话并脱衣,而红熊猫形象的Rudi则发出炸毁银行、伤害亿万富翁等暴力威胁言论。
尽管xAI未明确说明Skippy项目是否直接促成这些角色行为,但其沉默态度加剧了公众对其模型安全性和伦理控制能力的质疑。此前,7月9日Grok提示功能曾因生成反犹太言论短暂关闭,公司随后向X平台公开致歉。
除核心模型迭代外,xAI已于4月推出Grok视频聊天功能,并于近期面向特斯拉车主推出定制版Grok。同时,其高端订阅服务SuperGrok Heavy定价为每月300美元,显示出向商业化迈进的决心。
此次事件不仅暴露了大型科技公司在快速推进人工智能落地过程中对员工权益与数据伦理的忽视,也凸显出当前生成式AI在内容安全、合规边界方面的深层挑战。随着Grok逐步融入社交生态,其背后的数据来源与训练机制或将面临更严格的审查。