今天凌晨,OpenAI 的视频生成工具 Sora 的内测版本遭到了泄露。这一事件的起因是部分早期测试人员(艺术家)对 OpenAI 产生了强烈的不满。艺术家们用一种极端的方式,将 Sora 的访问权限公之于众,引发了全网的热议。
事件背景
Sora 是 OpenAI 于今年2月16日正式发布的视频生成工具,至今已过去9个月。这款工具的保密级别极高,能够测试的人寥寥无几,主要局限于参与安全测试的红队成员和一些被邀请的艺术家。然而,正是这些艺术家成为了此次泄露事件的导火索。
艺术家的愤怒
据爆料,这些艺术家对 OpenAI 的不满由来已久。他们在公开信中指出,OpenAI 向早期测试人员施压,要求他们编造正面的叙述,但并未给予他们应有的补偿。这些艺术家认为自己被当成了公关宣传的傀儡(PR Puppets),感到极度不公平。
一位匿名艺术家在接受采访时说:“我们投入了大量的时间和精力,却只得到了几句空洞的感谢。OpenAI 对我们的贡献视而不见,这让我们感到非常失望。”
泄露的过程
泄露事件发生在当地时间11月26日。一小群参与 Sora 测试的艺术家在 Hugging Face 上泄露了 Sora 的访问权限。他们利用自己的身份验证令牌,创建了一个前端,使所有 Hugging Face 的用户都可以使用 Sora 生成视频。
这一举动迅速引起了广泛关注,许多网友纷纷尝试使用 Sora 生成视频,体验其强大的功能。然而,这种未经授权的访问行为也引发了对安全性的担忧。
OpenAI 的回应
面对这一突发事件,OpenAI 迅速采取行动,关闭了泄露的访问权限,并发表声明表示将对此事展开调查。OpenAI 的发言人表示:“我们非常重视这次泄露事件,正在积极与相关方沟通,以确保类似事件不再发生。”
同时,OpenAI 也在努力安抚受影响的艺术家,承诺将重新评估他们的贡献,并给予适当的补偿。然而,对于许多艺术家来说,这种事后补救已经无法弥补他们所受到的伤害。
社区的反应
此次事件在社交媒体上引发了广泛讨论。支持艺术家的声音占据了主流,许多人认为 OpenAI 应该更加透明和公正地对待测试人员。一位网友在推特上写道:“艺术创作不应该被当作廉价劳动力,希望 OpenAI 能够反思自己的行为。”
但也有人对艺术家的行为表示质疑,认为这种极端手段可能会适得其反,影响到更多无辜用户的权益。一位技术评论员指出:“虽然艺术家们的不满可以理解,但泄露敏感信息的行为仍然不可取。”
未来的展望
此次泄露事件无疑给 OpenAI 敲响了警钟。如何平衡技术创新与用户权益,如何更好地与测试人员合作,将是 OpenAI 需要认真思考的问题。同时,这也提醒其他科技公司,对待合作伙伴的态度和方式将直接影响到企业的声誉和发展。
无论结果如何,这次事件都将成为 AI 发展史上一个值得深思的案例。希望未来的技术创新能够在更加公平和透明的环境中进行,真正惠及每一个参与者。
发表评论 取消回复