权限被故意泄露,OpenAI暂停Sora访问

权限被故意泄露,OpenAI暂停Sora访问

吾爱首码网 2024-11-29 主播业务 682 次浏览 4个评论

  每经记者 蔡 鼎 实习记者 岳楚鹏    每经编辑 兰素英    

  一直被外界寄予极高期望的OpenAI文生视频AI模型Sora自今年2月首次展示以来 ,就没有任何关于何时正式发布的消息了。当地时间11月26日 ,一些据称参与了Sora测试的艺术家泄露了该模型的访问权限(API),以抗议OpenAI对他们的压榨行为 。

  当日,公共AI模型社区Hugging Face突然出现了一个文生视频的项目 。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端 ,让所有Hugging Face的用户可以使用Sora生成视频。

  通过这一前端,用户可以通过输入简短的文字描述来生成分辨率高达1080p的10秒视频。但项目创建三个小时后,OpenAI就关闭了所有艺术家对Sora的早期访问权限 。目前该项目已无法使用。在短短的三小时内 ,用户通过这一项目生成了87个视频并发布了出来。

  目前OpenAI并没有公开确认所谓的Sora泄露是否属实 。但是OpenAI强调,参与其“研究预览 ”是“自愿的,没有义务提供反馈或使用该工具 ”。

  OpenAI暂停Sora访问权限这一举动也暴露出AI行业的透明度问题。随后 ,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信 。截至发稿,这封信已经收到550个签名 ,包括马斯克。

  艺术家们怒了

  当地时间11月26日,一小群参与Sora测试的艺术家在Hugging Face泄露了Sora的访问权限,以表达对OpenAI的不满。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端 ,让所有Hugging Face的用户可以使用Sora生成视频 。

  此前 ,OpenAI向数百名艺术家开放了Sora的早期使用权,以测试这款新的AI视频生成器。但部分艺术家认为,OpenAI利用了他们的无偿劳动 ,并利用他们来提升公司形象。

  为引起外界对OpenAI这一行为的关注,他们在公共AI模型社区Hugging Face上发布了一个在线项目,允许公众使用Sora生成视频 。

  随项目同时发布的还有一封言辞激烈的公开信 。在信中 ,艺术家们将OpenAI比作“中世纪的封建领主”,谴责他们利用了艺术家的无私贡献,却并没有给出合理的报酬。“我们获得了Sora的使用权 ,并承诺成为早期测试者 、红队成员和创意合作伙伴。然而,我们认为,我们被引诱进行‘艺术洗白’ ,以告诉世界Sora对艺术家来说是一个有用的工具 。”

  这封信充斥着对OpenAI的不满,艺术家们写道:“我们不是你的无偿研发人员。我们不是你的免费错误测试人员 、PR(公关)傀儡、训练数据和验证令牌。 ”

  尽管参与模型测试的艺术家有数百名,但只有少数作品进行展映 ,而且报酬极为有限 ,与OpenAI获得的巨大公关和营销价值相比,简直是微不足道 。更让这些艺术家们愤怒的是,“每个影片都需要OpenAI团队的批准才能分享。这个早期访问计划似乎更多关注的是公关和广告 ,而不是创作表达和批评。”

  他们在信中强调,“我们并不反对将AI技术作为艺术工具使用(如果我们反对,可能就不会参加这个项目) 。我们不同意的是艺术家项目的推出方式 ,以及该工具在可能公开发布之前的呈现方式。我们发布这个声明,希望OpenAI能变得更加开放,对艺术家更加友好 ,并在支持艺术方面不只是公关作秀。”

  他们还呼吁其他艺术家使用开源的视频生成工具来抵制OpenAI这种闭源公司 。“开源视频生成工具让艺术家能够在没有门槛、商业利益或服务于任何公司的公关目的下,探索前卫艺术。我们也鼓励艺术家使用自己的数据集来训练自己的模型。 ”

  但在艺术家们上线Sora API项目后三小时,OpenAI迅速切断了访问权限 。OpenAI发言人Niko Felix称 ,公司将暂停所有用户对Sora的访问,同时调查情况 。但是他拒绝说明这个项目是不是真链接到了Sora模型。“Sora仍处于研究预览阶段,我们正努力在创造力与更广泛的强大安全措施之间取得平衡。”

  Felix同时说道:“我们alpha版本的数百名艺术家塑造了Sora的发展 ,帮助确定新功能和保障措施的优先级 。参与是自愿的 ,没有提供反馈或使用该工具的义务。我们很高兴为这些艺术家提供免费访问权限,并将继续通过赠款 、活动和其他计划为他们提供支持。我们相信AI可以成为一种强大的创意工具,并致力于让Sora既实用又安全 。”

  AI研发被指缺乏透明度

  在OpenAI暂停Sora访问权限后 ,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。

  截至发稿,这封信已经收到550个签名 ,与OpenAI极其不对付的马斯克也在其中。

  这次事件在AI行业中并不常见,因为早期测试人员的反馈受到公司的严格控制,而且严厉的批评很少公开 。通常 ,公司会亲自挑选外部人员提前访问系统,在某些情况下,公司会要求这些用户签署保密协议或获得批准 ,然后才能公开分享系统生成的任何图像、视频或文本响应。

  但最近,越来越多的AI安全专家批评这种做法对独立研究产生了寒蝉效应,降低了透明度 ,并阻碍了对公司行为的问责。斯坦福大学的基础模型透明度指数显示 ,没有一家主要的基础模型开发商能够提供足够的透明度(最高得分54分,满分100分),这揭示了AI行业缺乏透明度 。

  OpenAI的员工此前也指责公司强迫员工签署“封口协议 ” ,不允许离职员工发表对公司的负面言论,否则公司可以收回员工已有股权。离职员工也不得对外公开这些协议内容。

  为此,今年6月 ,OpenAI以及谷歌DeepMind的一批员工联合发布了一份名为《对AI发出警告》的公开信 。

  公开信预警,AI技术存在加剧不平等、操纵和误导信息,失去控制并威胁人类的风险 。AI公司技术迭代的同时产生了大量安全相关的非公开信息 ,它们没有主动披露的动机。监管部门对此难以形成有效制约,只能由现任或前任员工要求它们向公众负责。

  上述员工在公开信中对包括OpenAI在内的AI公司提出了4点呼吁:⒈不强迫员工签订禁止批评公司的协议;⒉为公司现任和前任员工提供匿名的安全反馈机制;⒊允许现任和前任员工向董事会 、监管机构、其他安全机构提出对公司技术安全的担忧;⒋公司不对公开分享风险相关机密信息的现任和前任员工进行报复 。

  正如Hugging Face的一则评论所说,“AI并非凭空而来。它建立在创意人员的肩膀上 ,而这些创意人员往往没有得到认可。Sora泄密事件敲响了警钟:没有道德的创新就是剥削 。”

  翻译

  搜索

  复制

你可能想看:

转载请注明来自吾爱首码网,本文标题:《权限被故意泄露,OpenAI暂停Sora访问》

每一天,每一秒,你所做的决定都会改变你的人生!
Top