OpenAI发布文生视频模型 Sora,到底有多强大?现实中到底有多大用?
从文本创建视频
以下是OpenAI官网介绍
Sora 是一个 AI 模型,可以从文本指令中创建逼真和富有想象力的场景。
我们正在教人工智能理解和模拟运动中的物理世界,目标是训练模型,帮助人们解决需要现实世界交互的问题。
介绍我们的文本到视频模型 Sora。Sora 可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。
在OpenAI的产品中提供Sora之前,我们将采取几个重要的安全措施。我们正在与红队成员合作,他们是错误信息、仇恨内容和偏见等领域的领域专家,他们将对模型进行对抗性测试。
我们还在构建工具来帮助检测误导性内容,例如检测分类器,可以判断视频何时由 Sora 生成。我们计划包括C2PA 元数据将来,如果我们在 OpenAI 产品中部署模型。
除了开发新技术来准备部署之外,我们还利用现有的安全方法我们为使用 DALL·E 3,也适用于Sora。
例如,一旦进入 OpenAI 产品,我们的文本分类器将检查并拒绝违反我们使用政策的文本输入提示,例如那些请求极端暴力、色情内容、仇恨图像、名人肖像或他人 IP 的提示。我们还开发了强大的图像分类器,用于查看生成的每个视频的帧数,以帮助确保在向用户显示视频之前,这些视频符合我们的使用政策。
我们将与世界各地的政策制定者、教育工作者和艺术家合作,了解他们的担忧,并确定这项新技术的积极用例。尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们滥用技术的所有方式。这就是为什么我们认为,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。
Sora 是一种扩散模型,它从看起来像静态噪声的视频开始生成视频,然后通过多个步骤消除噪声来逐渐转换视频。
Sora 能够一次生成整个视频或扩展生成的视频以使其更长。通过让模型一次看到许多帧,我们解决了一个具有挑战性的问题,即确保一个主题即使暂时离开视野也能保持不变。
与 GPT 模型类似,Sora 使用 transformer 架构,释放出卓越的扩展性能。
我们将视频和图像表示为称为补丁的较小数据单元的集合,每个补丁都类似于 GPT 中的一个令牌。通过统一我们表示数据的方式,我们可以在比以前更广泛的视觉数据上训练扩散变压器,跨越不同的持续时间、分辨率和纵横比。
Sora建立在DALL·E 和 GPT 模型。它使用了 DALL·E 3,涉及为视觉训练数据生成高度描述性的标题。因此,该模型能够更忠实地遵循生成视频中用户的文本说明。
除了能够仅根据文本说明生成视频外,该模型还能够获取现有的静止图像并从中生成视频,从而准确无误地对图像内容进行动画处理,并注重小细节。该模型还可以拍摄现有视频并对其进行扩展或填充缺失的帧。在我们的技术报告中了解更多信息.
Sora是能够理解和模拟现实世界的模型的基础,我们相信这一能力将是实现AGI的重要里程碑。
Very interesting details you have mentioned, thank you for posting.Money from blog