OpenAI推出AI系统 将文本转换为逼真的视频
该公司周四在一篇博客文章中表示,这款名为Sora的AI系统可以快速制作长达一分钟的视频,这些视频可以呈现“具有多个角色、特定类型的动作、以及主题和背景的准确细节的复杂场景”。
。完美继承DALL·E 3的画质和遵循指令能力,能生成长达1分钟的高清视频。
有紧跟舞龙队伍抬头好奇官网的儿童,还有不少人掏出手机边跟边拍,海量人物角色各有各的行为。
,目标是训练模型来帮助人们解决需要现实世界交互的问题根据文本提示生成视频,仅仅是整个计划其中的一步。
,不仅能理解用户在提示中提出的要求,还了解这些物体在物理世界中的存在方式。比如一大群纸飞机在树林中飞过,Sora知道碰撞后会发生啥,并表现其中的光影变化。
Sora还可以在单个视频中创建多个镜头,并依靠对语言的深入理解准确地解释提示词,保留角色和视觉风格。
。例如“五只灰狼幼崽在一条偏僻的碎石路上互相嬉戏、追逐”,狼的数量会变化,一些凭空出现或消失。
,例如混淆左右,并且可能难以精确描述跟着时间推移发生的事件,例如遵循特定的相机轨迹。如提示词“篮球穿过篮筐然后爆炸”中,篮球没有正确被篮筐阻挡。
。与GPT模型类似,Sora使用了Transformer架构,有很强的扩展性。
在数据方面,OpenAI将视频和图像表示为patch,类似于GPT中的token。
,可以在比以前更广泛的视觉数据上训练模型,涵盖不同的维持的时间、分辨率和纵横比。Sora建立在过去对DALL·E和GPT模型的研究之上。它使用DALL·E 3的重述提示词技术,为视觉训练数据生成高度描述性的标注,因此能够更忠实地遵循用户的文本指令。
除了能够仅根据文本指令生成视频之外,该模型还可以获取现有的静态图像并从中生成视频,准确地让图像内容动起来并关注小细节。
该模型还能获取现有视频并对其进行扩展或填充缺失的帧,请参阅技术论文知道更多信息(晚些时候发布)。
Sora 是能够理解和模拟现实世界的模型的基础,OpenAI相信这一功能将成为实现AGI的重要里程碑。