北京时间2月16日凌晨,OpenAI宣布推出名为Sora的文本转视频模型。用户只要给出文字叙述或静态图片,Sora就能够生成长达一分钟的视频。在OpenAI发布的范例视频中,可以看到细腻的场景、复杂的运镜和情绪饱满的角色,其效果足以以 假乱真。有网友感叹:“现实,不存在了”。
从目前公布的信息和演示视频来看,Sora的能力较之前爆火的Runway、Pika等文生视频模型更为强大。在生成的视频质量方面,Sora可以直接通过文字生成高清视频,能够更好地呈现细节,如物体的阴影和人物眼镜的反光。
在生成视频时长方面,sora也具备较大优势。Pika仅支持生成一段3秒的视频。去年,Runway的创始人在对外预测2024年的模型能力时,其中的核心目标就是能够生成15秒的流畅视频。而sora一问世,就直接把视频生成时长做到了一分钟,“碾压”了行业目前大概只有平均“4秒”的视频生成长度。
有人说也不过一分钟而已,离电视剧、电影动辄几十分钟上百分钟还远着呢,这么说没错,但这一分钟也足够把这个行业的水彻底搅浑了。
首先,sora所代表的文生视频技术可能会应用在没有真实演员的短视频作品中,并可能催生真正的“虚拟偶像”。其次,Sora可能会促进编剧行业的发展,因此剧本和文本创作能力将成为竞争的核心。此外,Sora会深度影响特效(CG)行业,因为使用AI来制作一些特效和高风险的镜头,可以大幅降低拍摄成本,也可以避免很多危险。但与此同时,平庸的摄影摄像师和剪辑师也会减少,因为AI生产视频能够做得更好,对于很多短视频创作者来说,用AI来替代繁琐的剪辑工作,可以大幅提高工作效率。
短期内,Sora生成的内容可能主要用于短视频营销、广告等场景。一些广告营销公司已经在使用AI进行大数据分析辅助选品和短视频投流。
这些新能力表明,视频模型的持续扩展为开发高性能的物理和数字世界模拟器提供了一条充满希望的道路。通过模拟生活在这些世界中的物体、动物和人等实体,我们可以更深入地理解现实世界的运行规律,并开发出更加逼真、自然的视频生成技术。
尽管Sora的表现已经接近真实,但OpenAI也主动在官网上指出了该模型存在的一些局限性并发布了一些sora生成的翻车视频。目前,sora还难以准确理解场景中物体之间的物理原理和因果关系,以及可能混淆提示词的空间细节。例如,一个人咬了饼干,但饼干上却没有咬痕。此外,Sora也难以呈现随着时间发展的事件,例如遵循特定相机轨迹的拍摄。
另外关于视频可能存在的虚假信息问题,OpenAI也表示,为避免AI生成视频带来的假新闻和误导性内容,后续将进行一系列的安全测试,并制定相应的安全规则。
Sora的出现,预示着一个全新的视觉叙事时代的到来,它能够将人们的想象力转化为生动的动态画面,将文字转化为肉眼可见的视觉盛宴。在这个由数据和算法编织的未来,Sora正以其独特的方式,重新定义着我们与数字世界的互动。正如马斯克所评论的那样:人类认赌服输,但AI增强的人类将创造出最好的作品。
更多关于AI领域的发展和变革,请订阅并收听《AI实践真知课》,我们将第一时间为你们带来最新鲜、最前沿的AI趋势解读。
以上内容来源于《中国企业家杂志》。听完之后,你觉得Sora会对视频影视行业产生哪些影响?欢迎大家留言告诉我。
还没有评论,快来发表第一个评论!