从简介到上手:Sora 2 第一印象
打开应用,界面很干净,没什么需要学的东西。写一句提示词,按生成,等十几秒,屏幕上就出现了一段视频。这个过程比我预期的顺,快到有点不真实。
我发现自己开始反复试——改一个词,再生成,看有什么不同。节奏感这件事在这里是真实存在的,不是玄学:提示词写得短,画面往往更利落;写得太长、太复杂,模型好像就开始乱猜你的意思了。
它做到了什么
物理感比以前好不少。人在走路,衣服的晃动、光线的变化,没有以前那种塑料感。声音和画面的同步也明显进步了,大多数场景下嘴型对得上,不再像配音版港剧那样让人出戏。
人物短片是我测得最多的场景。单人、短句提示的效果最稳;一旦换成多人对话或者复杂场景,嘴型开始错位,背景有时候会突然换一个,手部细节也容易出问题。这些不是偶发的小bug,是目前这类模型普遍还没解决的事。
抽象或者风格化的提示是另一回事。我试过几个偏诗意的描述,输出结果很不稳定——有一两次真的让我觉得意外地好,但更多时候只是漂亮但没有重点的画面堆叠。想要逼近某个特定的导演风格,模型会给你一个它觉得"差不多"的版本,但那个版本未必是你想要的那个。
用下来的一些心得
分段生成比一次性投喂长提示词好用。想做有叙事感的东西,按镜头拆开来生成再剪,比让模型一口气承担所有内容稳定得多。
移动端和桌面端体验差异不大,但如果要写长提示词、做版本对比,桌面端更方便。
平台对真实人物的生成限制很严,这个方向基本别想。版权和署名的问题在发布前也值得想清楚,不是说不能用,是用之前最好知道自己在用什么。
总体感受
Sora 2 现在处于一个挺尴尬的位置:工具层面已经够用了,生成速度、界面、基础质量都没什么好抱怨的;但如果你对画面有很具体的想法,它还是会让你感到沮丧,因为它给你的和你脑子里的往往差一口气。
这口气现在还得靠反复迭代、后期剪辑去补。不是坏事,只是得有心理准备:它是个很好用的起点,但不是终点。