【jinnianhui科技消息】近日,字節跳動推出的AI視頻生成模型Seedance2.0引發海內外廣泛關注。這款模型憑借“雙分支擴散變換器架構”實現視頻與音頻同步生成,用戶僅需輸入文本或上傳圖片,即可在60秒內獲得帶有原生音頻的多鏡頭序列視頻,其多鏡頭敘事功能更被業界視為突破性創新。

據官方介紹,Seedance2.0的核心優勢在于“單提示生成連貫多場景”能力。AI可自動拆解文本或圖像中的敘事邏輯,生成多個關聯場景,并在角色一致性、視覺風格統一性及氛圍銜接上實現“零手動編輯”。例如,用戶輸入“雨夜追兇”的提示詞,模型可自動生成從案發現場到嫌疑人逃亡、警方追捕的全流程視頻,且鏡頭切換、光影變化均保持高度連貫。這一特性被開源證券評價為“導演級控制精度”,或成為AI影視創作的“奇點”。
博主“影視颶風”的測試顯示,Seedance2.0在分鏡設計上展現出“類真人導演”的運鏡思維,能通過角度切換、鏡頭推拉等手法增強敘事張力;音畫匹配方面,模型可依據視頻內容自動生成環境音效與背景音樂,甚至能模擬雨聲、腳步聲等細節。開源證券研報指出,該模型在自運鏡、分運鏡及全方位多模態思考能力上實現突破,2K視頻生成速度較快手可靈等競品快30%。

此外,影視颶風Tim在評測字節跳動AI視頻模型Seedance2.0時,因兩項突破性能力直言其“恐怖”——僅憑一張人臉照片即可生成對應人物的真實聲音與語氣,并能“腦補”未上傳的物體背面細節。
版權所有,未經許可不得轉載
-金年會體育