使用 AI 製作影片已成為熱門的創作方式,若想將靜態照片轉換為流暢短片,在 Hugging Face 平台有不少體驗模型可免費使用,「Wan2.2 14B Preview」就是其中之一,大約花費 4~8 個運算步數,就能根據照片生成短片(最長 10 秒),讓原本靜態畫面變成自然的動態影像。
Wan 2.2 是由阿里通義實驗室推出的影片生成模型,擁有 14B 參數並採用混合專家(MoE)架構,能根據來源圖像與文字描述生成物理動態畫面。本文分享的體驗模型則是由開發者 r3gm 建立,結合 Wan 2.2 I2V、LoRA 加速與 FP8 壓縮技術,大幅減少生成運算步數。
Wan2.2 14B Preview 可透過 Hugging Face 平台提供的免費共享資源(ZeroGPU)運行,不過平台會限制 GPU 配額,而且生成影片所需的用量較多。建議先註冊 Hugging Face 帳戶可獲得較多 GPU 配額,此外,在尖峰時間可能需要排隊等待。
筆者實際操作 Wan2.2 14B Preview 體驗模型時,發現這款模型並沒有嚴謹的 NSFW 屏蔽或阻擋規則。例如,女性人物照片搭配「Exposing breasts」提示詞,順利生成指定畫面的動態影片。
名稱:Wan2.2 14B Preview
語言:英文
網址:https://huggingface.co/spaces/r3gm/wan2-2-fp8da-aoti-preview
Wan2.2專案:https://github.com/Wan-Video/Wan2.2
使用 Wan2.2 14B Preview 生成影片





延伸閱讀:
- Meta AI 支援生成圖片、動畫與 Vibes 短片混搭創作
- FlexClip 線上 AI 影片編輯器,輸入主題自動生成影片
- AI Gallery 免費生成 NSFW 圖像,提供多款繪圖模型
- Image To Video AI Free 根據照片+描述生成指定影片
文章更新:原介紹的 Open Sora 已失效,本文於 2026 年 3 月重新撰寫,改為分享 Wan2.2 14B Preview 體驗模型。
0 留言