Wan 2.2 影片生成模型:靜態照片轉生動影片,支援 NSFW 內容

使用 AI 製作影片已成為熱門的創作方式,若想將靜態照片轉換為流暢短片,在 Hugging Face 平台有不少體驗模型可免費使用,「Wan2.2 14B Preview」就是其中之一,大約花費 4~8 個運算步數,就能根據照片生成短片(最長 10 秒),讓原本靜態畫面變成自然的動態影像。

Wan 2.2 是由阿里通義實驗室推出的影片生成模型,擁有 14B 參數並採用混合專家(MoE)架構,能根據來源圖像與文字描述生成物理動態畫面。本文分享的體驗模型則是由開發者 r3gm 建立,結合 Wan 2.2 I2V、LoRA 加速與 FP8 壓縮技術,大幅減少生成運算步數。

Wan2.2 14B Preview 可透過 Hugging Face 平台提供的免費共享資源(ZeroGPU)運行,不過平台會限制 GPU 配額,而且生成影片所需的用量較多。建議先註冊 Hugging Face 帳戶可獲得較多 GPU 配額,此外,在尖峰時間可能需要排隊等待。

筆者實際操作 Wan2.2 14B Preview 體驗模型時,發現這款模型並沒有嚴謹的 NSFW 屏蔽或阻擋規則。例如,女性人物照片搭配「Exposing breasts」提示詞,順利生成指定畫面的動態影片。

名稱:Wan2.2 14B Preview

語言:英文

網址:https://huggingface.co/spaces/r3gm/wan2-2-fp8da-aoti-preview

Wan2.2專案:https://github.com/Wan-Video/Wan2.2

使用 Wan2.2 14B Preview 生成影片

1. 開啟 Hugging Face 平台上的 Wan2.2 14B Preview 模型網頁,建議先註冊/登入帳戶,點擊「Input Image」方框選擇一張照片,上傳圖片會顯示預覽圖。
在 Wan2.2 14B Preview 體驗頁面的 Input Image 區塊上傳靜態照片
2. 在圖片預覽框下方有影片設置,可選擇時間長度(最多 10 秒)和每秒影格數,點擊「Generate Video」開始生成影片。
設定 Wan 2.2 影片生成的時間長度、每秒影格數與提示詞,並點擊 Generate Video 按鈕
3. 若有需要可展開 Advanced Settings(進階設置)可上傳另一張圖片當成最後畫面,以及負面提示詞與其他選項。
Wan 2.2 模型的進階設置介面,可上傳影片最後畫面並輸入負面提示詞
4. 生成影片需要等待一段時間,處理完成後,可在「Generated Video」觀看影片,點擊「下載」按鈕即可保存 .mp4 檔案。筆者在提示中寫入 NSFW 描述,也能順利生成指定畫面。
影片生成完成後,點擊 Generated Video 區塊的下載按鈕保存 mp4 檔案
5. 前面說過,生成影片需要較多 GPU 資源,未登入帳戶可能遇到配額不足,網頁會彈出警示提醒。
Hugging Face 平台提示 ZeroGPU quota exceeded 免費算力配額不足的錯誤畫面

延伸閱讀:

文章更新:原介紹的 Open Sora 已失效,本文於 2026 年 3 月重新撰寫,改為分享 Wan2.2 14B Preview 體驗模型。