AI視頻殺出一匹快樂黑馬:把Seedance 2.0擠下榜首,幕後團隊成謎

由 DeepTech深科技 發佈於 科技

'26-04-09

4 月 7 日深夜,AI 評測平臺 Artificial Analysis 在 X 上發了一條簡短的公告:Video Arena 新增了一個“pseudonymous”(匿名)視頻模型,代號 HappyHorse-1.0。沒有發佈會,沒有技術博客,沒有任何機構署名。


48 小時後,這個模型的 Elo 積分衝到了文本轉視頻賽道的 1,347 分,圖像轉視頻賽道的 1,391 分(如今已分別衝到 1,378 分和 1,411 分),雙雙登頂。它和第二名 Seedance 2.0 之間的分差達到 60 至 74 分,整個榜單上第二名到第十九名之間的累計分差,也不過 70 分出頭。


圖丨Video Arena 榜單(來源:Artificial Analysis)


字節的 Seedance 2.0 自今年 2 月發佈以來一路大殺四方,先後壓過 Sora 2 和 Veo 3,被不少人視爲當前 AI 視頻生成的天花板。一個剛上線幾天的匿名模型把它甩開這麼遠,網友難免好奇:“這是誰家的部將,竟如此勇猛?”


2026 年是農曆馬年,再加上“HappyHorse”這個命名和今年 2 月匿名上線 OpenRouter 後被確認爲智譜 GLM-5 的“Pony Alpha”套路如出一轍,於是許多人猜測它應該出自中國團隊之手。


但“中國團隊”的範圍太大了。社交媒體上的猜測衆說紛紜:騰訊和阿里的創始人都姓馬,有一定的可能性;還有人覺得像小米的風格,因爲此前霸榜的匿名模型 Hunter Alpha 就出自小米。


目前可信度較高的猜測有兩個,首先是 X 用戶 Vigo Zhao 將 HappyHorse-1.0 的公開基準數據(視覺質量 4.80、文本對齊 4.18、物理一致性 4.52、語音字錯率 14.60%)逐項與已知模型覈對後,結果找到了一個高度吻合的對象:今年 3 月底在 GitHub 開源的 daVinci-MagiHuman。兩者都是 150 億參數、40 層單流 Transformer 架構,都做音視頻聯合生成,支持的語言列表完全一致,官網的架構描述和演示視頻的呈現風格也幾乎同一套模板。


daVinci-MagiHuman 的開發方是 Sand.ai 和上海創智學院 GAIR 實驗室的聯合團隊。Sand.ai 創始人曹越是清華特等獎學金得主、Swin Transformer 共同一作、ICCV 2021 馬爾獎獲得者,2023 年創立 Sand.ai 後專注自迴歸視頻生成方向,此前已開源過視頻大模型 MAGI-1,融資規模近六千萬美元。


但另一條線索把故事引向了別處。多家自媒體和財經媒體報道稱,HappyHorse 背後的團隊是阿里巴巴淘天集團旗下的“未來生活實驗室”,由張迪領銜。網上流傳的一個號稱是 HappyHorse 官網的頁面也寫明瞭淘天集團的歸屬,但該官網的真實性尚未得到官方確認。


張迪的履歷和 AI 視頻賽道深度綁定:2020 年至 2025 年任快手副總裁,主導搭建了可靈大模型的底層架構,業界稱其爲“可靈之父”;2025 年短暫加入 B 站負責技術條線後迴歸阿里,執掌淘天集團未來生活實驗室。


兩條線索誰對誰錯,目前尚不得而知。


(順便一提,筆者在檢索相關信息時還發現,微信在 25 年居然就出過一個名爲“快樂馬”的卡通形象,所以不靠譜的猜測一下,沒準真的出自騰訊團隊。)


圖丨相關推文(來源:X)


不過話說回來,除去 Elo 分數,這個模型的水平究竟如何?


從目前網上流傳的實測視頻來看,HappyHorse 在許多場景下的表現的確與 Seedance 2.0 不分伯仲,部分場景甚至有所超越,但整體並沒有“全面領先”的觀感。比如在一些實測視頻中,它在物理真實性方面表現似乎就不如 Seedance 2.0。


我們也在 Artificial Analysis 平臺上進行了實測。雖然沒能直接抽到 Seedance 2.0 與 HappyHorse 的對決,但在多次與其他模型的配對中,HappyHorse 的確時常是更勝一籌的那個。


比如在這個跑步場景裏,Veo 3.1 Preview 和 HappyHorse 都存在問題,比如幾個人的動作分解都沒有完全實現,但 Veo 還額外出現了憑空冒出毛巾等穿幫。


而在這個打字機的場景下,在打字機的場景下,HappyHorse 對提示詞的執行稱得上精準,字跡也相對清晰。相比之下,Kling 2.6 Pro 對“紙張向上捲起,被抽出並放在打字機旁”這個動作就沒有正確理解。


而在另一個比較複雜的場景裏,Happy Horse 居然做到了準確理解了“建築師”這個職業的工作,在電腦上生成了對應的圖紙,其他細節也較爲還原,表現非常出色。


需要指出的是,Artificial Analysis 的 Video Arena 完全基於真實用戶盲測投票,兩段視頻並排,用戶選更喜歡哪個,模型團隊無法刷題作弊。這套機制的優點是直接反映普通人的視覺感知,但它有結構性的侷限,如果盲測素材以某一類特定場景爲主,那麼擅長該場景的模型就會拿到更高的勝率。


不少測試者在對比後認爲,HappyHorse 在人物細節和動態連貫性上跟 Seedance 2.0 仍有可見差距,由此質疑 Elo 評分能否代表綜合實力。


這種質疑有它的道理。Elo 系統是純粹的偏好累積,最終分數很大程度上取決於用戶傾向於提交什麼樣的測試內容。我們尚無從得知 HappyHorse 的投票總量,而 Seedance 2.0 僅在文本轉視頻類別就已積累超過 7,500 次投票樣本,隨着更多投票進來,排名仍可能變動。


但無論排名最終怎麼調整,如果所謂的“官網”以及一大堆 GitHub 上出現的各個“coming soon”的倉庫是真的,那就意味着一個開源視頻模型在以用戶真實感知爲基準的盲測排行榜上,首次正面比肩了當前主流閉源競爭對手。這對用戶來說是件好事,Seedance 2.0 效果雖好,但價格不低,等候時間也長,市場需要更多選項。


參考資料:

1.https://artificialanalysis.ai/video/leaderboard/text-to-video

2.https://x.com/yyyole/status/2041876401754919422

3.https://wavespeed.ai/blog/posts/what-is-happyhorse-1-0-ai-video-model/


運營/排版:何晨龍

Scroll to Top