阿里34篇論文入選國際頂會CVPR2024,AnimateAnyone、EMO等模型亮相
近日,國際計算機視覺頂會CVPR 2024在西雅圖召開,阿里共34篇論文被收錄,其中有6篇入選Highlight和Oral Paper,被收錄論文研究方向涵蓋多模態模型、圖像編輯及可控視頻生成等前沿領域。早些時候火遍國內外的Animate Anyone、EMO、Facechain等模型也在會議現場亮相,并吸引了大量參會人員的關注與體驗。
CVPR是計算機視覺領域最頂級的學術會議,每年都有大量企業、研究機構和高校參會,過去十幾年曾誕生了ResNet、ImageNet等極具影響力的研究成果。據統計,今年CVPR共提交了 11532 份論文,最終2719 篇被接收,接受率只有23.6%,為近4年最低,而Highlight和Oral的占比僅為11.9%和3.3%。
在阿里通義實驗室的Highlight論文《SCEdit: Efficient and Controllable Image Diffusion Generation via Skip Connection Editing 》中,研究團隊提出了一種全新的圖像擴散生成框架 SCEdit,它引入了全新的SC-Tuner的輕量級微調模塊,通過對原始模型進行細微的調整,大幅度降低了訓練參數量、內存消耗和計算開銷。實驗結果顯示,SCEdit可快速遷移到特定的生成場景中,相比LoRA節省30%-50%的訓練顯存開銷,可應用于邊緣圖、深度圖、分割圖、姿態、顏色圖、圖像補全等條件生成任務。目前相關代碼及微調模型均已開源。
會議現場,阿里首次在海外展示了基于Animate Anyone和EMO打造的大模型應用,吸引了來自全球各地參會者體驗。過去半年,這兩個項目在Github上累計獲得超20k的Star,是視頻生成領域的標桿項目。
據介紹,目前通義大模型家族已擁有文本生成、圖像生成、視頻生成、圖像理解等全模態能力。不久前開源的Qwen2-72B是全球性能最強的開源模型,性能超過美國最強的開源模型Llama3-70B,也超過文心4.0、豆包pro、混元pro等眾多中國閉源大模型。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。