91久久大香伊蕉在人线国产-91精品无人区1码2码3码-久久综合久久综合鬼色-无码一区二区三区爆白浆久久-亚洲国产日韩一区二区三区-韩国一区二区在线播放-亚洲精品乱码久久久久久蜜月-日韩卡一卡二卡三在线-中文字幕第一页亚洲天堂

中國首個視頻大模型Vidu顛覆而來,性能全面對標Sora!

摘要:目前全世界有3.05億視頻創(chuàng)作者,每天有200億次以上的視頻播放量,視頻需求非常大。在“視頻為王”的時代,文生視頻大模型Vidu的問世,有望推動視頻創(chuàng)作者生產力革命,大幅降低生產成本與創(chuàng)作門檻!

《中國AIGC應用全景報告》指出,今年中國AIGC(生成式人工智能)應用市場規(guī)模將達200億元,到2030年將達萬億規(guī)模,2024年到2028年的年平均復合增長率將超30%。在這個炙手可熱的賽道上,新模型與新應用正持續(xù)涌現(xiàn),不斷顛覆著內容生產模式。

4月27日,在中關村論壇未來人工智能先鋒論壇上,生數(shù)科技聯(lián)合清華大學正式發(fā)布了中國首個長時長、高一致性、高動態(tài)性視頻大模型Vidu。這是自Sora發(fā)布之后全球率先取得重大突破的視頻大模型,性能全面對標國際頂尖水平。

與Sora一致,Vidu能夠根據(jù)提供的文本描述直接生成長達16秒的高質量視頻,且分辨率高達1080P。

生數(shù)科技方面介紹,Vidu采用的核心技術U-ViT架構,由團隊于2022年9月提出,早于Sora采用的DiT架構,是全球首個Diffusion(擴散概率模型)與Transformer融合的架構,完全由團隊自主研發(fā)。

當前,Vidu主要有以下特點與優(yōu)勢:

一是模擬真實物理世界,可以生成復雜、細節(jié)豐富的場景,光影 效果與人物表情都能夠符合真實的物理規(guī)律。

二是富有想象力,可以虛構場景以及想象超現(xiàn)實主義的畫面。

三是具有多鏡頭語言,不再局限于固定鏡頭,能夠在遵循主體一致性的情況下實現(xiàn)遠景、近景、中景、特寫等不同鏡頭的動態(tài)切換,還可以實現(xiàn)長鏡頭、追焦等效果。

四是有出色的視頻時長,能支持16秒長度的視頻生成,保持鏡頭和主體的連貫一致。

五是能理解中國元素,可以更好地理解生成熊貓、龍等富有中國文化特色的形象。

在生數(shù)科技發(fā)布的Vidu模型生成視頻樣片中,視頻的整體質感可與Sora相媲美,并能創(chuàng)造出具有深度和復雜性的超現(xiàn)實主義內容,比如“畫室里的一艘船正在海浪中駛向鏡頭”。

Vidu背后的生數(shù)科技成立于2023年3月,公司創(chuàng)始團隊來自清華大學人工智能研究院,是全球范圍內最早從事擴散概率模型研究的團隊之一。截至目前,生數(shù)科技已完成數(shù)億元融資,投資方包括啟明創(chuàng)投、螞蟻集團、BV百度風投、達泰資本、錦秋基金、卓源亞洲等知名機構。

目前全世界有3.05億視頻創(chuàng)作者,每天有200億次以上的視頻播放量,視頻需求非常大。在“視頻為王”的時代,文生視頻大模型Vidu的問世,有望推動視頻創(chuàng)作者生產力革命,大幅降低生產成本與創(chuàng)作門檻!

編輯/姬妍
本平臺發(fā)布/轉載的內容僅用于信息分享,不代表我司對外的任何意見、建議或保證,我們倡導尊重與保護知識產權,如發(fā)現(xiàn)本站文章存在版權問題,煩請將版權疑問、授權證明、版權證明、聯(lián)系方式等,發(fā)郵件至info@tonews.cn,我們將第一時間核實、處理。同時,歡迎各方媒體、機構轉載和引用,但要嚴格注明來源:今日商訊。

您可能感興趣的文章