阿里通义宣布开源 Wan2.1系列模型,其中包括强大的首尾帧生视频模型。这一模型采用了先进的 DiT 架构,在技术上实现了多项突破,显著降低了高清视频生成的运算成本,同时确保了生成视频在时间与空间
阿里通義宣佈開源 Wan2.1系列模型,其中包括強大的首尾幀生視頻模型。這一模型採用了先進的 DiT 架構,在技術上實現了多項突破,顯著降低了高清視頻生成的運算成本,同時確保了生成視頻在時間與空間
先日、マイクロソフトの研究チームは、BitNet b1.582B4Tというオープンソースの大規模言語モデルを発表しました。このモデルは20億のパラメータを持ち、独自の1.58ビット低精度アーキテク
近日,微軟研究團隊正式發佈了一款名爲 BitNet b1.582B4T 的開源大型語言模型。這款模型擁有20億參數,採用了獨特的1.58位低精度架構進行原生訓練,與傳統的訓練後量化方式相比,Bit
阿里巴巴旗下的通義實驗室在Hugging Face和GitHub平臺正式開源了其最新的Wan2.1-FLF2V-14B首尾幀生視頻模型。這一模型以其支持高清視頻生成和靈活的首尾幀控制功能引發業界熱
阿里巴巴旗下的通义实验室在Hugging Face和GitHub平台正式开源了其最新的Wan2.1-FLF2V-14B首尾帧生视频模型。这一模型以其支持高清视频生成和灵活的首尾帧控制功能引发业界热
Alibaba's Tongyi Lab has officially open-sourced its latest video generation model, Wan2.1-FLF2V-1
アリババ傘下の通義实验室は、Hugging FaceとGitHubプラットフォームで最新の動画生成モデル「Wan2.1-FLF2V-14B」を正式にオープンソース化しました。このモデルは、高画質動
近日,騰訊旗下InstantCharacter框架正式開源,爲AI驅動的角色定製領域帶來突破性進展。據AIbase瞭解,該框架能夠基於單張圖像與文本提示生成高一致性的自定義角色,支持多樣化的姿勢、
テンセント混元は、カスタマイズ可能な画像生成プラグイン「InstantCharacter」のオープンソース化を発表し、オープンソースのテキストから画像生成モデル「Flux」との互換性を実現しました
emlog1 个月前
发表在:欢迎使用emlog这是系统生成的演示评论