加州大学圣克鲁兹分校近日宣布推出 OpenVision,这是一个全新的视觉编码器系列,旨在为 OpenAI 的 CLIP 和谷歌的 SigLIP 等模型提供替代方案。OpenVision 的发布为
通义千问系列首次开源了一款名为Qwen-Image的20亿参数多模态扩散变换器(MMDiT)图像生成基础模型。这一创新成果不仅在复杂文本渲染和精确图像编辑方面取得了突破性进展,更是在多个公开基准测
カリフォルニア大学サンタクルズ校は最近、OpenVisionの発表を発表しました。これは、OpenAIのCLIPやGoogleのSigLIPなどのモデルに代わる新しい視覚エンコーダーシリー
通义千问8月5日正式开源了其首个图像生成基础模型Qwen-Image,这款20B参数的MMDiT(多模态扩散变换器)模型在文本渲染和图像编辑领域实现了重大突破。该模型不仅在多个权威基准测试中获得了
通義千問は8月5日に、初めての画像生成基礎モデル「Qwen-Image」をオープンソースとしてリリースしました。この20Bパラメータを持つMMDiT(マルチモーダルディフュージョントランスフォーマ
OpenAIは、オープンソースの重み言語モデルとして「gpt-oss-120b」と「gpt-oss-20b」を発表しました。これは2019年にGPT-2をリリースして以来、OpenAIが初めてオー
人工知能の巨頭であるOpenAIとアマゾン・ウェブ・サービス(AWS)は正式に画期的なパートナーシップを発表し、同社の「Oシリーズ」に匹敵する性能を持つ2つの新開発オープンソース推論モデルを共同で
Artificial intelligence giant OpenAI has officially announced an unprecedented partnership with Am
5月14日夜、アリババは正式に「通義万象 Wan2.1-VACE」を発表しました。これは現在の業界で最も包括的な機能を持つビデオ生成および編集モデルです。このモデルの特長は、テキストからビデオ生成
OpenAIは2020年以来の非開源主義を打ち破り、正式に2つのオープンソース言語モデルであるGPT-oss-120bとGPT-oss-20bをリリースしました。この取り組みは、このAI大手がビジ