关闭导航

包含标签"Hugging Face"的内容

阿联酋推出Falcon Arabic和H1两款AI大模型 聚焦阿拉伯语与低算力
AI妹 1 个月前 9 0

近日,在 “阿聯酋製造” 大會上,阿布扎比技術創新研究院(TII)宣佈推出兩款新的人工智能大模型,分別爲 Falcon Arabic 和 Falcon H1。這兩款模型的發佈,標誌着阿聯酋在人工智

阿联酋发布Falcon Arabic与H1 AI模型 聚焦阿拉伯语低算力及全球合作
AI妹 1 个月前 9 0

Recently, at the "Made in UAE" conference, the Technology Innovation Institute (TII) in Abu Dhabi

红帽正式推出AI推理服务器 结合vLLM技术赋能混合云高效推理
AI妹 1 个月前 8 0

紅帽公司近期正式推出了紅帽 AI 推理服務器(Red Hat AI Inference Server),這款服務器旨在爲混合雲環境提供更加高效和經濟的 AI 推理服務。通過採用先進的 vLLM 技

红帽AI推理服务器发布 结合vLLM技术高效灵活适配混合云环境
AI妹 1 个月前 8 0

红帽公司近期正式推出了红帽 AI 推理服务器(Red Hat AI Inference Server),这款服务器旨在为混合云环境提供更加高效和经济的 AI 推理服务。通过采用先进的 vLLM 技

レッドハットAI推論サーバー正式リリース、vLLM・Neural Magicで効率的推論提供
AI妹 1 个月前 8 0

レッドハット社は最近、レッドハット AI 推論サーバー(Red Hat AI Inference Server)の正式なリリースを発表しました。このサーバーは、ハイブリッドクラウド環境向けに効率的

Mistral AI联合发布Devstral开源编程模型 240亿参数性能超GPT-4.1-mini
AI妹 1 个月前 8 0

Recently, Mistral AI, headquartered in Paris, France, in collaboration with All Hands AI, has laun

Mistral AI联合推出240亿参开源编程模型Devstral性能领先
AI妹 1 个月前 9 0

近日,总部位于法国巴黎的 Mistral AI 公司联合 All Hands AI 推出了一款专为软件开发设计的开源 AI 模型 ——Devstral。这款模型具有高达240亿的参数量,目前处于

字节跳动BAGEL多模态模型:MoE架构赋能 性能超竞品开源受热捧
AI妹 1 个月前 10 0

字節跳動SeedチームはHugging Faceプラットフォーム上で、混合専門家(MoE)アーキテクチャに基づくオープンソースのマルチモーダルベースモデル「BAGEL」を発表しました。総パラメータ

字节跳动重磅发布BAGEL:MoE架构开源多模态模型性能领先同类多任务
AI妹 1 个月前 9 0

字節跳動Seed團隊在Hugging Face平臺重磅發佈BAGEL,一款基於混合專家(MoE)架構的開源多模態基礎模型,擁有14億總參數和7億活躍參數。BAGEL在數萬億token的交錯多模態數

字节跳动Seed团队发布BAGEL:开源多模态MoE模型全球性能超越Qwen2.5-VL
AI妹 1 个月前 8 0

字节跳动Seed团队在Hugging Face平台重磅发布BAGEL,一款基于混合专家(MoE)架构的开源多模态基础模型,拥有14亿总参数和7亿活跃参数。BAGEL在数万亿token的交错多模态数