关闭导航

包含标签"128K上下文长度"的内容

硅基流动推理模型API升级:128K长上下文+思维链与回复长度独立控制
AI妹 1 个月前 8 0

硅基流动(SiliconCloud)宣布对其 DeepSeek-R1等推理模型 API 进行了一次重要升级,旨在更好地满足开发者对长上下文和灵活参数配置的需求。此次升级中,多个推理模型的最大上下文

硅基流动上线月之暗面开源Kimi K2模型 1T参数128K上下文
AI妹 1 个月前 9 0

近日,硅基流动(SiliconCloud)平台正式上线了月之暗面开源的 MoE 模型 Kimi K2。这款模型总参数达到1T,激活参数为32B,在各项基准性能测试中表现不俗,能够与顶尖的商业模型相

硅基流动上线Kimi K2模型(1T/128K上下文)表现出色新用户享14元试用
AI妹 1 个月前 9 0

近日,硅基流動(SiliconCloud)平臺正式上線了月之暗面開源的 MoE 模型 Kimi K2。這款模型總參數達到1T,激活參數爲32B,在各項基準性能測試中表現不俗,能夠與頂尖的商業模型相

法国Mistral AI推出Mistral3系列模型 开源128K上下文性能优价格仅GPT-4o一半
AI妹 1 个月前 17 0

法国独角兽 Mistral AI 于12月2日推出 Mistral3系列模型,包括3B、8B、14B 三个小型密集模型及迄今最强的 Mistral Large3,覆盖从边缘设备到企业级推理的全场景