关闭导航

包含标签"MLX"的内容

谷歌Gemma3系列经QAT优化 显存需求大降可在消费级GPU本地运行
AI妹 1 个月前 10 0

谷歌近期推出了 Gemma3系列的全新版本,這一消息讓衆多 AI 愛好者爲之振奮。僅在上線一個月後,谷歌便發佈了經過量化感知訓練(QAT)優化的 Gemma3,旨在顯著降低內存需求的同時,保持模型

谷歌Gemma3系列QAT优化版发布 降低显存需求助力用户在消费级GPU本地运行
AI妹 1 个月前 10 0

谷歌近期推出了 Gemma3系列的全新版本,这一消息让众多 AI 爱好者为之振奋。仅在上线一个月后,谷歌便发布了经过量化感知训练(QAT)优化的 Gemma3,旨在显著降低内存需求的同时,保持模型

MLX-LM整合Hugging Face,苹果硅设备可本地高速运行超4400个LLM
AI妹 1 个月前 9 0

Recently, MLX-LM has been directly integrated into the Hugging Face platform. This milestone updat

Apple MLX框架新增CUDA支持 助力开发者跨平台AI开发部署
AI妹 1 个月前 9 0

アップルは、Apple Siliconチップ向けに設計された機械学習フレームワーク「MLX」にNVIDIAのCUDAサポートを追加しています。この画期的な進展により、AI開発者にとってこれまでにな