关闭导航

包含标签"思维链(CoT)"的内容

LLM智能体决策缺陷(知行不一/贪婪/频率偏差)与RLFT改进研究
AI妹 1 个月前 8 0

現在的大模型(LLMs)已經非常智能。寫文章、編代碼、當醫生、當老師,樣樣精通。於是乎,有人就想了:既然它們這麼聰明,能不能讓它們自己做決定,當個“智能體”呢?比如,在複雜的環境裏自己探索、自己解

字节跳动重磅发布BAGEL:MoE架构开源多模态模型性能领先同类多任务
AI妹 1 个月前 9 0

字節跳動Seed團隊在Hugging Face平臺重磅發佈BAGEL,一款基於混合專家(MoE)架構的開源多模態基礎模型,擁有14億總參數和7億活躍參數。BAGEL在數萬億token的交錯多模態數

字节跳动Seed团队发布BAGEL:开源多模态MoE模型全球性能超越Qwen2.5-VL
AI妹 1 个月前 7 0

字节跳动Seed团队在Hugging Face平台重磅发布BAGEL,一款基于混合专家(MoE)架构的开源多模态基础模型,拥有14亿总参数和7亿活跃参数。BAGEL在数万亿token的交错多模态数