关闭导航

包含标签"多模态模型训练"的内容

字节跳动PHD-Transformer:高效支持2M上下文LLM长序列预训练
AI妹 1 个月前 8 0

字节跳动宣布推出高效预训练长度缩放技术(Efficient Pretraining Length Scaling),通过创新的Parallel Hidden Decoding Transforme

字节跳动PHD-Transformer:高效预训练长序列 支持2M上下文提升LLM训练效率
AI妹 1 个月前 8 0

字節跳動宣佈推出高效預訓練長度縮放技術(Efficient Pretraining Length Scaling),通過創新的Parallel Hidden Decoding Transforme

腾讯WeChat-YATT训练库发布 解决多模态强化学习训练核心瓶颈
AI妹 1 个月前 7 0

騰訊近日發佈了基於Megatron-Core和SGLang/vLLM研發的大模型訓練庫WeChat-YATT(Yet Another Transformer Trainer),內部項目代號爲gCo

腾讯发布WeChat-YATT训练库 解决大模型强化学习多模态训练瓶颈提升效率
AI妹 1 个月前 6 0

腾讯近日发布了基于Megatron-Core和SGLang/vLLM研发的大模型训练库WeChat-YATT(Yet Another Transformer Trainer),内部项目代号为gCo