退出 激活卡 电子版 购物车 注册 登录
用户名登录/手机号登录
还没有账号?免费注册
忘记密码?
+
-
经观智讯2025-09-12 11:25
经济观察网 据大象新闻消息,9月11日,在2025外滩大会上,蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型(dLLM)“LLaDA-MoE”。实验数据显示,LLaDA-MoE模型性能效果在代码、数学、Agent等任务上领先于LLaDA1.0/1.5和Dream-7B等扩散语言模型,接近或超越了自回归模型Qwen2.5-3B-Instruct,仅激活1.4B参数即可实现等效3B稠密模型的性能。
特朗普称俄无人机飞入波兰“可能是失误”
苹果“挤牙膏” 倒逼运营商“加码”eSIM服务
全国中小学食堂“互联网+明厨亮灶”覆盖率达98.5%