• 最新
1.93bit版DeepSeek-R1编程超过Claude 4 Sonnet,不用GPU也能运行

量化版R1,不用GPU也能跑 这个量化版本来自Unsloth工作室,从1.66到5.5bit,Unsloth一共制作了9个量化版本。最小的1.66bit版,gguf文件大小仅162GB,比8bit版减小了近80%,1.93bit版也减小了70%。按照Unsloth的说法,较小的...

不用GPU,大模型每2秒吃透一道高数大题!这就是华为的实力|算子|算法|拓扑|预训练|知名企业_网易订阅

而且啊,这个大模型还是 不用GPU 来训练,全流程都是大写的“国产”的那种。这,就是华为通过“昇腾+Pangu Ultra MoE”这套组合拳解锁的效果— 不仅实现了国产算力与国产模型全流程自主可控的训练闭环,更是在集群训练系统性能...

1.93bit版DeepSeek-R1编程超过Claude 4 Sonnet,不用GPU也能运行

量化版R1,不用GPU也能跑 这个量化版本来自Unsloth工作室,从1.66到5.5bit,Unsloth一共制作了9个量化版本。最小的1.66bit版,gguf文件大小仅162GB,比8bit版减小了近80%,1.93bit版也减小了70%。按照Unsloth的说法,较小的...

华为AI实力!不用GPU,大模型每2秒吃透一道高数大题!

而且啊,这个大模型还是 不用GPU 来训练,全流程都是大写的“国产”的那种。这,就是华为通过“昇腾+Pangu Ultra MoE”这套组合拳解锁的效果— 不仅实现了国产算力与国产模型全流程自主可控的训练闭环,更是在集群训练系统性能...

还得是华为!Pangu Ultra MoE架构:不用GPU,训练准万亿MoE大模型|盘古团队|扩展|训练_新浪新闻

Pangu Ultra MoE 是一个全流程在昇腾 NPU 上训练的准万亿 MoE 模型,此前发布了英文技术报告[1]。最近华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,进一步披露了这个模型的细节。训练 超大规模和极...

还得是华为!Pangu Ultra MoE架构:不用GPU,训练准万亿MoE大模型

机器之心发布 机器之心编辑部 PanguUltraMoE是一个全流程在昇腾NPU上训练的准万亿MoE模型,此前发布了英文技术报告[1]。最近华为盘古团队发布了PanguUltraMoE模型架构与训练方法的中文技术报告,进一步披露了这个模型的细节。...

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

机器之心发布机器之心编辑部Pangu Ultra MoE 是一个全流程在昇腾 NPU 上训练的准万亿 MoE 模型,此前发布了英文技术报告[1]。最近华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,进一步披露了这个模型...

还得是华为!Pangu Ultra MoE架构:不用GPU,训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,训练准万亿MoE大模型,算法,盘古,序列,华为,大模型,知名企业

70B模型能当零售业区域经理!小模型加速端侧落地,芯片不一定要GPU

14B模型用上显卡,在零售业应用的成本基本上能做到万元级别,如果不用显卡,一些情况下CPU也能运行7B、8B模型。...相比数据中心硬件投资向GPU等加速芯片倾斜,端侧小模型对算力的要求不一定很高,在一些情况下,独立GPU不一定是必...

卖家说HD6450显卡支持uefi,录视频,各种保证,就不用GPU-Z测试

之后,我提出让卖家看一下GPU-Z的参数。结果让我想不到的是,卖家各种借口,就是不给看。甚至还跟我说,自己就是专门卖显卡的,这方面比我了解,支不支持uefi启动是搞得清的。这倒是让我有些意外了。显卡支不支持uefi启动,GPU...

相关阅读