AI

用最廉价的电脑配置7666元部署deepseek671B

哈哈哈哈,这两天有个事笑死我了,中国人对降低成本(往好听了说叫提高效率)的执念简直到了变态的程度。
春节前后,Deepseek把AI大模型训练成本降低到了令人发指的程度,成了当时的热门话题。而这两天,清华大学与联合趋境的开源项目团队KTransformers(QuickTransformmers)又把“本地部署超大模型的成本”降低到不可思议的程度。这个原理简单说就是他们利用Deepseek的MOE专家模型架构,把专家集中放在精贵量又少的显存里,把其它数据都放在便宜量又大的内存里,一下子把本地部署Deepseek671B大模型的效率提升了大约一个数量级,把硬件成本降低了一到两个数量级。
甚至已经有人给出了一个价值7666元的《垃圾佬DEEPSEEK671B》机配置表,开始畅想在一台七八千元的机器上跑404GB体量的6718 Q4大模型了,。垃圾佬永不为奴。没有谁在降本增效这件事上有中国人的这种执念,降本增效真是刻在中国人DNA里

7666元

AI相关的一切

留言

您的邮箱地址不会被公开。 必填项已用 * 标注