据站长之家报道,大型语言模型(LLM)因在文本生成、语言理解和文本摘要等任务中的卓越表现而备受欢迎,但其庞大的模型参数却需要大量内存和专用硬件。为了降低推断所需的计算功率,Intel 的研究人员提出了一种有效的方法,支持自动的 INT-4 权重量化流程,可以在 CPU 上高效部署 LLM。此外,他们设计了一个特定的 LLM 运行时,具有高度优化的内核,可以加速 CPU 上的推断过程。
Gate.io - 芝麻交易所,又称芝麻开门交易所,是原比特儿交易所国际版本,是全球第二大交易所 支持人民币OTC交易 让财富更自由一点
文章采集自互联网,本站不对其真实性负责,如需删除,请发送链接至oem1012@qq.com
发表评论
电子邮件地址不会被公开。 必填项已用*标注
文章评论已关闭!