瀏覽單個文章
skap0091
Master Member
 

加入日期: May 2021
文章: 2,045
引用:
作者野口隆史
現在有一種新的推理晶片
把 LLM 硬編碼在晶片內
成本跟功耗比 B200 更低,性能還高出十倍
而且還不用 HBM
https://taalas.com/the-path-to-ubiquitous-ai/

這就是Google AI反超OpenAI的原因之一

自研ASIC晶片可以讓成本/電力消耗大贏對手

OpenAI買越多NV GPU就輸越多,當然這邊指的是推理部分

Google本身也還是跟NV買GPU來訓練

老黃當然也看到了,所以直接斥資買下設計推理ASIC的專家
舊 2026-02-21, 04:17 PM #296
回應時引用此文章
skap0091離線中