A佬 @AlphaArea 刚分享给我一篇写的非常好的文。论证了Groq(不是Grok)使用VLIW做AI算力卡,是如何作死炸了的。分享给大家。

这篇文:VLIW的傻〇编译器他们自家公司搞了好几天提升3%性能… A佬:指望用超大SRAM打HBM本身就已经抽象过头了 我:VLIW流水线冲刷就够所有大厂喝一壶的了

某些NPU也是VLIW的。大家知道为啥没人用NPU了吧[苦涩]

(甲骨文:我最有发言权了!我最有发言权了!)

地址:irrationalanalysis.substack.com/p/very-long-incoherent-writeup

3
message-square
3
  • Proton
    2 months ago

    看完了,乐。 本来想了下,ai 的 workload 应该相对简单,vliw 应该问题不大,但是反应过来「既然简单那干嘛不 simt 呀 」

  • Proton
    2 months ago

    之前还被 graphcore 的人推销过,卖点就是超巨大 sram (当然是对于 sram 来说的超巨大)。我问超了 sram 之后性能咋样,他们讪笑hhhhhh