第34章 构建属于自己的生态(1 / 2)

加入书签

 “我怎么觉得你就盼着这一天呢啊?”张建看着似笑非笑的纪弘,说话的语气都带着一点儿幽怨。</p>

“张总,说实话,仰人鼻息的感觉是不是不好受?而且,摩尔科技以兼容的方式利用英伟达CUDA的生态,效率也不尽如人意,性能损失也很大吧?”</p>

纪弘正色起来:“要我说,倒不如直接断了,构建真正属于我们自己的生态。”</p>

“你说的倒是轻巧,CUDA英伟达早在2007年就推出来了,优化迭代了十好几近二十年才有如今的水平,是我们想搞就能搞的?</p>

“诚然,CUDA的理念并不复杂,本质就是一个帮助开发者构建自己应用的GPU编程服务简易API接口。</p>

“就算是内里的运算架构,在内行人眼里,理念也几乎是透明的。</p>

“比如,AMD搞的所谓HIP,就是提供了一种类似于CUDA的编程接口。甚至,语法和编程模式都和CUDA一模一样。</p>

“但效果怎么样呢?投入巨量人员和资金,但竞争力还是不行。再说了,我们之前有得用,就没有在这一块儿上心。”</p>

“其实就是想省成本。”</p>

纪弘算是听明白了,之前英伟达让用,这边也没有更多的资源和精力去搞这个,就先凑合用了,他接着说道:</p>

“我也能理解,毕竟当时你们的目标是能活十年,而且与英伟达关系也还好,也不用太过担心授权的问题。”</p>

“但,今时不同往日了。”顿了一下,纪弘如此强调。</p>

张建心说,当然不同往日了,往日我们的目标是活着就好,现在搞得英伟达都急跳脚了:</p>

“主要还是你这边【基于AI的GPU智慧调度】,训练卡应该也是能用的吧?</p>

“CUDA只是以流处理核心为元单位对外开放的GPU编程接口。</p>

↑返回顶部↑

书页/目录