欢迎访问书画村
首页重回高考,暑假从10元赚到2亿


推荐阅读: 战神:妻女受辱,绝不饶恕宠妻我,以医入道,成就无敌离了个大谱!她又牵错崽崽了恋综:请拿好你的下头剧本卷王女帝她又强又飒盛世嫡女:你家王爷不太行东北黑道往事桃运天王靠!闪婚头牌老公竟是首富八零随军闪了腰,漂亮后妈宠翻天爆笑冤家:嫁个土豪是极品

4月,因为登顶夏国首富,李易深居简出,不是去学校就是在别墅。

也不是什么都没做,他整理了很多记忆中,前世看到的各种数据资料。

比如谷歌人工智能芯片:TPU(TensorProcessingUnit),张量处理器。

这是财大气粗的谷歌,针对机器学习算法而专门制作,一款训推一体的Ai芯片。

如果说CPU,GPU是比较万能的工具,那么TPU就是专用工具。

TPU就是谷歌专门为加速深层神经网络运算能力而研发的一款芯片。

它有更高效能的深度机器学习能力。

据说,TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能

瓦特)提升。

每一个操作需要更少的晶体管,用更多精密且大功率的机器学习模型,并快速应用这些模型,因此用户便能得到更正确的结果。这就是TPU。

在李易的记忆中,谷歌最新发布的TPU芯片,包含1个张量核心,每个张量核心有4个矩阵乘法单元、1个向量单元和1个标量单元。

较比上一代产品,每美元可提供高达2倍的训练性能。

对于大型语言模型和生成式AI模型,每美元可提供2.5倍的推理性能。

成本却不到上一代的一半。

最新上线的TPU支持多达256个芯片互连,总带宽超过400Tb

s,INT8性能达到100etaOs,从而解决更复杂的计算任务。

Ai模型的参数数量以每年10倍的速度增长。

而芯片性能每年最多增长2~3倍,单芯片性能增长根本撑不住。

所以,必须通过集群扩展和稀疏化模型来应对飙涨的算力需求。

传统的设计和构建计算基础设施的方式,无法满足生成式AI和大型语言模型指数级的增长需求。

这就需要做许多事情,将TCO性能提升几十倍、数百倍!

李易不是这方面的专家,他只是看过相关的报道。

星海半导体也不是直接抄袭,而是做相关的研究,彻底消化这方面的东西。

至少有一点可以确定。

就是有了一个确切的研究方向,能少走很多弯路。

商兵华的加入,能将星海半导体的人工智能芯片提速!

除此之外,还有软件方面的研究。

这方面李易自己就懂得比较多。

结合起来,能大大提升人工智能技术的研究速度。

“这段时间,我们已经敲定了各方面的研究项目……从半导体原材料,到芯片设计、生产制造设备,都已经整理出来!”

“根据需求,投入相应的资金,做相关研究,攻克相关问题。”

比如,最底层的原材料方面,其实不用那么着急。

像光刻胶、晶圆这方面,虽然依旧很重要,依旧被卡脖子,但国内也有公司在做。

只不过没达到世界领先。

这些方面即便被卡脖子,也能暂时用一用。

现在,这方面可以投入资金,继续做研究和提升,继续追赶。

最主要的还是芯片生产制造方面涉及到的设备!

光刻机!

“这方面,夏科院、几个光学研究所、临海那边微电子公司有相关的研究……”

光刻机这方面难度,卓院士都要摇头。

一台光刻机,它代表的,不仅仅是一台高精密设备。

代表的是全球,各个国家最顶尖的技术集合体!

光刻机也他不是一家公司,甚至不是一个国家能搞定的。

阿斯麦,也只是一个组装工厂而已。

一台光刻机有上百吨,两层楼那么高,10多万个零部件,仅内部线缆拉出来,就有2公里。

一台光刻机需要40多个集装箱来运输。

一道光刻机三大核心:分别是顶级的光源(激光系统)、高精度的镜头(物镜系统)、精密仪器制造技术(工作台)。

光源是阿斯麦受过米国Cymer;

镜头是蔡司提供;

工作台是德国公司提


相关章节: 第242章 成香饽饽了,家族基金发钱!第243章 星海投资内部会议:预防股市过热!第244章 高考加油,高校手势舞刷屏!第245章 卓院士,商兵华教授归国!!第246章 商兵华教授加入!第248章 “光刻厂”项目!第249章 合纵连横,院士和诺奖学者帮忙!!第250章 动静不小,完美遮掩!第251章 股灾爆发,星海投资迟迟不公布季报?!第252章 李易和星海投资被骂上头条和热榜!

也许你还喜欢: