搜索结果:找到 “关键字” 相关内容 88个, 当前显示 10 条,共 9 页
训练生成式人工智能(GenAI)神经网络模型通常需要花费数月的时间,数千个基于GPU并包含数十亿个晶体管的处理器、高带宽SDRAM和每秒数太比特的光网络交换机要同时连续运行。虽然人工智能有望带来人类生产力的飞跃,但其运行时能耗巨大,所以导致温室气体的排放也显著增加。
随着人工智能(AI)处理器对功率的要求日益提高,服务器电源(PSU)必须在不超出服务器机架规定尺寸的情况下提供更高的功率,这主要是因为高级GPU的能源需求激增。到本十年末,每颗高级GPU芯片的能耗可能达到2千瓦或以上。
AI服务器迎来了一波抢单潮。作为核心器件的GPU、CPU、被动元器件等将会受益多少?
7月1日,长电科技发文称公司已实现4nm手机芯片工艺制程的封装,以及CPU、GPU和射频芯片的集成封装。先进封装技术的突破对于芯片制造具有重要意义,未来,得先进封装技术者,得天下。
本文主要介绍了芯片,华为在芯片领域放弃了投资和发展,在手机芯片方面,除了工艺可以达到全球顶尖水平外,还需要CPU核,GPU图像处理器等,而华为海思和中芯国际是中国芯片的龙头企业。
很多人都说FPGA太难明白了,总是分不清FPGA与GPU,那么今日小编整理了一些有关GPU和FPGA的小知识,下面就和小编一起来区分下GPU和FPGA之间的不同吧!
说到GPU大家都认识吧?简单地说它是一种可以在设备上做微处理器的,而FPGA目前就是CPU较大的“敌人”,在芯片领域上我想大家都认识赛灵思与英特尔这家龙头企业,本文会详细介绍到这两家企业之间的故事,以及为什么FPGA现在是GPU较大的“敌人”。
MathWorks 今天宣布为 DGX系统和其他支持 NGC平台,基于NVIDIA GPU Cloud (NGC) 容器注册表提供新的 GPU 加速容器。研发人员现在可以利用 NVIDIA DGX 系统中或受支持云服务提供商的多个 GPU ,或选择 PC 和工作站上的 NVIDIA GPU,应用 MATLAB 中的深度学习工作流程。
在 FPGA、GPU 或 ASIC 控制的系统板上,仅有为数不多的几种电源管理相关的设计挑战,但是由于需要反复调试,所以这类挑战可能使系统的推出时间严重滞后。不过,如果特定设计或类似设计已经得到电源产品供应商以及 FPGA、GPU 和 ASIC 制造商的验证,就可以防止很多电源和 DC/DC 调节问题。