-
超微GPU Server H100/H200 系统介绍
[2024-10-28]严格意义上HGX里面有8个GPU,每个GPU为一个Module 这个才叫做模组,HGX 其实是由8个GPU 模组和4个NVLInk Switch组成,下图所示,就是每个上图的SINK 下面的GPU模组。
-
服务器产品的L6和L10是什么?
[2024-10-18]很多服务器相关的材料里都会涉及L6、L10这类“术语”,很多新入行的朋友看到一脸懵,他们纠结代表什么呢?从产品研发设计的角度,L6和L10代表了产品的完整性,也可以理解为产品某个典型形态的描述,今天我们简单跟大家做个分享!
-
服务器常见的8种“分类”方式
[2024-10-14]本文从八个维度介绍了服务器的分类,图文并茂,一目了然。
-
深入浅出:服务器组成及架构之争
[2024-10-08]服务器是构建云计算的核心基础设备,在“新基建”加快推进、公有云持续放量的背景下,服务器行业正迎来景气拐点。
-
HPE获评2024年度Gartner®主存储魔力象限领*者
[2024-09-27]近日, Gartner公布了2024年主存储魔力象限报告(Magic Quadrant for Primary Storage),本年度共有10家厂商上榜。其中,HPE凭借愿景完备性和执行力再次稳居领*者地位,这也是HPE连续第 15次获评Gartner主存储魔力象限领*者。具体来看,HPE较去年相比在执行力维度的排名由第五位升至第二位,在愿景完备性维度的排名再次稳居前三。
-
服务器基础知识之服务器概述
[2024-09-24]服务器是计算机的一种,它是在网络操作系统的控制下为网络环境里的客户机提供(如PC)共享资源(包括查询、存储、计算等)的高性能计算机,它的高性能主要体现在高速度的CPU 运算能力、长时间的可靠运行、强大的I/O 外部数据吞吐能力等方面。
-
简单聊聊:GPU服务器与通用服务器的10点区别
[2024-09-14]GPU服务器和通用服务器是目前服务器市场根据业务场景进行的细分,并没有严格意义上的定位,你可以理解为GPU服务器是通用服务器为了更好支持GPU进行的优化设计
-
可用于大模型的AI服务器
[2024-09-11]浪潮NF5698G7系列AI服务器是浪潮信息全新一代开放加速计算服务器,符合全球开放计算OCP开放加速器规范OAM v1.1/v1.5,可在6U空间内支持8颗54V开放加速模块(OAM)和2颗Intel®第四代/第五代至强®可扩展处理器(TDP 350W),具有高性能、高扩展性、高能效、多元兼容、生态开放等特点,适用于大模型训练、自然语言处理、语音识别、图像处理、推荐等典型的AI应用场景。
-
AI服务器的CPU
[2024-09-11]随着人工智能(AI)技术的快速发展,AI服务器的需求也在不断增加。AI服务器在处理机器学习、深度学习、数据分析等任务时,通常需要强大的计算能力和高 效的硬件配置。虽然GPU在加速AI模型训练中起到关键作用,但CPU的选择同样不可忽视。
-
一文回顾NVIDIA数据中心GPU近十年参数变化
[2024-09-11]英伟达作为AI时代芯片霸主(卖铲子的人),其每次发布新品都备受瞩目,老张整理了从2016年到2024年间英伟达的每代数据中心GPU旗 舰产品,从P100到B200的核心参数变化的角度逐一进行分享。
-
智赋时代,赋智存储——HPE Alletra MP“闪”耀2024全球闪存峰会
[2024-09-06]8月28日,由DOIT主办的“芯存储 AI未来”2024闪存峰会在南京盛大召开。峰会设主论坛和六大专题论坛,聚焦存储芯片、分布式全闪、AIGC存储、企业级SSD、存算一体、CXL等行业热点话题,吸引超百位国内外企业代表、行业、专家和学者。