资讯

据悉,四名科技工作人员飞往马来西亚吉隆坡,每人行李中各携带15颗硬盘,每颗容量达80TB,总计携带约4.8PB的数据,足以支撑多个大型语言模型(LLM)的训练所需。 他们将硬盘分散在四位旅客的行李中,以降低在马来西亚海关被怀疑的风险。
按照苏妈的说法,AMD MI350 系列的内存容量是 NVIDIA GB200 的 1.6 倍。 具体的AI的性能表现上,运行 DeepSeek-R1 或 Llama3.1 时,AMD MI355X 每秒产生的 tokens 比 NVIDIA ...
根据Trendforce的数据,2024 年,整体 HBM 消耗量达 6.47B Gb、年增 237.2%,其中 NVIDIA、AMD 的 GPU 分别占消耗量的 62%、9%,其他业者(主要为 CSP 业者的 ASIC 所需)占 29%,分产品看 ...
在人工智能加速芯片市场的激烈竞争中,AMD近期推出了Instinct ...
为解决生成式AI高性能模型对内存要求过高问题,NVIDIA公开一项新技术,成功将图像生成模型Stable Diffusion 3.5 ...
在全球人工智能(AI)技术高速发展的背景下,AMD 正在积极拓展其软硬件生态系统,并加快产品迭代节奏,以挑战 NVIDIA 在数据中心和 AI 领域长期占据的主导地位。近日,AMD 发布了全新的 ROCm 7 软件堆栈,并详细披露了未来两年内的 AI ...
当地时间6月12日,英伟达CEO黄仁勋在GTC巴黎峰会期间接受媒体采访时表示,未来十年将属于自动驾驶和机器人。
AI编程工具正以前所未有的速度改变软件开发的面貌。在众多工具竞相成为程序员“副驾驶”时,Cursor却提出了一个更为大胆的愿景:不仅要辅助编程,而是要通过AI彻底重塑编程的本质。以下是AIbase整理的 最新 ...
英伟达的入局无疑给聚焦计算芯片市场的玩家阵营带来变数。本质上来说,随着全球对AI计算的需求从训练转向推理为重心,AI芯片市场也面临一场需求重构。英伟达的动态背后,反映出AI芯片从业者之间的生态博弈。
黄仁勋在巴黎的联合声明中表示:“每个国家都应该在自己的国家建设人工智能,为本国服务。通过Mistral ...
在AI数据中心领域,NVIDIA(英伟达)主要受惠于Blackwell新平台逐步放量,2025年一至三月营收突破423亿美元,季增12%,年增达72%,维持营收第一。尽管其H20发展受限,将导致该公司于第二季认列亏损,然单价较高的Blackwell将逐季取代Hopper平台,有助降低财务冲击。
按照他们所说,AMD新一代GPU除了领先于英伟达的同类产品以外,与上一代 AMD MI300X 相比,还能将称性能提升高达 4 倍,推理速度更将提高 35 倍。这主要得益于向 CDNA 4 架构过渡,并采用了更小、更先进的计算芯片工艺节点。