8月,英伟达发布了二季度财报,财报显示,公司二季度营收135亿美元,创季度新高且同比增长超100%。公司预期三季度该数字将达到160亿美元。与此同时,高端芯片的强劲需求将公司毛利率大幅提升至71.2%,二季度净利润61.8亿美元,同比涨幅达到惊人的843%。 这是什么概念呢?相当于英伟达在三个月时间里多赚了六七十亿美元,而且之后每个季度都有望入账这么多钱,即使放在群英荟萃的硅谷,这样的成绩也足以让大家感到惊讶了。
Layton Construction 使用 RTX Ada 架构 GPU 改进可视化工作流,为建筑项目各个阶段创造出逼真的渲染和动画。
随着 ChatGPT、GPT-4、LLaMa 等模型的问世,人们越来越关注生成式模型的发展。相比于日渐成熟的文本生成和图像生成,视频、语音等模态的 AI 生成还面临着较大的挑战。 现有可控视频生成工作主要存在两个问题:首先,大多数现有工作基于文本、图像或轨迹来控制视频的生成,无法实现视频的细粒度控制;其次,轨迹控制研究仍处于早期阶段,大多数实验都是在 Human3.6M 等简单数据集上进行的,这种约束限制了模型有效处理开放域图像和复杂弯曲轨迹的能力。
生成式AI的可控性越强,对市场和产业的颠覆性就越大! 随着生成式AI对生成内容的可控性不断提高,生成式AI适用的应用场景也会不断扩展和深化。量变引起质变。一旦突破领域阈值,生成式AI就可以彻底改造现有的产品生态,为产品赋予真正的智能元素。
中国面临的“卡脖子”现象不仅发生在芯片、半导体等高端制造领域,软件范畴也同样面临被限制发展的风险,一些关键工业软件已经受到限供。结合当前外部基础软件和应用软件公司对俄的制裁,全软件生态自主可控的必要性愈发凸显,摆脱供应软肋,软件信创化的重要性值得关注。 外围环境变化,自主可控是防范软件供应风险的有力手段。对俄断供进一步为我们带来警醒,基础软件信创化刻不容缓,微软、西门子、甲骨文、SAP、Autodesk、ABB、GENESYS、 Red Hat、GitHub、Docker等基础软件、开源社区、核心工业软件厂商相继停止俄罗斯境内服务。
在 MLPerf Inference v3.0 中,NVIDIA 首次将网络纳入了 MLPerf 的评测项目,成为了 MLPerf 推理数据中心套件的一部分。网络评测部分旨在模拟在真实的数据中心中,网络软、硬件对于端到端推理性能的影响。 在网络评测中,有两类节点:前端节点生成查询,这些查询通过业界标准的网络(如以太网或 InfiniBand 网络)发送到加速节点,由加速器节点进行处理和执行推理。
英伟达在计算机图形学顶会 SIGGRAPH 2023 上发布了专为生成式 AI 打造的下一代 GH200 Grace Hopper 平台,并推出了 OVX 服务器、AI Workbench 等一系列重磅更新。
简单来说,服务器就是在网络中为其他客户机提供服务的计算机;具有高性能、高可靠、高IO数据传输能力等特点,企业从基础的邮件、打印到核心应用如ERP、数据库等业务,再到我们所熟悉的互联网业务,创新大数据服务、天气预报HPC高性能计算等都离不开大规模服务器的支持。
一篇关于“一台AI服务器到底要用多少PCB”的深度报告,旨在通过拆解服务器 PCB 构成的过程让读者了解一台服务器内部真实的情况,希望读者能够对服务器中所用PCB情况有更为直观的了解,从而把握未来升级过程中真正的价值所在。
需要 1000 个以上 H100 或 A100 的公司有: 训练 LLM 的创业公司:OpenAI (通过 Azure), Anthropic, Inflection (通过 Azure 和 CoreWeave), Mistral AI 云服务提供商:Azure、GCP、AWS、Oracle 更大的私有云:例如 CoreWeave、Lambda 其他大公司:特斯拉 需要 100 个以上 H100 或 A100 的公司:对开源模型进行大量微调的公司。 8-GPU HGX H100 SXM 是 LLM 训练和推理最快的,也是大家最需要的。训练 LLM 最常需要的是 H100s with 3.2Tb/s InfiniBand。对于训练 LLM,创业公司倾向于使用 H100,对于推理,他们更关注的是每美元的性能,H100 普遍受到青睐。 对于训练 LLM,大家更关注内存带宽、FLOPS、缓存和缓存延迟、FP8 计算等附加功能、计算性能(与 cuda 核心数量相关)、互连速度(例如 In...