Alphabet旗下的谷歌周二公开了其用于训练人工智能模型的超级计算机的新细节,称其比英伟达A100芯片的系统更快、更节能。谷歌公司设计了自己的定制芯片,称为Tensor Processing Unit(TPU),并将这些芯片应用于90%以上的人工智能训练工作。这个过程通过模型对数据进行训练,以提高其在类似人类文本响应或生成图像等任务中的实用性。目前,谷歌TPU已经进入第四代。谷歌公司在周二发布了一篇科学论文,详细介绍了如何利用自己开发的定制光学开关将4000多个芯片连接成一个超级计算机。对于构建AI超级
IT之家3 月 30 日消息,针对市场上卡诺基、雷索、磐镭、发行者、捷硕、冰影等品牌的“低价”英伟达显卡,英伟达表示这些品牌不是NVIDIA 的合作伙伴,也从来未和 NVIDIA 有过业务往来。目前,英伟达正在与电商平台合作,清理此类“山寨显卡”商品销售。目前,英伟达与各大电商平台的紧密合作已取得初步进展:目前京东 POP、拼多多、抖音和天猫等电商平台已开始清理这类显卡商品的销售,京东 POP、抖音明确商家不得出售二手充新、翻新和虚假宣传的显卡。英伟达表示,英伟达大陆地区合作伙伴(
IT之家3 月 29 日消息,据可靠爆料人“Zed__Wang”消息,英伟达 RTX 4050 桌面显卡采用 6GB 显存,不如 RTX 3050 8GB 的显存大。参数方面,预计 RTX 4050 桌面显卡将采用与笔记本端相似的规格,即2560 CUDA + 6GB 96bit GDDR6 显存。作为对比,RTX 3050 桌面显卡配备2560 CUDA + 8GB 128bit GDDR6 显存。在新工艺和新架构的加持下,RTX 4050 桌面显卡的性能肯定是胜过
在刚刚过去的3月21日,英伟达如期举办了今年的GTC大会(全称为GPU Technology Conference),作为英伟达主办的最重要的 GPU 技术交流活动,从 2019 年开始每年举办一届。在本次大会上,英伟达CEO 黄仁勋就目前大热的生成式AI做了题为《切勿错过 AI的决定性时刻》的主题演讲,同时发布了英伟达为ChatGPT专门研发的全新超高性能GPU——NVIDIA H100 NVL。 NVIDIA H100 NVL01在AI领域所向披靡的英伟达许多读者了解英伟达是在
1965年,时任仙童半导体公司工程师,也是后来英特尔的创始人之一的戈登·摩尔(Gordon Moore)提出了摩尔定律(Moores law),预测集成电路上可以容纳的晶体管数目大约每经过24个月便会增加一倍。后来广为人知的每18个月芯片性能将提高一倍的说法是由英特尔CEO大卫·豪斯(David House)提出。过去的半个多世纪,半导体行业按照摩尔定律发展,并驱动了一系列的科技创新。有意思的是,在摩尔定律放缓的当下,以全球另一大芯片公司英伟达(NVIDIA)创始黄仁勋(Jensen Huang
本周早些时候,英伟达拉开了备受期待的RTX 40系列显卡阵容的帷幕。令任何人感到惊讶的是,RTX系列的新产品为消费者带来了功能,功耗以及总体成本的显着增加。根据英伟达首席执行官黄仁勋(Jensen Huang)的说法,芯片和其他组件价格下降的趋势“已成为过去”。“摩尔定律已经死了,”黄在被问及GPU价格上涨时,在与媒体的问答环节中宣布。根据黄先生的说法,12英寸的晶圆今年要贵得多,并坚持认为与前几代产品提供的性能水平相比,价格上涨是合理的。这些声明表明了英伟达显卡的涨价趋势,到目前为止,这种说法一直不受待
作为计算机行业的黄金定律,摩尔定律一直指导着芯片开发。但是随着芯片工艺升级速度的放缓,围绕在这一定律身上的争议也在不断扩大。9月28日凌晨,面对摩尔定律的“信任危机”,英特尔CEO帕特·基辛格(Pat Gelsinger)表示,至少在未来十年里,摩尔定律“依然有效”。然而在一周前,英伟达创始人兼CEO黄仁勋却表达了截然相反的观点。黄仁勋在一场采访中表示,以类似成本实现两倍业绩预期对于芯片行业来说已成为过去。“摩尔定律结束了。”两大芯片巨头对于摩尔定律的分歧展现了当下芯片企业对于技术演进方向的不确定性。即便
IT之家3 月 27 日消息,美国芯片制造商英伟达(Nvidia)表示,加密货币对社会没有任何有益的贡献,尽管该公司的强大处理器被该行业大量购买。图源 Pixabay英伟达的首席技术官迈克尔・卡根(Michael Kagan)说,相比于挖矿,其他利用处理能力的用途,如人工智能聊天机器人 ChatGPT,更有价值。据IT之家了解,ChatGPT 的第一个版本是在由大约 1 万块英伟达显卡组成的超级计算机上训练的。英伟达从未全心全意地拥抱加密货币社区。2021 年,该公司甚至发布了一款软件,人为地
英伟达将于下半年推出 Grace 服务器 CPU:性能是 x86 的 1.3 倍,功耗只要 60%
IT之家3 月 23 日消息,英伟达首席执行官黄仁勋表示基于 Arm 的 Grace CPU 将推迟至今年下半年发货。黄仁勋表示大幅提升了 Grace CPU 的性能,在 60% 的功率下性能是友商 x86 产品的1.3 倍。黄仁勋表示:“首先,我目前可以告诉大家的是,Grace 和 Grace Hopper 都在生产中,目前已开始推进到量产阶段。我们和全球最大的 OEM 厂商、计算机厂商合作推进该芯片的落地”。黄仁勋表示目前主流芯片设计周期通常需要数年时间,而英伟达开发的 CPU
算力硬件作为AI大模型基础设施,未来将持续受益于AI技术的迭代和商业化应用。GPT4.0从语言模型走向多模态模型,将带来更为丰富的应用场景。同时,GPT-4更大的模型对算力提出更高需求,多模态特性又增加了对其他编解码模块的需求。
3月22日消息,英伟达创始人兼CEO黄仁勋预计,未来12个月,来自人工智能平台的收入将大幅增长,因为企业要么跟上人工智能的步伐,要么就会被甩在后头。在英伟达年度GTC开发者大会的新闻发布会上,黄仁勋表示,在过去12个月里,生成式人工智能只占公司收入的非常非常非常小的个位数比例,此类人工智能包括得到了微软数以十亿计美元投资的OpenAI旗下的ChatGPT等应用程序。黄仁勋指出,他预计12个月后,生成式人工智能的收入将相当大,具体有多大很难说。此前一天黄仁勋曾向分析师暗示,人工智能及其基础设施即服务(inf
从人工智能革命中获利的英伟达面临着来自云超大规模企业的日益激烈的竞争。
英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存
IT之家3 月 22 日消息,英伟达在 GTC Spring 2023 主题演讲中,针对不断增长的 AI 市场,推出了全新的双 GPU 产品 H100 NVL。H100 NVL 在顶部配备了 3 个 NVLink 连接器,使用两个相邻的 PCIe 显卡插槽。英伟达表示在运行大型语言模型(LLM)时,常规显卡的显存无法驾驭庞大的数据流。因此本次推出的 H100 NVL 最高可以提供 188GB HBM3 显存,单卡显存容量 94GB。H100 NVL 的功耗略高于 H100 PCIe,每个 GP
3 月 22 日消息,英伟达宣布,从明年开始,全球最大的电动汽车制造商比亚迪将在其全系列车辆中使用英伟达 Drive Orin 集中式计算平台,进一步扩大其王朝、海洋系列汽车的多种车型中对 DRIVE Orin 的使用,将更安全和智能的汽车推向市场。NVIDIA 和比亚迪都相信,未来的汽车将是可编程的,从基于许多嵌入式控制器发展到高性能集中式计算机 —— 在汽车的整个生命周期内,通过软件更新来交付和增强功能。据介绍,DRIVE Orin 是目前市场上性能最强的车用处理器,自去年投产以来便已成为
“切勿错过AI的决定性时刻!”这是英伟达2023年GTC大会的广告语。不知英伟达所说的“决定性时刻”是指黄仁勋在GTC大会主题演讲中三次强调的“AI的iPhone时刻”,还是说本届GTC大会就是AI的“决定性”时刻。当然,今时今日可能确实是AI的决定性时刻。从上周三到现在,一系列或惊艳,或不那么惊艳的最前沿AI技术接二连三地刷爆科技新闻版面。从OpenAI发布GPT-4,到百度发布文心一言,再到微软发布Office的AI助手Microsoft 365 Copilot,以及Midjourney发布能“画手指
nVIDIA(全称为nVIDIA Corporation,NASDAQ:NVDA,发音:国际音标:/?nv?d??/,官方中文名称英伟达),创立于1993年1月,是一家以设计显示芯片和主板芯片组为主的半导体公司。NVIDIA亦会设计游戏 机内核,例如Xbox和PlayStation 3。NVIDIA最出名的产品线是为游戏而设的GeForce显示卡系列,为专业工作站而设的Quadro显卡系列,和用于 [查看详细]