发布时间:2023-05-20 16:45:06
来源:股票啦
股票啦网 www.gupiaola.com 2023年05月20日报道:目前主流
ChatGPT在全球的关心度延续火热,再次将AI产业推到聚光灯下,科技巨头争相谋局落子,继微软、谷歌之后,国内企业百度(BIDU)、阿里巴巴(01688)等也先后公布大模型,并进行用户测试和企业应用接入。随着AI产业迎来“iPhone时刻”,算力需求正在延续释放,以AI服务器核心零部件GPU(图像处理器、加快芯片)为代表的供给端走俏,其价格也在不断上涨,而在AI芯片GPU销售市场占据绝对优势的英伟达也赚得盆满钵满。
多位业内人士在接受《中国经营报》记者的采访时表达,大型模型通常需要庞大的算力和储备资源来进行训练,GPU已成为 AI 加快芯片通用性解决方案,愈来愈多的企业和个人开端使用GPU来训练大型深度学习模型。这种需求的增加可能导致GPU的价格上涨,从而导致显卡价格的上涨。此外,中国投资美股十年由于供应链问题、半导体材料(512480)短缺等因素的影响,显卡价格的波动也可能受到肯定程度的干扰。
英伟达大秀肌肉
AI场景需要多核、高并发、高带宽AI芯片。AI芯片,也被称为AI加快器或计算卡,即特意用于处理人工智能(161631)应用中的大量计算任务的模块。当前,AI芯片关键分为GPU 、FPGA,及以TPU、VPU为代表的ASIC芯片,而 GPU凭借其高性能、高灵敏度特点成为AI 加快方案首选。据 IDC 数据,估计到2025年,GPU仍将占据AI芯片80%销售市场份额。
资料显示,2018年OpenAI开发的GPT-1的预训练大模型参数为1.1亿,2019年公布的GPT-2提高至15亿,2020年GPT-3的预训练大模型参数已经提高至1750亿。而为了训练ChatGPT,OpenAI构建了由近3万张英伟达V100显卡组成的庞大算力集群,中国投资美股十年GPT-4更是达到了100万亿的参数规模,其对应的算力需求同比大幅增加。
TrendForce预测认为,要处理近1800亿参数的GPT-3.5大型模型,需要2万颗GPU芯片,而大模型商业化的GPT需要超过3万颗。GPT-4则需要更多。
不仅如此,目前主流 AI 厂商都进入了“千亿参数时代”,多运用了英伟达的 GPU。以科大讯飞(002230)星火认知大模型为例,其使用了英伟达的T4 Tensor Core GPU进行训练。除了T4 Tensor Core GPU,科大讯飞(002230)还使用了其他类型的GPU和其他硬件设备来支持其深度学习平台的开发和应用。这些硬件设备包含英伟达的PaddlePaddle、NVIDIA Tesla V100、AMD EPYC等,以及多种CPU、内存、网络设备等。
昆仑万维(300418)集团CEO方汉也表达: “超过千亿级别的大模型,它的训练可能需要1000—2000张A100的卡,中国投资美股十年没有2000张A100的卡,实验都做不了。”
招商证券(06099)指出,从通用服务器到AI服务器,一个最显著的变化就是GPU取代了CPU成为整机最核心的运算单元以及价值量占比最大的部分,传统服务器通常至多配备4个CPU+相应内存和硬盘,在AI服务器中,通常是2颗CPU+8颗GPU,部分高配4U服务器中乃至可以搭配16颗GPU,估计AI服务器中GPU+CPU+储备的价值量占比有望达到80%以上的水平。
据统计,英伟达当前在售的用于大模型训练的GPU卡至少有9款型号,其中高性能的有4款,分别是V100、A800、A100及H100。而此轮AI“军备竞赛”也让用于上述显卡的价格一路高涨。其中,A100此前售价在1.5万美元(约合人民币10.35万元),但目前在一些平台上,此款显卡价格上涨到15万元左右。
英伟达也借机赚足了“钱包”。TrendForce 数据显示,假如以英伟达 A100 显卡的处理能力计算,中国投资美股十年GPT-3.5大模型需要2万块GPU来处理训练数据。目前英伟达 A100 显卡的售价在 10000~15000 美元之间,预估英伟达可以赚3亿美元(约20多亿元人民币)。
值得注意的是,英伟达还在源源不断地为这场军备竞赛运送弹药。在此前GTC开发者大会上,英伟达推出了新的Hoppper CPU——配有双 GPU NVLink 的 H100 NVL,这是特意针对算力需求庞大的 ChatGPT 而设计的显卡,拥有夸张的 188GB HBM3 内存(每张卡 94GB)。
不过,即便价格上涨,目前市面上几乎“一卡难求”。一位业内人士对记者表达,客户对英伟达A100/H100芯片需求强劲,后者订单能见度已至2024年,更紧急向代工厂台积电追单。
国产厂商的机会
虽然国内外的大模型项目接连落地,但除了百度(BIDU)、阿里巴巴(01688)等企业运用自研芯片外,中国投资美股十年国内大多数企业仍难求高端GPU。据透露,国内可用于训练AI大模型的A100大概有4万—5万个。
英伟达在去年收到美国政府的通知,通知称:“若对中国(含中国香港)和俄罗斯的客户出口两款高端GPU芯片——A100和H100,需要新的出口许可。”不仅如此,该许可证要求还包含将来全部的英伟达高端集成电路,只要其峰值性能和芯片间I/O性能均大于或等于A100的阈值,以及包含这些高端电路的任何系统,都被纳入许可证限制范围。
不过,英伟达针对中国客户推出了替代型号A800,与原有的A100系列计算卡相比,A800系列的规格基础相同,较为大的区别在于NVLink互连总线的衔接速率,前者为600GB/s,后者限制在了400GB/s。综合使用效率只有A100的70%左右。前不久英伟达还公布了特供版的 H800,作为其旗舰芯片 H100 的替代版。
4月14日,腾讯云正式公布新一代HCC(High-Performance Computing Cluster)高性能计算集群。据悉,该集群运用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU,H800基于Hopper架构,对跑深度推选系统、大型AI语言模型、基因组学、复杂数字孪生等任务的效率提升比较突出。与A800相比,H800的性能提升了3倍,中国投资美股十年在显存带宽上也有突出的提高,达到3TB/s。
伴随着最近宏观经济发展回暖以及国内互联网企业纷纷加大AI算力布局,PC和服务器的需求上升有望为国内GPU销售市场带来总体拉动效应。
目前,国内已涌现出一批优秀的GPU设计和制造厂商。
其中,海光信息目前已经成功把握高端协处理器微结构设计等核心技术,中国投资美股十年并以此为基础推出了性能优异的DCU产品。其深算一号产品和英伟达A100及AMD高端GPU产品(MI100)进行对比,单芯片产品基础能达到其70%的性能水平。
值得注意的是,上述业内人士表达,虽然国内的GPU厂商取得了一些成果,可是由于GPU研发难度大、开发周期长,例如A100,英伟达只用了三个月的时间便研发出替代方案,而国内却并不多见。而且目前中国GPU开发者大多使用国外厂家提供的IP,自主性不高,不过经过多年沉淀是能够实现国产替代的。
牛来财山西永济华为,加油
鱼香肉丝789湖北枣阳不动最好
天坛七星石海南东方冷链物流,利国利民!
久炼成刚山西晋中天地板下来吧
自助者江苏连云港将来全世界面向中国市场的专门基金发行那是多大的量啊,钱来了,中国要火[胜利]
相遇是缘e028bv江苏启东明天给不给机会,我要加仓[拜神]
上一篇:钜派投资管介绍美股-一位持有阿里集团股的员工告知澎湃新闻记者 下一篇:QDII投资美股的基金 美光公司产品存有较严峻网络安全问题隐患
今日股市行情 | 美股行情 | 明日股市预测 | 最新股市消息 | 今日股票推荐 | 今日股市新闻 | 股票入门基础知识