近期ChatGPT掀起一波AI浪潮,这浪花潮席卷了各行各业。媒介、金融、法律、医疗、制造、物流等等,就连教育和农业亦不可幸免。
新东方俞敏洪直言:“企业家倘若没玩过ChatGPT,没资格谈高科技发展。”就连养猪的新期盼亦暗示:起始关注ChatGPT。
ChatGPT如此火热,它到底是个什么东西呢?说实话,非常多人只是跟风,基本解释不清楚ChatGPT。Chat是什么?G、P、T又表率什么呢?一问三不知。
Chat是谈话、交流的意思,例如:微X聊天、面对面聊天;G即Generative的缩写,是生成的意思,能够理解为创造事物、答案;P即Pre-trained 是预先训练的意思,T即Transfomer的缩写,是转换器的意思。
ChatGPT翻译成汉语便是经过聊天得到答案的工具,当然这款工具需要海量的训练。
AI训练是需要强大算力支持的,按照关联研报数据,AI算力需要大约每6个月翻一番,ChatGPT的显现,引起算力需要直接达到了原来的10-100倍。
2023年1月时,ChatGPT日活人数为1300万,提出的问题约130亿字,这些问题产生的算力需要600台DGX A100服务器。
为何是A100呢?由于A100非常适配ChatGPT这类设备学习模型。它能够同期执行海量简单的计算,这针对训练和运用神经网络模型非常重要。
A100由著名的GPU厂商英伟达开发,最初用在游戏中,用来处理繁杂的3D图像,随着AI的快速发展,A100被广泛的应用在设备学习中。
倘若说人工智能是第四次工业革命,那样这次革命的基本便是算力,而算力需要强大的AI芯片。
亦便是说谁把握了先进的AI芯片,谁就能引导第四次工业革命。
那样问题来了,谁是日前最强的AI芯片机构呢?我国的AI芯片处在什么水平呢?
简单科普一下AI芯片
AI芯片是一种专门处理人工智能计算、应用等任务的一种模块,亦被叫作为AI加速器或计算卡。
在架构方面来看,AI芯片重点分为:GPU (图形处理器)、FPGA (现场可编程门阵列)、ASIC(专用集成电路)。
这三种AI芯片按照其特点,将其安排在区别的应用场景中,例如:GPU安排在云端,FPGA安排在边缘,ASIC安排在终端。
云端是一个庞大的网上服务器集合,集软件搜索、下载、运用、管理、备份等多种功能为一体,其运算量非常庞大。
云端持有多种AI服务功能,包含AI训练和推理。因此呢对算力的需求非常高,适合布局高性能GPU,例如:A100、H100。
边缘是连接云端和终端的网络,并非在系统的最边上。实质上,从云端到终端的这些庞大区域都能够叫作为边缘。边缘重点负责数据传输、交换。
随着算力需要的增大,云端没法承受所有算力,这就需要边缘节点分担一部分,降低云端压力,提高全部网络的稳定性与快捷性。善于处理信号的FPGA就适合布局在边缘。
终端就好理解了,咱们的PC、手机、家电、汽车都是终端设备。这些设备亦需要AI芯片,用来计算分析,这些芯片更加多的是做有些推理。因此呢需要更加专业的ASIC(专用芯片)。
这些AI芯片尽管分工区别,运用场景亦区别,但它们亦有一起之处,便是对算力的需要越来越大。
AI第1次事件大概是咱们熟知的阿尔法狗大战李世石。
当时,阿尔法狗击败围棋九段能手李世石,可谓是风光无限。但实质上,当时的阿尔法狗在AI界真的很通常。
据说当时阿尔法狗使用了1202个CPU、176个GPU,大概800多万核并行计算,同期还花费3000美元的电费,用了3个多小时才击败了人类选手李世石。
这只是1V1的战法,倘若换成3人扑克、四人麻将,阿尔法狗还未必能够取胜。
但AI的强大之处在于学习,一天24小时、一年365天一直的学习,这才是其最恐怖的地区,只要算力足够,算法正确,它就能够突飞猛进。
时间来到2023年,人工智能实验室OpenAI研发出了ChatGPT聊天设备人,除了能够进行普通聊天、信息咨询外,还能够撰写诗词、修改代码,乃至能够取代许多脑力工作者。
专家们经过科研,最后确定了将来能够被ChatGPT取代的十大类岗位,详细如下:
第1类、技术类工作:程序员、软件工程师、数据分析师;
第二类、媒介类工作:宣传、内容创作、技术写作、资讯;
第三类、金融类工作:金融分析师,个人财务顾问
第四类、法律类工作:法律或律师助理
还有市场科研分析师、平面设计师、会计师、教师、交易员和客服人员。
倘若任由ChatGPT发展下去,那样非常多人将会失业,乃至包含创造它的软件工程师和程序员。
ChatGPT的诞生很大一点便是AI芯片的发展,因为英伟达强大的A100、H100芯片的诞生,致使每日3640PF的算力得到了实现。
倘若AI芯片继续升级的话,那样人工智能亦将飞速的发展,取代部分人类是在所难免的。
英伟达站上风口
2月23日,GPU领导者英伟达发布了业绩报告:第四季度收入环比微增2%,但净利润环比暴增108%。毛利率高达63.3%。
业绩颁布后,英伟达市值大涨5000亿人民币,这家GPU巨头再次王者归来。就连CEO黄仁勋亦无想到沾上ChatGPT后,效果如此之好。
过去的英伟达把元宇宙当做风口,总是说自己的芯片怎样为元宇宙助力,很少宣传在人工智能行业的应用,结果投资者基本不买账。
好不易站上了风口,英伟达自然是期盼多飞一会,于是黄仁勋起始漂了。
黄仁勋暗示:过去十年,摩尔定律的性能提高了100倍,而英伟达的GPU性能提高了100万倍,将来十年摩尔定律会失效,但自己的“黄氏定律”不会失效。
根据“黄氏定律”,将来十年,英伟达能够让人工智能的性能提升100万倍,让人工智能真正的觉醒。
同期黄仁勋指出,ChatGPT的道理绝不亚于iPhone的显现,这一拥有里程碑道理的制品,将满足区别人的区别需要,而英伟达将为其供给“源源持续的算力”。
那样英伟达供给的算力成色怎样呢?咱们一块来看一看它的巅峰制品——H100。
H100采用了Hopper架构,台积电4nm工艺,持有18432个CUDA核心、576个Tensor核心、60MB二级缓存。
这款GPU集成为了800亿个晶体管,算力达到了2000 TFLOPS,比上一代A100算力提高了3.2倍,整体性能提高了6倍。
H100能够进行动态加速,优化路径,这种状态下,算力将提高7倍。
在数据吞吐方面,H100同样非常强大,可实现3TB/s 的显存带宽,5TB/s的互联网速度。
H100还有一个特点,便是拆分GPU,一个单元拆分为7个,同期进行区别的运算任务,并且能够将单个单元性能提高7倍。
它的售价达到了24万人民币,抵得上一款不错的轿车了。但针对专业用户来讲,这个价格不亏,毕竟数量有限,先到先得啊!
按照IDC预测,2023年,GPU在AI算力行业的渗透率将达到54%,而英伟达占据了GPU97%的市场,其强大之处可想而知。
能够想象,将来随着AI的快速发展,英伟达必然作为芯片市场上一颗耀眼的明星,倘若说前几十年芯片的表率是英特尔,那样将来的表率将作为英伟达。
当然,除了英伟达外,我国芯片企业在AI行业亦快速的布局,但效果却显著不如英伟达。
国产AI芯片只能喝汤?
国产AI芯片有寒武纪、壁仞科技、燧原科技、瀚博半导体等机构,但这些机构与英伟达差距很大,能够说只能望其项背。
在2022年世界人工智能大会上,上海天数智芯的“智铠100”和壁仞科技的BR100系列,作为国内AI芯片的表率作。
其中BR100采用了台积电7nm工艺,单芯片峰值算力达到了千万亿次浮点运算,打破了全世界通用GPU算力纪录,完全能够与英伟达的A100相媲美。
壁仞科技是一家初创机构,机构内有非常多前英伟达的员工,其中就有一个架构工程师,因此有些事情你懂得。
网上有博主将BR100与A100进行了比较,结果:BR100更快。
两款芯片采用了相同的晶体管类型,英伟达A100在800平方毫米的面积上,集成为了540亿个晶体管。BR100在1000平方毫米面积上,集成为了770亿个晶体管。BR100在晶体管数量占据了很大优良。
BR100芯片16位浮点算力达到1000T以上、8位选定算力达到2000T以上,单芯片峰值算力达到PFLOPS级别。是A100的3倍,即便是对比H100亦毫不逊色。
然则光有算力是不足的,想要霸占市场,制造和生态是不可缺少的。
芯片制造是咱们的弱点,内地工艺水平为14nm,而国际先进制造水平达到了3nm。
BR100制造工艺为7nm,代工厂商为台积电。这种状况下,随时会被美国长臂管辖,失去代工资格。
生态建设方面,英伟达更加是一座高山,国内AI芯片机构日前只能望其项背,乃至对英伟达的生态水平感到无奈。
按照关联数据,英伟达全世界研发者超过了300多万,在其架构平台上就超过了50万个研发者,其中不乏阿里、腾讯、百度等国内大厂。
国内的AI芯片厂商想要霸占市场,就必须处理制造困难,同期兼容英伟达的架构。亦便是说,即便咱们在算力上超越了英伟达,价格亦比英伟达低,但仍要被台积电和英伟达牵着鼻子走。
在这种状况下,国内AI芯片厂商能霸占市场吗?能发展起来了吗?恐怕在这场AI盛宴中,只能喝一口汤吧!
写到最后
AI盛宴已然到来,ChatGPT需要强大的AI芯片算力支持,而这个大蛋糕被英伟达拿走了大半,国内厂商只能喝点汤。
怎样处理这个尴尬的局面呢?唯有搞自主开发,处理芯片制造困难,处理生态问题。
非常多人会说太难,然则每日为别人做嫁衣裳,还要被打压限制不更难吗?只要咱们每日进步一点,追赶超越是迟早的事,到时候真正的好日子就会到来。
我是科技铭程,欢迎一起讨论!
|