1、AI技术主要有训练与推理两个环节。训练是用海量数据深度训练神经网络模型,对计算性能要求高;推理是运用训练好的模型运算得出结论。云端推理占比逐步上升,2022年云端部署算力中推理占比58.5%,预计2026年达62.2%。
2、推理算力是AI技术实际应用核心,用训练好的模型快速处理新数据,不依赖训练侧算力,随应用场景拓展而扩展,常通过“云端训练,端侧推理”模式实现。
3、AI服务器分为训练和推理两种,推理对算力要求相对低且负载占比有望上升。2024年全球AI服务器出货量占整体约1%,未来有望增长,是推理算力主要载体,中国AI服务器水平前列,部分企业基于昇腾芯片推出产品。
4、2024年推理算力需求爆发,生成式AI领域需求远超训练算力。IDC预测2026年中国智能算力规模年复合增长率达52.3%,增长源于推理端需求释放,大模型应用中推理算力需求超训练算力。
在人工智能(AI)的宏大版图中,推理算力扮演着举足轻重的角色。简单来说,它是利用已训练好的算法,对输入数据来进行实时预测或决策时所依赖的计算能力。从实验室里的理论模型,到我们日常使用的智能应用,推理算力是实现AI从“概念”到“现实”的关键桥梁,是AI商业化落地进程中不可或缺的一环。
当下,推理算力正处于爆发式增长的黄金时期。随着生成式AI的迅猛发展,推理算力的需求曲线一路飙升,逐步超越训练算力的趋势已初现端倪。在科学研究领域,它助力科学家更快地分析海量数据,挖掘潜在规律;编程时,能实现智能代码补全与错误检测;办公软件中,提供智能文档处理、数据分析等功能;医疗健康方面,辅助疾病诊断、药物研发;金融领域则用于风险评估、投资决策等。可以说,推理算力的应用场景正在不断拓展,渗透到各行各业的方方面面。
展望未来,国产AI芯片厂商的崛起正悄然改变着推理算力的市场格局。这些本土企业凭借不停地改进革新的技术和日益提升的性能,有望在3-5年内抢占更大的市场占有率,打破国际巨头的部分垄断局面。与此同时,推理芯片的市场规模潜力巨大,预计到2025年,其市场需求将达到600亿美元左右,成为AI产业中一颗耀眼的明珠。
为了让大家更全面、深入地了解推理算力,接下来,我们将从AI技术的基础环节入手,层层剖析推理算力的发展现状、竞争态势、未来走向,并对相关产业链及代表性公司做详细梳理,揭开推理算力的神秘面纱。
在实际应用场景中,AI技术主要涵盖训练与推理这两个关键环节。训练,是借助海量数据对复杂神经网络模型进行深度训练,使其能够适配特定功能。这一过程对计算性能要求颇高,需要具备处理海量数据的能力,同时还需拥有一定通用性。
推理则是运用训练好的神经网络模型开展运算,基于新输入的数据,一次性得出准确结论。随着人工智能迈向大规模落地应用的关键阶段,云端推理的占比呈逐步上升趋势,AI落地应用数量也在持续不断的增加。依据IDC多个方面数据显示,2022年在云端部署的算力中,推理占比达58.5%,训练占比仅为41.5%;预计到2026年,推理占比将提升至62.2%,训练占比降至37.8%。云端推理占比的慢慢地提高,意味着AI落地应用数量持续攀升,人工智能模型正逐步迈入广泛投产阶段。
推理算力堪称AI技术实际应用的核心环节,主要聚焦于运用训练好的模型对新数据来进行快速处理与响应。推理过程无需重复调用训练侧的算力,而是会随着应用场景的拓展、用户数量的增多以及使用频次的增加而继续扩展。推理算力的需求,一般是通过“云端训练,端侧推理”的模式得以实现,也就是将训练好的模型部署至端侧设备(例如手机、服务器等),端侧设备利用这些模型开展实时推理运算。
2024年,推理算力的需求呈现出爆发式增长态势,尤其是在生成式AI的应用领域,推理算力的需求远超于训练算力。按照IDC的预测,到2026年,中国智能算力规模将达到每秒十万亿亿次浮点运算(ZFLOPS),年复合增长率高达52.3%。这一增长主要源于推理端的需求释放,特别是在大模型的应用中,推理算力的需求已逐渐超越训练算力。
此外,2025年被视作算力爆发元年,推理算力的需求将迎来井喷式增长。以字节跳动的豆包模型为例,截至2024年12月中旬,其日均token使用量已突破4万亿,短短七个月内增长了33倍。这一增长的背后,是AI技术在各行业大范围的应用所催生的巨大算力需求。展望未来,推理算力的需求还将持续增长,尤其是在OpenAIo1-preview等新一代模型的应用中,推理算力的需求将进一步扩大。
当前,推理算力市场呈现出“一超多强”的竞争格局。英伟达凭借在硬件方面的显著优势以及完善的软件生态,在推理芯片市场独占鳌头。依据LiftrInsights的数据,2022年英伟达在数据中心AI加速市场的份额高达82%,远超于其他竞争对手。不过,随着美国逐步加大对高端芯片的出口限制,国内的华为昇腾、寒武纪等厂商正在加快追赶的脚步。在国产替代的大趋势下,国内厂商未来有望在市场中占据更大的份额。
此外,推理芯片供应商呈现出百花齐放的态势。除了英伟达和AMD等主流厂商之外,Xilinx、Altera、Lattice等其他公司也在特定场景下提供了高效的推理解决方案。未来,随着生成式AI的广泛应用,推理芯片的需求预测会大幅度增长。尤其是在2024年和2025年,推理芯片的需求可能达到600亿美元左右。
推理算力的产业链涵盖多个环节,从芯片设计、制造,到AI服务器、云计算平台,再到最终的应用场景,下面是其主要组成部分:
云端芯片情况:在云端AI训练应用中,GPU是首选,也有专门面向推理需求设计的GPU。在云端训练场景里,GPU兼具通用性和高算力,并且拥有完善的软件生态,便于开发者进行开发,目前占据主导地位。常用的云端训练GPU型号有V100、A100、H100等,这些型号在多种比特位宽下都有出色的算力表现,互连带宽性能也能满足集群分布式训练的需求。
在云端推理场景中,A100、H100等型号同样适用,英伟达还针对推理市场设计了T4、A10等GPU。这类型号的性能相比同代旗舰有所降低,但在低精度比特位宽方面表现良好,能够很好的满足AI推理的要求,同时也能契合客户对能耗和成本的综合考量。由于带宽和互连速率的限制,在云端超大规模的模型推理中,A100、H100更为优越,而不是T4、A10等推理卡。
以GPT-3为例,OpenAI多个方面数据显示,GPT-3模型1750亿参数对应超过350GB的GPU显存需求。假设参数规模与所需显存呈线性关系,且推理的中间参数量按1倍估算,那么1万亿参数规模的大模型推理大约需要4000GB显存,也就需要50张A100(80GB)或者167张A10(24GB)。集群中的GPU数量越多,互连要求就越复杂,而且A10无法应用NVLink和NVSwitch技术,大量A10组成的集群仅依靠PCIe通信,互连带宽与A100等显卡相比劣势明显,这有几率会使模型推理的时效性不佳。
边缘端芯片特点:边缘端靠近数据源头,这里的需求复杂,使得AI芯片种类丰富多样。边缘端AI主要以推理任务为主,边缘AI芯片的特性是靠近数据源头,能够就近为终端设备提供AI算力,有实际效果的减少网络通信延迟,但其算力需求不一定低。边缘AI芯片通常有着更为多样化的要求,需要保证在具体应用场景下具备高能效、低延迟、低成本等特点,复杂的需求场景致使边缘AI芯片种类繁多。
目前,边缘端的模型小到使用CPU就能进行AI运算,大到需要借助AI芯片来加速运算,INT8算力从几TOPS到几百TOPS不等。边缘端AI推理芯片依旧遵循CPU+xPU的异构方案,并且由于空间限制,大多以SoC的形式呈现,GPU、FPGA、NPU、ASIC则作为加速模块集成其中。
比如英伟达JestonXavier内含Volta架构GPU,苹果M2配备NPU模块。在边缘端小算力场景中,GPU功耗较大,NPU具有较强的竞争力。经测算,AI大模型在训练端和推理端都会产生巨量的算力/AI芯片需求。倘若未来大模型广泛商用落地,推理端的算力/AI芯片需求量将明显高于训练端。
推理芯片选用依据:在推理芯片的选用上,与训练更多关注模型大小不同,推理更依赖于任务本质,以此来决定所需的芯片种类。推理算力涵盖的芯片类型十分丰富,包括高性能GPU、CPU、FPGA、ASIC等多种芯片类型。不同的推理任务对芯片的需求各异,例如,当有必要进行大量内容或图像生成时,通常会选择GPU进行推理计算(如英伟达的T4芯片);而对于较为简单的推理过程(如语音识别等),CPU有时也能成为不错的推理引擎。此外,FPGA和ASIC在特定场景下也能展现出高效的推理能力。总之,相比训练芯片,推理芯片厂商所采用的路径更加多元化。
服务器是在网络环境中提供计算能力并运行软件应用程序的特定IT设备,其内部结构较为复杂,应用场景极为广泛。AI服务器分为训练和推理两种类型,训练对芯片算力的要求更高,而推理对算力的要求相比来说较低,并且推理负载占比有望持续上升。
目前,AI服务器在整体服务器出货量中占比较小,2022年全球AI服务器出货量约占整体服务器比重的1%,大约为14.5万台,未来有望持续增长。AI服务器是推理算力的主要载体,尤其是在云端推理场景中,服务器的性能直接影响着推理效率。中国AI服务器水平处于世界前列,宝德、华鲲振宇、长江计算等相关企业都基于昇腾芯片推出了AI服务器产品,有力地推动了国内AI推理算力的快速发展。
国产大模型算法创新与开源生态有望开辟一条联合创新之路,推动中国AI技术领先发展。在OpenAI闭源之后,大模型厂商呈现出闭源趋势,直到DeepSeek将高性价比的R1模型开源。作为国内领先互联网大厂的核心团队,字节跳动的豆包团队的VideoWorld开源有望逐步推动国内外大模型行业的开源进程,为相关开发者提供来自中国的最先进的技术资源与创新基石。
未来,若大模型能够形成繁荣的开源生态,AI基础模型有望加快创新步伐,AI应用部署门槛将降低,成本也会带动应用繁荣,进而催化推理算力需求迅速增加。云计算平台为推理算力提供了基础设施支持,尤其是在生成式AI的应用中,云计算平台通过提供弹性算力资源,帮企业在推理阶段减少相关成本并提升效率。华为与SiliconFlow合作推出的DeepSeekR1/V3推理服务就是一个典型案例,表明软件企业在推理端的合作趋势正在不断强化。
推理算力的应用场景极为广泛,随着生成式AI的加快速度进行发展,其在多个行业中都发挥着及其重要的作用,主要应用领域如下:
科学研究:推理算力的提升能够助力科研人员在物理、化学和生物学等领域进行复杂的数据分析和模型构建,辅助科研工作达到甚至超越人类专家的水平。
编程和软件开发:生成式AI推理能力大幅度的提高,特别是在Claude3。5和OpenAIo1模型的应用中,推理能力的增强直接提高了编程效率,降低了专业程序工具的使用门槛,未来有极大几率会出现面向大众的代码工具。
办公软件:AI推理能力的提升使办公软件能更好地使用户得到满足需求,尤其是在图像生成、文档处理等方面,推理算力的应用将进一步提升办公软件的渗透率。
医疗健康:推理算力在医疗领域主要应用于辅助诊断和药物研发等方面。随着生成式AI推理能力的提升,医生的工作流程将变得更便捷,推理算力的需求也将持续增长。
金融:在金融行业,推理算力大多数都用在风险评估、投资决策等场景,这些场景需要大量的逻辑推理和数学运算。随着AI大模型在金融领域的应用逐渐成熟,推理算力的需求将进一步释放。
寒武纪堪称国内智算芯片领域的有突出贡献的公司。其产品体系极为完善,涵盖了云边端系列化智能芯片以及基础开发软件套件。这一些产品具备云边端一体、软硬件协同、训练推理融合的显著特性,并且构建了统一的生态系统。
公司长期和服务器厂商、产业公司紧密合作,凭借自身强大的技术实力,为互联网、金融、交通、能源等众多领域复杂的AI应用场景提供了充足的算力保障。从具体产品来看,云端智能芯片、加速卡及训练整机,边缘智能芯片及加速卡,终端智能处理器IP等一应俱全。
寒武纪的董事长兼总经理陈天石,自研究生阶段就投身于芯片研发工作,是全球最早探索专用AI芯片的科研人员之一。自企业成立以来,始终专注于专用AI芯片领域,在处理器指令集与微架构方面做了大量创新,同时不断对开发者套件和开发者生态进行迭代升级,慢慢成长为国产智算芯片的核心供应商。
目前,公司的云端智能芯片最新产品为思元590芯片及相关板卡和整机。这款产品表现卓越,单卡算力超越英伟达A100,集群算力也接近A100水平。同时,在售的思元370系列产品,包括MLU370-X8、X4、S8、S4等智能加速卡,也在市场中占据着主体地位。2021-2023年,公司的研发投入分别达到11、36亿、15、23亿、11、18亿,在A股芯片上市公司中名列前茅。公司还通过股权激励计划,将核心管理层紧密绑定,充分激发了全员的工作热情。
2024年,思元590产品在互联网大公司进行了广泛的送样测试,成绩斐然。据公开信息数据显示,单卡性能超越英伟达A100,互联集群性能可达A100的80%,在某些特定场景下甚至能超过A100。预计下一代产品将采用类似Blackwell的双芯结构,性能对标英伟达H100,有望相比思元590实现翻倍以上的性能提升。
自2021年思元370发布以来,公司的高算力产品在阿里、百度、字节、腾讯等互联网大公司得到了广泛测试和批量采用。思元590作为性能更优、开发者工具更完善的产品,在2024年下半年通过了互联网大客户的测试,相关这类的产品在2025年有望迎来出货量的迅速增加。据不完全统计,字节、阿里、腾讯等互联网厂商对AI服务器有着数十万台的需求,短中期市场空间可达千亿元人民币。
昇腾计算基于华为昇腾系列(HUAWEIAscend)AI处理器和基础软件,构建了AtlasAI计算解决方案。该方案拥有丰富的产品形态,包括Atlas系列模块、板卡、小站、服务器、集群等,致力于打造面向“端、边、云”的全场景AI基础设施方案,全方面覆盖深度学习领域的推理和训练全流程。
在国家区域AI计算中心场景中,大多数都用在人工智能深度学习模型开发、训练和推理,通过AI算力集群为产业集群赋能,推动AI产业的集约集聚发展;城市人工智能中枢场景依托ICT技术与知识创新融合,促进城市的感知、认知、决策和执行深度协同,打造面向城市的智能应用和场景化服务;通用训练服务器场景主要面向互联网、金融、运营商等行业,提供Atlas800、Atlas300TPro等通用训练服务产品;视频与图像分析场景下,华为的解决方案聚焦中心和边缘推理,针对各行业环境和事件实时智能分析场景,提供多款Atlas系列产品。
昇腾计算产业构建了全栈AI计算基础设施、行业应用及服务的完整产业链,涵盖昇腾系列处理器、系列硬件、CANN、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等。通过不断为各行各业打造场景化解决方案,昇腾持续扩大合作的深度和广度,拓宽合作领域。
公司背靠中科院,是核心信息基础设施的领军企业,隶属于北京中科算源资产管理有限公司,实际控制人为中国科学院计算技术研究所。公司的发展历史与国家科技发展紧密相连,1990年863计划推出后,1993年公司研发出国内首台全对称共享存储多处理机系统曙光一号,1996年曙光公司正式成立并发布计算机系统曙光1000,2014年在上海证券交易所成功上市。
经过多年的发展,公司从最初的高性能计算机产品出发,在高端计算、存储、安全和数据中心等领域积累了深厚的技术实力和庞大的市场占有率,成功构建起全产业的高端计算服务生态。其主营业务大致上可以分为两大部分:一是IT设备,包括高性能计算机、存储产品;二是围绕高性能计算机的软件集成、系统开发及技术服务。在高性能服务器方面,公司正从单纯的制造商向解决方案供应商转型,这一转变不仅大大降低了海外制裁风险,还提高了产品的毛利率。软件集成、系统开发及技术服务则能够很好的满足不同行业的差异化需求,适配各行业的独特特质。
为了更好地适配差异化场景和功能,公司提供了3类通用服务器解决方案,包含多个产品类型,主要有机架式服务器、高密度服务器和核心应用服务器。机架式服务器种类丰富,计算性能强劲,可满足云计算、大数据分析、机器学习等多种使用场景;高密度服务器采用集中式供电、集中式管理、共享散热模式,是大企业、集团、政府、能源、云计算、互联网等数据中心建设的理想选择;核心应用服务器具备强大性能及灵活的IO扩展能力,可兼容多种扩展卡和安全设备,能支撑文件服务器、备份服务器、计算单元、办公系统等,适用于政府、金融、能源等行业。
公司的服务器不仅具备广泛的适配性,可与Intel、AMD、龙芯等多种类型的CPU、GPU、MIC计算资源进行适配,而且在计算密度和节能性方面处于领先地位。产品整合了高速网络和存储技术,可实现超大规模线性扩展,具有节能高效、安全稳定、高度集成等特点。
目前,公司旗下子公司与参控股公司已全面覆盖了从上游芯片、服务器硬件、IO存储到中游云计算平台、大数据平台、算力服务平台以及下游云服务的全计算业务生态体系,各业务板块之间能够充分发挥协同效应。
在芯片产品方面,海光CPU产品性能先进,达到了国际同类型主流高端处理器水平,在国内处于领先地位。公司持续对海光通用处理器的微体系结构进行研发和优化,不断提升高端处理器性能,研发出的第一代、第二代CPU均达到国际先进水平。
对比2020年Intel与海光7825同期的6款至强铂金系列产品,海光7285CPU的SPECCPU2017实测性能与Intel同期主流处理器产品相当。海光DCU产品也达到了国际同类型高端产品水平,目前正处于商业化应用部署阶段。基于“类CUDA”环境研发的深算一号产品性能出色,2023年三季度发布的深算二号,实现了在大数据、人工智能、商业计算等领域的商用,其性能相对于深算一号提升了100%以上。
公司是一家为客户提供全球云网融合服务、IDC数据中心服务以及渲染产品及解决方案的公司,业务广泛涉及AI人工智能、元宇宙、车联网、游戏、音视频、电商等多个行业。
在全球云网融合服务方面,公司整合了全球通讯运营商的网络资源以及成熟软硬件厂商的计算、存储等设备,运用虚拟化、分布式计算等核心技术,对IT实体资源进行虚拟化与产品化封装,为客户提供计算(云主机、裸金属)、网络(大带宽、专线、全球加速、多云互联)、IDC数据中心、存储和边缘计算服务,客户能够实时获取所需的弹性计算、存储与网络服务。
IDC数据中心服务则是根据客户的特定需求,部署核心数据中心、建立内容分发网络(CDN)节点并搭建节点间数据同步互联网络,为客户提供全球范围内的数据中心、云网一体和创新技术的产品解决方案,同时还提供本地化的IDC增值服务。
在渲染产品及解决方案领域,公司基于异构算力平台、专业级显卡与边缘节点布局,为客户搭建了存算网一体化的大规模基础算力平台,针对各行业的各个环节提供高质量、低成本的解决方案,目前已形成GPU服务器、GPU云主机、GPU云桌面等系列产品。
作为全球云网一体化云计算服务商,公司面向全球客户提供优质的云计算、大数据、人工智能等技术产品与服务,致力于打造贴合客户业务场景的行业解决方案,以云服务为数字经济赋能,成为与客户共同应对变化的可靠伙伴。
公司的发展历程可分为三个阶段:2005年在北京市正式成立,2009年从传统IDC服务厂商转型为云计算提供商,并在2011年成功推出第一代“云主机”,开启“公有云”业务布局,这是业务初创阶段;2013年与IBM签署公有云长期战略合作协议,宣布第四代云计算上线年开始第二次战略转型,布局海外市场,主要客户涵盖游戏、音视频、电商等领域,2017年形成全球化的环网服务,实现全球云平台的互联互通,2020年在深交所A股创业板上市,此为积累开拓阶段;2022年通过与英伟达、燧原等优秀公司合作,借助底层英伟达GPU算力储备,以AI云为切入点,开启第二波成长曲线年抓住机遇,向全球新型算力服务提供商转型,进入高速发展阶段。
1、与算法和模型的深度融合:未来推理算力将与算法和模型实现更深度的融合。一方面,新的算法不断涌现,如DeepSeek发布的神经缩放增强(NSA)技术,通过算法与硬件协同优化大幅降低推理成本。另一方面,模型也在不断进化,像XAI推出的Grok3模型在性能上实现关键突破,这都需要与之相匹配的推理算力来支撑,以发挥出最佳性能。
2、向端侧和边缘计算拓展:随着AI应用的普及,不仅云端对推理算力有巨大需求,端侧和边缘计算领域对推理算力的需求也在快速增长。例如AI手机、耳机等终端产品的兴起,需要在本地设备上进行高效的推理计算,以实现语音识别、图像识别等功能,减少对云端的依赖,提高响应速度和隐私保护。边缘计算场景如智能安防、智能交通等,也需要在边缘节点部署推理算力,对实时数据进行处理和决策。
3、能效比持续提升:随着技术的进步,未来的推理芯片和计算设备将更加注重能效比的提升。一方面,通过工艺的改进和架构的优化,降低芯片的功耗,提高每瓦特的计算能力;另一方面,采用新的计算技术和材料,如存算一体技术、类脑计算等,有望在能效比上取得更大的突破,以满足大规模推理计算的需求,同时降低数据中心等的运营成本。
4、云服务与推理算力的协同发展:云计算平台将与推理算力进一步深度协同。云服务提供商将提供更丰富、更灵活的推理算力服务,满足多种用户的需求。用户可以根据自己的业务量和需求,按需租用云推理算力,实现成本的优化。同时,云平台也会通过技术创新,如弹性算力、分布式计算等,提高推理算力的利用效率和服务质量。
5、开源生态推动发展:开源模型和开源软件框架的发展将为推理算力的发展提供新的动力。像DeepSeek开源大模型R1一个月内下载量突破3000万,降低了企业使用门槛,推动了推理算力的需求。开源社区的活跃将促进技术的快速迭代和创新,吸引更加多的开发者和公司参与到推理算力的应用和开发中,加速推理算力在所有的领域的普及。
6、安全与隐私保护需求增强:在推理算力应用广泛的背景下,安全与隐私保护将慢慢的变重要。随着AI模型在金融、医疗等敏感领域的应用增加,对推理过程中的数据安全和用户隐私保护提出了更高的要求。未来需要研发更先进的加密技术、隐私计算技术等,确保在推理计算过程中数据的安全性和隐私性,防止数据泄露和模型被攻击。
日前,山西省大同市中级人民法院审理席某某上诉案及所涉婚约财产纠纷上诉案的审判长接受记者正常采访:本案系不公开审理的案件,一审宣判后,鉴于网上存在大量不实信息,法院在法律规定范围内最大限度回应社会关切,澄清事实。
近日,世贸组织总干事恩戈齐·奥孔乔-伊维拉被问到有关美国和世贸组织关系的问题时,笑谈这是一个“五年来一次”的问题。记者:“(美国)共和党众议员提出动议,要求特朗普政府让美国退出世贸组织,美国现在还在“船上”吗?如果美国退出,世贸组织如何继续运作?
玩具业是美国遭受关税冲击最严重的行业之一。美国有线电视新闻网(CNN)指出,对中国生产的玩具加征高额关税,意味着曾经物美价廉的玩具将变成“奢侈品”。美国商务部多个方面数据显示,2024年美国进口了价值177亿美元的玩具,其中75%来自中国。
“女子伸腿阻止高铁关门”,官方通报:站台工作人员极力制止未果,有关部门已介入调查
首个人形机器人半马冠军!天工机器人夺得冠军,用时2小时40分钟左右(原创内容)
日本长野一夜连震47次,日本气象厅:一年多以来最强震感,当局呼吁警惕更大地震#日本 #地震
山西“订婚案”维持原判,被告获刑3年,审判长答问:处女膜未破裂影不影响罪的认定?#媒体精选计划
当地时间4月18日,美国总统特朗普在白宫发表讲话,重申美联储主席鲍威尔应该降低利率。特朗普已连续两日就降息向鲍威尔施压。△鲍威尔在芝加哥经济俱乐部发表讲话美联储主席鲍威尔日前在芝加哥经济俱乐部发表讲话时,明确说不会因市场波动而采取紧急救市措施。
白宫慌了!“将设工作组紧急处理对中国加征一定的关税危机”!“美国反对美国”正在上演:砸商人饭碗、乱农民生计……华尔街知名大佬发声
连日来,美国政府滥用关税手段,对包括中国在内的全球贸易伙伴征收额外所谓“对等关税”,结果不仅造成全球市场“鸡飞狗跳”,美国自己也出现了民众哄抢鸡蛋、企业原料缺货、海关系统“宕机”等诸多混乱。
在美国发动对于全球的贸易战的时候,2098年诺贝尔经济学奖得主鲍尔·克鲁曼已经公开批评美国,宣称美国正在第三世界化,为此立即引发了外界的关注。