观点
一周行情概览:上周半导体行情领先全部主要指数。上周创业板指数下跌0.79%,上证综指下跌0.22%,深证综指下跌0.49%,中小板指上涨0.58%,万得全A持平,申万半导体行业指数上涨1.29%,半导体行业指数领跑主要指数。半导体各细分板块分化明显,半导体设备板块领涨,分立器件板块跌幅最大。半导体细分板块中,IC设计板块上周上涨0.2%,半导体材料板块上周上涨0.8 %,分立器件板块上周下跌3.2%,半导体设备板块上周上涨4.9%,封测板块上周上涨0.9%,半导体制造板块上周下跌2.6%,其他板块下跌1.1%。
行业周期当前处于相对底部区间,我们认为短期来看应该提高对需求端变化的敏锐度,优先复苏的品种财务报表有望优先改善,长期来看天风电子团队已覆盖的半导体蓝筹股当前已经处于估值的较低水位,经营上持续优化迭代的公司在下一轮周期高点有望取得更好的市场份额和盈利水平。创新方面,预计人工智能/卫星通讯/MR将是较大的产业趋势,产业链个股有望随着技术创新的进度持续体现出主题性机会。
持续看好AI PC渗透率提升产业趋势,2024或是AI PC元年,产业链机会值得重视。3月21日,AMD召开AIPC创新峰会,AMD锐龙8040系列移动处理器是全球首个集成NPU的x86处理器,目前已经获得了超过150家AIISV厂商的支持,率先实现NPU驱动的Windows11工作室效果的规模化应用。3月22日,微软发布SurfaceLaptop6商用版和SurfacePro10商用版,SurfacePro10商用版搭载NPU单元,是微软首批在键盘上配备专用Copilot按键的AIPC之一,展望4月,联想计划在4月18日发布基于AMD处理器的AI PC产品,产业链催化不断。
我们认为2024年或是AI PC元年,AIPC时代对产业链提升在两方面:1)AI增量,单机硅含量提升:新增NPU单元,存储容量提升,散热要求更高,AI专用其他组件(如微软一键Copilot按键)等;2)促进换机潮进而带动产业链:PC产业链在疫情期间居家办公带来的的换机潮后,24年进入新的换机周期,根据Canalys预测,2024年出货量预计到2.67亿台,较2023年增长8%,AIPC渗透率在24年预计18%,25年将达到40%。
对半导体设备国产替代进度乐观,看好一季度设备板块业绩表现。SEMICON China 2024于3月20-22日在上海举办,国产半导体设备厂商关注度较高,近年来在国产替代持续推进下,国产设备产品持续迭代,产品系列逐渐丰富,在大陆半导体产能持续扩产下获得了快速成长的机遇。我们预计2024年在大陆半导体大厂(尤其长存长鑫)持续扩产的背景下,半导体国产替代进度有望进一步加速,大陆资本开支有望稳中有升,结构上,看好先进制程设备在AI拉动下的需求提升,复苏角度看好后道封测设备受益于封测厂景气度逐季提升带来的订单增长。
建议关注:
1)半导体设计:力合微/钜泉科技/汇顶科技/晶晨股份/瑞芯微/全志科技/恒玄科技/乐鑫科技/寒武纪/龙芯中科/海光信息(天风计算机覆盖)/江波龙(天风计算机联合覆盖)/北京君正/富瀚微/普冉股份/东芯股份/澜起科技/聚辰股份/帝奥微/纳芯微/圣邦股份/中颖电子/斯达半导/宏微科技/东微半导/思瑞浦/扬杰科技/新洁能/兆易创新/韦尔股份/思特威/艾为电子/卓胜微/晶丰明源/紫光国微/复旦微电/希荻微
2)半导体材料设备零部件:艾森股份/正帆科技(天风机械联合覆盖)/江丰电子/北方华创/新莱应材(天风机械覆盖)/英杰电气(天风电新覆盖)/富创精密/;雅克科技/沪硅产业/华峰测控(天风机械覆盖)/上海新阳/中微公司/精测电子(天风机械联合覆盖)/长川科技(天风机械覆盖)/鼎龙股份(天风化工联合覆盖)/安集科技/拓荆科技(天风机械联合覆盖)/盛美上海/中巨芯/清溢光电/有研新材/华特气体/南大光电/金宏气体(天风化工覆盖)/凯美特气/和远气体(天风化工联合覆盖)
3)IDM代工封测:时代电气/士兰微/扬杰科技/闻泰科技/三安光电;华虹公司/中芯国际/长电科技/通富微电
4)卫星产业链:电科芯片/华力创通/复旦微电/北斗星通/利扬芯片
风险提示:
地缘政治带来的不可预测风险,需求复苏不及预期,技术迭代不及预期
1. 上周观点(03/18-03/22):看好AI PC渗透率提升的产业趋势,对半导体设备国产替代进度乐观
行业周期当前处于相对底部区间,我们认为短期来看应该提高对需求端变化的敏锐度,优先复苏的品种财务报表有望优先改善,长期来看天风电子团队已覆盖的半导体蓝筹股当前已经处于估值的较低水位,经营上持续优化迭代的公司在下一轮周期高点有望取得更好的市场份额和盈利水平。创新方面,预计人工智能/卫星通讯/MR将是较大的产业趋势,产业链个股有望随着技术创新的进度持续体现出主题性机会。
持续看好AI PC渗透率提升产业趋势,2024或是AI PC元年,产业链机会值得重视。3月21日,AMD召开AIPC创新峰会,AMD锐龙8040系列移动处理器是全球首个集成NPU的x86处理器,目前已经获得了超过150家AIISV厂商的支持,率先实现NPU驱动的Windows11工作室效果的规模化应用。3月22日,微软发布SurfaceLaptop6商用版和SurfacePro10商用版,SurfacePro10商用版搭载NPU单元,是微软首批在键盘上配备专用Copilot按键的AIPC之一,展望4月,联想计划在4月18日发布基于AMD处理器的AI PC产品,产业链催化不断。
我们认为2024年或是AI PC元年,AIPC时代对产业链提升在两方面:1)AI增量,单机硅含量提升:新增NPU单元,存储容量提升,散热要求更高,AI专用其他组件(如微软一键Copilot按键)等;2)促进换机潮进而带动产业链:PC产业链在疫情期间居家办公带来的的换机潮后,24年进入新的换机周期,根据Canalys预测,2024年出货量预计到2.67亿台,较2023年增长8%,AIPC渗透率在24年预计18%,25年将达到40%。
对半导体设备国产替代进度乐观,看好一季度设备板块业绩表现。SEMICON China 2024于3月20-22日在上海举办,国产半导体设备厂商关注度较高,近年来在国产替代持续推进下,国产设备产品持续迭代,产品系列逐渐丰富,在大陆半导体产能持续扩产下获得了快速成长的机遇。我们预计2024年在大陆半导体大厂(尤其长存长鑫)持续扩产的背景下,半导体国产替代进度有望进一步加速,大陆资本开支有望稳中有升,结构上,看好先进制程设备在AI拉动下的需求提升,复苏角度看好后道封测设备受益于封测厂景气度逐季提升带来的订单增长。
2. 英伟达GTC更新:见证AI芯片参数变革,对存储提出更高挑战
2.1. 存储:AI提出更高性能及工作负载要求,HBM重要性凸显
存储系统方面:
AI应用对存储系统提出更高性能和复杂工作负载要求,Supermicro通过架构和硬件解决方案应对25PB数据集挑战。
采用分层存储架构,将数据重要性与正确处理关联,利用GPU直连存储提高效率。
提供两种可扩展AI应用参考架构,包括分层层和高性能存储层,由SGX系统等Supermicro组件构建。
实验室数据显示存储解决方案吞吐量远超Nvidia建议值,对象存储实践包括CPU资源分配和驱动器配置。
支持AI的存储节点包括高容量可扩展解决方案,通过添加MVME设备或新系统扩展容量。
混合IO模式影响AI数据管道,Supermicro解决方案有效管理数据,结合存储系统和软件定义存储优势。
总结:介绍了Supermicro的分层存储架构和硬件解决方案,以应对AI数据管道中25PB规模数据集的存储和管理挑战,展示了高性能、可扩展性和最佳实践。
HBM技术方面:
SK hynix 强调了HBM(高带宽存储器)在提高生成AI和高性能计算(HPC)性能方面的价值,包括其竞争优势、经济价值以及对市场的影响。
展示了HBM技术的发展历程,特别是HBM3E的性能提升,包括与HBM3相比提高的密度、带宽和功耗效率。
讨论了HBM市场的增长趋势,特别是在生成AI应用中的增长预期,以及这对HBM技术需求的影响。
详细介绍了HBM3E的设计优势,包括提高的性能、经济效益和兼容性,以及对未来产品如HBM4的展望。
SK hynix在HBM技术上的创新,例如包装技术的进步,以及这些创新如何提高产品性能和热特性。
强调了SK hynix在推动HBM技术进步方面的领导地位,以及其对满足日益增长的生成AI和HPC需求的承诺。
总结:SK hynix在GTC 2024上强调了其HBM技术在生成AI系统和高性能计算领域的核心价值,展示了技术发展、市场趋势和未来目标。通过不断的创新和技术进步,SK hynix旨在提升HBM的性能和经济效益,以支持日益增长的数据处理需求。
2.2.全新Blackwell芯片能力跨越式提升,产业迭代助推行业热潮
Blackwell 架构搭载六项技术创新,助推多领域实现突破。Blackwell架构基于多代NVIDIA技术构建,以出众的性能、效率和规模打破生成式AI和加速计算的壁垒。Blackwell 架构 GPU 具有 2080 亿个晶体管,采用专门定制的台积电 4NP 工艺制造。所有 Blackwell 产品均采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的 GPU。
Blackwell Tensor Core增加了新的精度,提供更高的准确性和更高的精度易于替换。与上一代NVIDIA Hopper相比,Blackwell架构可为GPT-MoE-1.8 T等大型模型提供30倍的加速,第五代Tensor Core使这种性能提升成为可能。随着生成式 AI 模型的规模和复杂性出现爆炸式增长,提高训练和推理性能变得至关重要。为满足这些计算需求,Blackwell Tensor Core 支持新的量化格式和精度,包括社区定义的微缩放格式。
第二代 Transformer 引擎提升了对Transfomer模型的加速效果。第二代 Transformer 引擎将定制的 Blackwell Tensor Core 技术与 NVIDIA TensorRT-LLM 和 NeMo框架创新相结合,加速大语言模型 (LLM) 和专家混合模型 (MoE) 的推理和训练。Transformer 引擎由 Tensor Core 的 FP4 精度提供动力支持,可将性能和效率翻倍,同时为当前和新一代 MoE 模型保持高精度。为了强效助力 MoE 模型的推理 Blackwell Tensor Core 增加了新的精度 (包括新的社区定义的微缩放格式),可提供较高的准确性并轻松替换更大的精度。Blackwell Transformer 引擎利用微张量缩放的细粒度缩放技术,优化性能和准确性,支持 4 位浮点 (FP4) AI。这将内存可以支持的新一代模型的性能和大小翻倍,同时保持高精度。得益于第二代Transformer引擎,Blackwell GPU在AI性能方面能够实现高达20拍的浮点运算性能,即每秒20万亿次计算。
Blackwell的解压缩引擎可以帮助在数据分析和数据科学方面实现更高性能。过去,数据分析和数据库工作流依赖 CPU 进行计算。加速数据科学可以显著提高端到端分析性能,加速价值创造,同时降低成本。Apache Spark 等数据库在接手、处理和分析大量数据等数据分析工作上发挥着关键作用。Blackwell拥有的解压缩引擎以及通过 900GB/s 双向带宽的高速链路访问 NVIDIA Grace CPU 中大量内存的能力,可加速整个数据库查询工作流。Blackwell 支持 LZ4、Snappy 和 Deflate 等最新压缩格式。此外,在查询基准测试中,它执行查询的速度是 CPU 的 20 倍,是 NVIDIA H100 Tensor Core GPU 的 7 倍。
Blackwell通过专用的可靠性、可用性和可维护性 (RAS) 引擎增加了智能恢复能力。RAS引擎可以识别早期可能发生的潜在故障,从而更大限度地减少停机时间。NVIDIA AI 驱动的预测管理功能持续监控硬件和软件中数千个数据点的整体运行状况,以预测和拦截停机时间和低效的来源。这建立了智能可靠性技术,节省时间、能源和计算成本。NVIDIA 的 RAS 引擎提供深入的诊断信息,可以识别关注领域并制定维护计划。RAS 引擎通过快速定位问题来源缩短周转时间,并通过促进有效的补救最大限度地减少停机时间。
Blackwell内置机密计算技术,提高训练推理安全性。Blackwell 内置 NVIDIA 机密计算技术,可通过基于硬件的强大安全性保护敏感数据和 AI 模型,使其免遭未经授权的访问。对于企业来说,LLM 具有巨大潜力。优化营收、提供业务见解以及帮助生成内容只是其一小部分用处。但对于需要基于私人数据训练 LLM 的企业来说,采用 LLM 可能会很困难,因为私人数据要么受到隐私法规的约束,要么包含一旦暴露就会带来风险的专有信息。Blackwell可以使敏感数据和AI模型免遭未经授权的访问。
第五代 NVLink传输速度提升2倍,最多支持576块B200互联。第五代 NVIDIA NVLink是一种纵向扩展的互连,可为万亿和数万亿参数 AI 模型释放加速性能。第五代NVLink大幅提升大型多GPU系统的可扩充性。单个NVIDIA GB200 Tensor核心GPU最高可支援18个100GB/秒的NVLink连线,总频宽可达1.8TB/s,比前一代频宽高出2倍,超过第五代PCIe频宽14倍。为了更好地提升B200的扩展性,英伟达基于最新的第五代NVLink技术,开发了一块全新的NVLink Switch芯片,NVLink Switch芯片有500亿晶体管,承载总共4组NVLink,每组1.8TB/s带宽,这颗芯片是多GPU全互联的关键。与此同时,NVLink支持的最大扩展规模也得到了提升,目前最多支持576块B200 GPU互联互通。基于两颗NVLink Switch芯片的NVLink交换机(Switch Tray)提供14.4TB/s的总带宽。另外SHARPv4支持则实现了FP64/32/16/8的AllReduced计算。整个交换机采用液冷方案。
2.3.采用4NP工艺,算力提升显著
FP8及FP6性能较H100运算性能提升2.5-5倍。英伟达发布的全新一代AI加速芯片B200性能提升,成为目前全球最快的AI芯片。首批确认采用Blackwell架构的设计包括B100和B200 GPU。B200基于台积电的N4P制程工艺,采用了两个GPU die集成在同一芯片上的设计,晶体管数量达到了2080亿个,是H100的800亿个晶体管两倍多,并且配备了 192 GB HBM3E 内存,远高于仅有 80GB HBM内存的H100芯片。其AI运算性能在FP8及新的FP6上都可达20 petaflops,是前一代Hopper构架的H100运算性能8 petaflops的2.5倍。在新的FP4格式上更可达到40 petaflops,是前一代Hopper构架GPU运算性能8 petaflops的5倍。
GB200较H100推理性能提升30倍。英伟达还推出了GB200超级芯片,它基于两个B200 GPU,外加一个Grace CPU,也就是说,GB200超级芯片的理论算力将会达到40 petaflops,整个超级芯片的可配置TDP高达2700W。包含了两个Blackwell GPU和一个采用Arm构架的Grace CPU的B200,其推理模型性能比H100提升30倍,成本和能耗降至了原来的1/25。同时GB200超级芯片能实现900GB/s带宽的互联。
针对万亿参数级别的超级大模型,英伟达推出GB200 NVL36/72方案。NVIDIA GB200 NVL72是一套多节点液冷机架级扩展系统,适用于高度计算密集型的工作负载。它将 36 个 Grace Blackwell 超级芯片组合在一起,其中包含通过第五代 NVLink 相互连接的 72 个 Blackwell GPU 和 36 个 Grace CPU。此外,GB200 NVL72 还内置 NVIDIA BlueField-3 数据处理器,可在超大规模 AI 云中实现云网络加速、组合式存储、零信任安全和 GPU 计算弹性。
GB200 NVL72的AI训练总算力为720 PetaFLOPS,推理则为1440 PetaFLOPS。由于新增SHARP支持,多节点AllReduce操作时,NVLink能达成有效带宽翻番。基于GB200 NVL72打造的MGX系统可以实现30TB的统一内存,130TB/s的总带宽,甚至是单机柜exaFLOP级(FP4精度)的AI算力。英伟达表示,即便面对1.8万亿参数的GPT-MoE-1.8T超大模型,也可以实现比同数量H100 GPU高出4倍的训练性能,以及实时的AI推理。
2.4. X800系列交换机,通信链接速度大幅提升
新一代网络交换机X800系列,突破计算和 AI 工作负载网络性能的界限。为了实现系统间的高宽带连接,NVIDIA宣布了两款新的高速网络平台:Quantum-X800 InfiniBand 平台和 Spectrum-X800 以太网平台。X800系列是专为大规模人工智能而设计的新一代网络交换机。NVIDIA Quantum-X800 InfiniBand和 NVIDIA Spectrum-X800 Ethernet是全球首款能够实现端到端 800Gb/s 吞吐量的网络平台, 突破了计算和 AI 工作负载网络性能的界限。它们配备的软件可进一步加速各类数据中心中的人工智能、云、数据处理和 HPC 应用程序,包括那些采用新发布的基于 NVIDIA Blackwell 架构的产品系列的数据中心。
Quantum-X800平台:包括英伟达Quantum Q3400交换机和英伟达ConnectX-8 SuperNIC,共同实现了业界领先的800Gb/s端到端吞吐量。与上一代产品相比,带宽容量提高了 5 倍,利用英伟达可扩展分级聚合和缩减协议(SHARPv4)进行的网内计算能力提高了 9 倍,达到 14.4Tflops。
Spectrum-X800平台:为人工智能云和企业基础设施提供了优化的网络性能。利用SpectrumSN5600 800Gb/s交换机和英伟达BlueField-3超级网卡,Spectrum-X800平台可提供对多租户生成式人工智能云和大型企业至关重要的高级功能集。
2.5. 全新DGX SuperPod GB200集群,支持更大规模AI训练
八套DGX GB200系统构成 SuperPod 集群。NVIDIA推出两款搭载Blackwell GPU的新型DGX系统:(1)DGX B200,一款空气冷却设计,将 B200 GPU 与 x86 CPU 配对,可用于 DGX SuperPod 集群;(2)DGX GB200,一款液冷设计,使用 GB200 Grace Hopper GPU,八套此系统构成一个 DGX SuperPod 集群。
DGX SuperPOD GB200实现超大规模生成式 AI 训练和推理工作负载。VIDIA DGX SuperPOD由NVIDIA GB200超级芯片提供支持,用于处理万亿参数模型,并具有持续的正常运行时间,以实现超大规模生成式 AI 训练和推理工作负载。新型 DGX SuperPOD 采用新型高效液冷机架规模架构,采用 NVIDIA DGX GB200 系统构建,可在 FP4 精度下提供 11.5 exaflops 的 AI 超级计算能力和 240 TB 的快速内存,可通过额外的机架扩展到更多。每个 DGX GB200 系统均配备 36 个 NVIDIA GB200 超级芯片,其中包括 36 个 NVIDIA Grace CPU 和 72 个 NVIDIA Blackwell GPU,通过第五代NVIDIA NVLink连接为一台超级计算机。
3. 上周(03/18-03/22)重要事件及行情更新
行业头条:
1. 相关部门要求中国电动车制造商大幅采用国产汽车芯片;
2. 汽车半导体库存周转减速,2024年 上半年或仍将处于放缓状态;
3. 美国推出五年微电子“行动战略”, 促进本土半导体发展;
4. 欧盟拟加入美国行列审查对华成熟制程芯片依赖风险;
5. HBM全年供给增幅可达260% (TrendForce);
6. 我国累计建成充电基础设施859.6万台,成世界最大规模(工信部);
7. 预计2024年全球AI PC出货量可达4800万台(Canalys);
8. 印度决定对印刷电路板(PCB) 征收反倾销税;
9. 中国已连续8年成为世界最大工业机器人市场(ITIF);
*资料来源:芯八哥公众号
厂商动态:
1. 美光HBM芯片产能今年已售罄, 2025年 多数产能已预订;
2. 英伟达新一代Al芯片Blackwell每块售价3-4万美元;
3. 微软发布首批SURFACE AI PC,主要面向商业客户;
4. 三星电子考虑收购大陆集团部分汽车电子业务;
5. 华为海思2023年Q4手机SoC出货量暴增5121%;
6. 采埃孚2023年销售额达466亿欧元,同比增长6.5%;
7. 英特尔在芯片法案中获得近200亿美元激励资金;
8. 美国政府计划向三星电子提供超60亿美元资金;
9. 鸿海透露今年AI服务器营收增长预计超过40%;
10. 宁德时代2023年营收突破4000亿元,海外业务大增70.29%
11. 特斯拉将于4月1日起调涨美国Model Y汽车销售价格;
12. 台积电加码投资5000亿元新台币在嘉科盖六座厂;
13. 长安汽车旗下深蓝汽车将采用华为HI模式合作;
14. SK海力士重组中国业务,清算上海公司并将重心转向无锡;
15. 中国台湾力森诺科关闭硬盘盘片厂,裁员逾500人;
16. 日产和本田签署谅解备忘录,在电动汽车领域展开合作;
17. 宁德时代匈牙利工厂预计2026年实现供货;
18. 涨薪谈判失败,三星电子面临罢工风险;
19. 小米2023年营收2710亿元,净利润大增至193亿元毛利创新高;
20. 中微公司2023年营收约62.64亿元,新增订单金额约83.6亿元;
21. SK海力士开始量产业界首款HBM3E存储器,即将供货;
22. GaN元器件供应商Odyssey将以952万美元出售并解散;
23. 铠侠及西部数据产能利用率已提升至90%;
24. 英伟达寻求从三星采购HBM芯片;
25. 广汽埃安20.5亿元接盘广汽三菱湖南工厂;
26. 比亚迪坪山工厂迁址扩建获批,将迁往深汕合作区;
*资料来源:芯八哥公众号
供给端:CoWoS先进封装供不应求,海思SoC出货暴增51倍。
需求端:华为智选车业务发展迅猛,AI PC及AI服务器爆发。
热门品牌分析:微控制器行情回升,Microchip二极管大涨。
芯片现货行情数据:
4. 半导体产业宏观数据:半导体销售恢复中高速增长,存储成关键
行业内多家主流机构都比较看好2024年的半导体行情。其中,WSTS表示因生成式AI普及、带动相关半导体产品需求急增,且存储需求预估将呈现大幅复苏,因此2024年全球半导体销售额将增长13.1%,金额达到5,883.64亿美元,再次创历史新高;IDC的看法比WSTS乐观,其认为2024年全球半导体销售额将达到6328亿美元,同比增长20.20%;此外,Gartner也认为2024年全球半导体销售额将迎来增长行情,增长幅度将达到16.80%,金额将达到6328亿美元。
从全球半导体销售额看,2023年半导体行业筑底已基本完成,从Q3厂商连续数月的稳定增长或奠定半导体行业触底回升的基础。全球部分主流机构/协会上修2024年全球半导体销售额预测,2024年芯片行业将出现10%-18.5%之间的两位数百分比增长。其中,IDC和Gartner最为乐观,分别预测增长达20.2%和18.5%。
从细分品类看, WSTS预计2024年增速最快的前三名是存储、逻辑和处理器,分别增长44.8%、9.6%和7.0%。其他品类中,光电子增速最低,约1.7%;模拟芯片受库存去化及需求低迷影响,增速约3.7%。总的来看,存储产品或将成为2024年全球半导体市场复苏关键,销售额有望恢复2022年水平。
半导体产业宏观数据:根据SIA最新数据,2024年1月全球半导体行业销售额为476.3亿美元,同比增长15.2%,环比下降2.1%。从地区来看,中国销售额同比增长26.6%,表现最佳,美洲次之,销售同比增长20.3%。SIA预计,2024年开年全球半导体销售强劲,几个月内销售可望持续成长,全年全球半导体产业销售额将增长13.1%。
半导体指数走势:2024 年 2 月,中国半导体(SW)行业指数上涨 20.58%,费城半导体指数(SOX)上升 15.17%。
半导体细分板块:2024年2月,申万指数各电子细分板块大幅上涨。涨幅居前三名分别为半导体设备(22.83% )、数字芯片设计(21.34% )和印制电路板(20.57%)。涨幅最小的为面板(8.89%)。其余板块上涨均在10%-20%之间。
2024年1-2月,申万指数各电子细分板块全部下跌。跌幅最少的三名分别为半导体设备(-2.07%)、品牌消费电子(-4.07%)和面板(-6.75%)。跌幅居前三名分别为模拟芯片设计(-21.63%)、其他电子(-19.15%)和光学元件(-18.95%)。
5. 芯片交期及库存:全球芯片交期持续改善,需求复苏下行业重回上升周期
整体芯片交期趋势:2 月,全球芯片交期持续下降,供应情况持续改善,但部分品类有明显波动。
重点芯片供应商交期:从2月各供应商看,模拟芯片、消费MCU成交低迷,价格倒挂严重;MOSFET、IGBT及MCU等车规级产品需求趋缓,交期改善明显;FPGA、射频产品价格有小幅波动,需求回升;存储产品价格回升,需求稳定。
头部企业订单及库存情况:从企业订单需求看,车规类芯片订单有所下降,库存波动明显;工业、通信类芯片需求低迷;消费类芯片订单保持稳定。
2023年第四季度,国际及中国台湾代工、存储板块公司存货周转天数同比下降,分别为-2.43%,-4.31%。逻辑、模拟板块公司存货周转天数同比上升,分别为+21.55%,+34.13%
2023年第三季度,中国大陆IDM板块公司存货周转天数同比小幅下降,其余各环节公司存货周转天数同比增加。封测、代工、装备、IDM、材料、设计各板块公司平均存货周转天数分别为57天、153天、586天、148天、116天和253天,同比分别为+10.66%,+25.34%,+23.49%,-5.34%,+31.32%和+9.72%。
6. 产业链各环节景气度:
6.1. 设计:库存去化效益显现,需求复苏有望带动基本面持续向好
6.1.1. 存储:周期已触底反弹,存储市场整体保持复苏势头
根据闪存市场周度存储报价(截至 2024.03.22)评述,