Gartner prevê crescimento de 17% na receita mundial de semicondutores, chegando a US$ 624 bilhões em 2024

01 de fevereiro de 2024

por Redação da Abranet

A receita global de semicondutores deve crescer 16,8% em 2024, totalizando US$ 624 bilhões, prevê o Gartner. No entanto, a forte demanda por chips para suportar cargas de trabalho de inteligência artificial (IA), como unidades de processamento gráfico (GPUs) não será suficiente para salvar a indústria de semicondutores de uma queda de dois dígitos em 2023, explicou Alan Priestley, vice-presidente e analista do Gartner. A redução na demanda por smartphones e PCs, juntamente com a fragilidade nos gastos de datacenter/hiperescaladores, influenciou a queda na receita no ano passado.  O Gartner indica que 2024 deve ser um ano de recuperação, com crescimento na receita para todos os tipos de chips, impulsionado pelo aumento de dois dígitos no mercado de memória. O Gartner também divulgou sua previsão de aumento de 63,3% em 2024 na receita de memória, após uma queda de 38,8% em 2023. A demanda anêmica e a queda nos preços devido a um grande excesso de oferta levaram a uma queda de 38,8% em 2023 na receita de flash NAND, atingindo US$ 35,4 bilhões em 2023. Nos próximos três a seis meses de 2024, os preços na indústria de NAND atingirão seu limite e as condições melhorarão para os fornecedores. Os analistas do Gartner preveem uma recuperação robusta em 2024, com a receita crescendo para US$ 53 bilhões, o que deve representar um aumento de 49,6% ano a ano. Devido ao alto nível de excesso de oferta e à falta de demanda, os fornecedores de DRAM estão reduzindo os preços de mercado para diminuir o estoque. Até o quarto trimestre de 2023, o excesso de oferta no mercado de DRAM continuará, o que deve desencadear um aumento nos preços. No entanto, o efeito completo do aumento de preços só será visto em 2024, quando a receita de DRAM deverá aumentar 88%, totalizando US$ 87,4 bilhões. E ainda: os avanços em inteligência artificial generativa (GenAI, na sigla em inglês) e grandes modelos de linguagem (LLMs) estão impulsionando a demanda pela implantação de servidores de alto desempenho baseados em GPU e placas aceleradoras em datacenter. Isso está criando a necessidade de aceleradores de carga de trabalho serem implantados em servidores de datacenter para suportar tanto o treinamento quanto a inferência de cargas de trabalho de inteligência artificial.  Os analistas do Gartner estimam que, até 2027, a integração de técnicas de IA em aplicativos de datacenter resultará em mais de 20% dos novos servidores, incluindo aceleradores de carga de trabalho.

leia

também