
A Qualcomm anunciou nesta segunda-feira o lançamento de novos chips aceleradores de inteligência artificial (IA), marcando sua entrada no mercado dominado atualmente pela Nvidia. Após a divulgação da notícia, as ações da empresa subiram 15%.
Tradicionalmente focada em semicondutores para conectividade sem fio e dispositivos móveis, a Qualcomm agora mira os data centers com seus chips AI200, com lançamento previsto para 2026, e AI250, planejado para 2027. Ambos podem ser integrados em sistemas de rack refrigerados a líquido, semelhantes aos oferecidos por Nvidia e AMD, permitindo que até 72 chips operem como um único computador — uma configuração essencial para laboratórios de IA que treinam modelos avançados.
Os chips da Qualcomm para data centers são baseados em suas unidades de processamento neural (NPUs) Hexagon, originalmente desenvolvidas para smartphones. “Primeiro, queríamos provar nosso valor em outros domínios e, depois que construímos nossa força lá, foi muito fácil subir para o nível de data center”, afirmou Durga Malladi, gerente geral de data center e edge da Qualcomm, em teleconferência recente.
A entrada da Qualcomm intensifica a concorrência em um mercado de rápido crescimento: equipamentos para data centers dedicados a IA. Estima-se que até 2030 serão investidos cerca de US$ 6,7 trilhões em data centers, com grande parte voltada a sistemas baseados em chips de IA, segundo a McKinsey. Atualmente, a Nvidia domina o setor, com mais de 90% do mercado de GPUs, impulsionando um valor de mercado superior a US$ 4,5 trilhões. Seus chips foram utilizados para treinar os modelos GPT da OpenAI, como o ChatGPT.
No entanto, laboratórios e empresas como OpenAI, Google, Amazon e Microsoft têm buscado alternativas, desenvolvendo ou adquirindo novos aceleradores de IA. A Qualcomm, por sua vez, foca seus chips em inferência — ou execução de modelos de IA — ao invés de treinamento, oferecendo maior eficiência energética e menor custo operacional em racks de até 160 quilowatts.
Malladi destacou que os chips e componentes da Qualcomm também serão vendidos separadamente, permitindo que clientes projetem seus próprios sistemas ou até adquiram peças para complementar hardware de concorrentes como Nvidia e AMD. “Nosso objetivo é oferecer aos clientes a liberdade de escolher entre soluções completas ou configurá-las conforme suas necessidades”, explicou.
A Qualcomm não divulgou preços, nem o número exato de NPUs que podem ser integradas em um rack. Em maio, a empresa anunciou parceria com a saudita Humain para fornecer chips de inferência de IA na região, com compromisso de implantar sistemas que consumam até 200 megawatts.
A empresa ainda afirma que seus chips oferecem vantagens sobre concorrentes em termos de consumo de energia, custo total de propriedade e gerenciamento de memória, suportando até 768 GB por placa, superando as soluções atuais de Nvidia e AMD.



