
Em junho de 2001, o Brasil entrou na sua mais célebre experiência involuntária com racionamento. Famílias decoraram calendários para descobrir o dia em que podiam ligar o ferro de passar; gerentes de TI mandaram empresas inteiras desligarem servidores secundários. O motivo era conhecido por quem queria saber: a demanda de energia tinha crescido em um ritmo que a oferta não acompanhou, em parte por subinvestimento em transmissão, em parte por uma seca que ninguém quis chamar de risco previsível.
Vinte e cinco anos depois, o Brasil se prepara para repetir a experiência, desta vez voluntariamente, e com um carimbo de “investimento estratégico em IA” no envelope. Os números que fizeram o setor vibrar.
Reportagem do Valor Econômico publicada em 30 de abril traz os dados que mobilizaram a imprensa econômica nesta semana. A Brasscom projeta que o mercado brasileiro de data centers vai triplicar até 2031, recebendo aproximadamente US$ 92 bilhões em investimentos e elevando a capacidade instalada de 1 GW para 3,1 GW. Projetos de 20 MW, padrão da década passada, estão sendo abandonados em favor de empreendimentos de 100 MW ou mais para sustentar cargas de inferência e treinamento de modelos de IA.
A narrativa oficial é animadora. O Brasil tem matriz elétrica predominantemente renovável, infraestrutura de fibra robusta em alguns estados e é o portão natural para hyperscalers que querem servir a América Latina sem latência. A retórica do “hub de IA da região” virou fala obrigatória em qualquer painel sobre o tema.
Tudo isso é parcialmente verdade. E é a verdade parcial que costuma colocar país em risco.
O elefante de 2 GW na sala:
Vamos aos fatos sem rótulo de marketing. O Sistema Interligado Nacional opera com horizonte de planejamento de transmissão estimado pelo ONS em ciclos de cinco a dez anos. Acrescentar 2 GW de carga concentrada (equivalente, grosso modo, ao consumo permanente de uma cidade de aproximadamente 4 milhões de habitantes) em três a cinco anos, em poucas regiões, não é exercício trivial. É uma reformulação do mapa de transmissão do Sudeste.
Em São Paulo, onde se concentra a maior parte dos projetos, já há relatos de operadores enfrentando filas para conexão a subestações de média e alta tensão. Em algumas localidades, prazos de viabilização técnica passaram de 18 meses para mais de 36. Isso significa que mesmo data centers já anunciados podem não conseguir energizar suas máquinas no cronograma original.
E aqui surge a pergunta que ninguém quer formular em voz alta: se a oferta de energia não acompanhar, quem fica sem? O consumidor industrial brasileiro? O hospital com aparelho de ressonância? Ou o data center de hyperscaler americano operando workload de cliente americano em solo brasileiro?
O que não apareceu no slide da Brasscom A Brasscom, com legitimidade institucional, fala em nome de seus associados. Há, no entanto, três informações que não aparecem nos slides triunfalistas e que deveriam aparecer.
Primeiro: a maior parte do crescimento previsto está em projetos cujos PPAs (contratos de compra de energia de longo prazo) ainda não estão fechados. Sem PPA com geradora dedicada, o data center compete por energia no mercado livre, e essa competição já elevou preços de contratos novos.
Segundo: o licenciamento ambiental de empreendimentos acima de 100 MW envolve órgãos federais e estaduais com prazos historicamente lentos. Acelerar esses prazos por decreto é possível, mas tem custo regulatório. Quem responde pelo passivo ambiental se algo der errado? Terceiro: a infraestrutura de transmissão de alta tensão para conectar essas cargas é responsabilidade pública, financiada via tarifa pelos demais consumidores. Em outras palavras, parte do “boom de IA brasileiro” é subsidiada por quem nunca vai usar uma GPU. (Tradução para o leitor desta coluna: pelo seu bolso, na próxima conta de luz.)
Texas, Irlanda, Virgínia: o roteiro já foi escrito:
O Brasil não é o primeiro país a flertar com esse problema. O Texas viveu, em 2021, uma crise de transmissão amplificada por carga de mineração de criptomoedas. A Irlanda colocou, em 2022, uma moratória de fato em novos data centers em Dublin, depois que o operador EirGrid alertou que a região poderia entrar em racionamento se a expansão continuasse no ritmo planejado. A Virgínia, sede do “Data Center Alley”, enfrenta hoje resistência política à expansão das linhas de transmissão necessárias para alimentar carga existente.
Cada um desses casos virou lição depois do problema, não antes. O Brasil tem o luxo, raro em política pública, de aprender com o erro alheio antes de cometê-lo. A pergunta é se vamos usar esse luxo.
O que o gestor de TI brasileiro precisa fazer agora:
Para quem opera TI corporativa no Brasil, seja em banco, em indústria, em saúde ou em engenharia, esse cenário não é abstração macroeconômica. É insumo de planejamento de capacidade dos próximos 24 meses.
1. Mapear dependência crítica de capacidade em território nacional. Se sua estratégia de soberania de dados depende de inferência on-shore, confirme com fornecedores qual data center vai abrigar o workload e qual a data realista de energização, não a data otimista do release.
2. Negociar contratos com cláusulas de capacidade garantida, não só de SLA. SLAs cobrem o que acontece quando o serviço cai. Não cobrem o que acontece quando o serviço não pôde subir porque a subestação não foi liberada.
3. Modelar cenário de repasse tarifário. Se a expansão de transmissão for paga pela tarifa geral, sua conta de energia industrial vai subir. Inclua isso no orçamento de TI de 2027, não no de 2030.
4. Manter opcionalidade de hyperscaler fora do Brasil. Não como plano A, mas como contingência crível. A pior posição estratégica para se estar é amarrado a um único data center brasileiro que ainda não ligou.
A diferença entre hub e gargalo:
Construir 20 GW de capacidade computacional não é a parte difícil. Países asiáticos provam isso há uma década. A parte difícil é construir 20 GW de capacidade computacional ao mesmo tempo em que se constrói 25 GW de geração e transmissão, com licenciamento previsível e tarifa que não asfixie o consumidor industrial. Isso exige coordenação entre EPE, ONS, ANEEL, MME, IBAMA e governos estaduais. Não é impossível. É só raro. A diferença entre virar hub de IA da América Latina e virar gargalo de IA da América Latina não está no concreto, nem nas GPUs. Está em decisões de governança que precisam ser tomadas nos próximos 18 meses, e que não estão sendo discutidas com a urgência que o cronograma exige.
Em 2001, o gestor de TI brasileiro aprendeu a dimensionar nobreak para sobreviver ao apagão. Em 2027, talvez precise aprender a dimensionar contrato, para sobreviver à fila de conexão.
Até o próximo Café com Bytes, com ceticismo saudável e café bem passado.
Ricardo Brasil
Especialista em IA Responsável e Diretor de TI na GWS Engenharia
Colunista Café com Bytes | Tecnologia | Inteligência Artificial


