Surreal: OpenAI gastou US$ 7 bilhões em recursos computacionais em 2024

Surreal: OpenAI gastou US$ 7 bilhões em recursos computacionais em 2024

A OpenAI desembolsou aproximadamente US$ 7 bilhões em recursos computacionais durante 2024, mas a revelação mais surpreendente não está no valor astronômico: está em como esse dinheiro foi usado. Dados recentes da Epoch AI, organização de pesquisa especializada em inteligência artificial, mostram que a maior parte dessa fortuna foi dedicada a experimentos, pesquisas exploratórias e rodadas de treinamento descartadas — não aos modelos que efetivamente chegaram ao mercado.

A descoberta desafia a percepção comum sobre o desenvolvimento de IA. Quando pensamos em custos bilionários, a tendência é imaginar treinos épicos de modelos como o GPT-4.5 ou o o3. Mas a realidade é mais nuançada: apenas uma pequena fração dos US$ 7 bilhões foi destinada aos treinos finais dos modelos lançados entre meados de 2024 e o primeiro trimestre de 2025.

Os números por trás da conta

OpenAI 2

Do montante total, cerca de US$ 5 bilhões foram classificados como gastos de P&D (pesquisa e desenvolvimento), englobando toda a computação utilizada em pesquisa básica, experimentos e treinamentos. Outros US$ 2 bilhões foram destinados à inferência — o processamento que roda quando usuários reais interagem com modelos como o ChatGPT.

A metodologia da Epoch AI combinou relatórios financeiros divulgados por veículos como The Information e The New York Times com estimativas próprias sobre o custo de treinar modelos específicos. A organização analisou documentos compartilhados com investidores em setembro de 2024, que incluíam projeções para o quarto trimestre do ano.

Segundo a Epoch AI, dentro daqueles US$ 5 bilhões de P&D, aproximadamente US$ 4,5 bilhões foram gastos em “outros gastos de P&D” — uma categoria que inclui pesquisa fundamental, rodadas experimentais de treinamento (conhecidas como “derisking runs”), treinos para modelos não lançados e iterações descartadas. Apenas US$ 480 milhões foram para os treinos finais dos modelos que efetivamente foram publicados.

Quanto custa treinar um GPT-4.5

694942

O treino final do GPT-4.5, o modelo mais caro do período analisado, custou entre US$ 170 milhões e US$ 890 milhões, com um intervalo de confiança de 90%. A Epoch AI usou uma abordagem direta para calcular esse valor: estimou o tamanho do cluster de treinamento, a duração do processo e o custo por hora de GPU.

O GPT-4.5 foi treinado no cluster Goodyear da Microsoft, localizado no Arizona, utilizando entre 40 mil e 100 mil GPUs Nvidia H100. O processo levou de 90 a 165 dias, com um custo médio de US$ 1,50 a US$ 3 por hora de H100 — alinhado à tendência da indústria, que gira em torno de US$ 2 por hora.

Os outros modelos lançados no período — incluindo GPT-4o, GPT-4o mini, Sora Turbo e a série o (o1, o3) — somaram entre US$ 24 milhões e US$ 435 milhões em custos de treino final, também com 90% de confiança. Para esses modelos, a Epoch AI estimou o volume de operações de ponto flutuante (FLOP) e converteu isso em custos de nuvem usando taxas padronizadas de utilização de GPU.

O custo invisível dos experimentos

A grande descoberta está justamente no que não foi lançado. Se apenas US$ 480 milhões foram para treinos finais, isso significa que mais de 90% dos gastos de P&D foram dedicados a tentativas, testes e aprendizado. Essa dinâmica revela uma faceta pouco comentada da corrida pela IA de fronteira: a maior parte do dinheiro é queimada antes mesmo de um modelo ser considerado pronto.

Rodadas de derisking são comuns na indústria: empresas como a OpenAI realizam treinos exploratórios menores para testar arquiteturas, ajustar hiperparâmetros e validar hipóteses antes de comprometer recursos massivos em um treino de larga escala. Mas a proporção aqui é reveladora. A OpenAI está gastando bilhões para descobrir o que não funciona — um luxo que poucas organizações no mundo podem se dar.

Prejuízos bilionários e a matemática da escalada

A OpenAI encerrou 2024 com receita de US$ 3,7 bilhões e prejuízo projetado de US$ 5 bilhões. A conta não fecha — e não deveria fechar. A empresa opera em um modelo clássico de crescimento acelerado sacrificando lucratividade imediata, similar ao que Tesla, Uber e Spotify fizeram em suas fases iniciais.

A diferença é a escala do prejuízo em relação à receita: a OpenAI está gastando cerca de US$ 2 a US$ 2,25 para cada dólar que ganha. Os US$ 7 bilhões em computação representam a maior fatia desse custo, mas não a única: salários, espaço físico, pagamentos a desenvolvedores do GPT Store e outros gastos operacionais compõem o restante.

Projeções internas sugerem que a receita deve saltar para US$ 11,6 bilhões em 2025, mas os custos também devem crescer proporcionalmente — alguns analistas estimam perdas anuais na faixa de US$ 14 bilhões até 2026. A empresa só espera alcançar o ponto de equilíbrio quando a receita anual ultrapassar os US$ 100 bilhões, possivelmente apenas no final da década.

Tendência histórica e o futuro dos custos

O custo de treinar modelos de IA de fronteira tem crescido a uma taxa de 2,4 vezes ao ano desde 2016, segundo dados da Epoch AI. Se essa tendência persistir, os maiores treinos custarão mais de US$ 1 bilhão até 2027 — um patamar que apenas as organizações mais bem financiadas do mundo poderão sustentar.

Para contextualizar a escalada: treinar o Transformer, a arquitetura fundamental lançada em 2017, custou apenas US$ 930. O BERT-Large do Google, em 2018, saiu por US$ 3.288. O RoBERTa Large da Meta, em 2019, custou US$ 160 mil. O GPT-3, lançado em 2020, pulou para US$ 4,3 milhões. Quatro anos depois, o Gemini do Google custou entre US$ 30 milhões e US$ 191 milhões — um aumento de mais de 4.300% desde 2020.

Leave A Comment

You must be logged in to post a comment.

Back to Top