O ChatGPT tem enormes custos ocultos que podem limitar o desenvolvimento da IA
LarLar > blog > O ChatGPT tem enormes custos ocultos que podem limitar o desenvolvimento da IA

O ChatGPT tem enormes custos ocultos que podem limitar o desenvolvimento da IA

Jul 01, 2023

Os chatbots de IA têm um problema: eles perdem dinheiro em cada bate-papo.

O enorme custo de execução dos grandes modelos de linguagem de hoje, que sustentam ferramentas como ChatGPT e Bard, está limitando sua qualidade e ameaçando estrangular o boom global de IA que eles provocaram.

Suas despesas e a disponibilidade limitada dos chips de computador que eles exigem também estão restringindo quais empresas podem arcar com eles e pressionando até mesmo as empresas mais ricas do mundo a transformar chatbots em geradores de dinheiro mais cedo do que eles podem estar prontos.

"Os modelos que estão sendo implantados agora, por mais impressionantes que pareçam, não são realmente os melhores modelos disponíveis", disse Tom Goldstein, professor de ciência da computação da Universidade de Maryland. "Portanto, como resultado, os modelos que você vê têm muitos pontos fracos" que poderiam ser evitados se o custo não fosse um problema - como uma propensão a cuspir resultados tendenciosos ou falsidades flagrantes.

O que acontece quando o ChatGPT mente sobre pessoas reais?

Os gigantes da tecnologia que apostam seu futuro na IA raramente discutem o custo da tecnologia. A OpenAI (criadora do ChatGPT), a Microsoft e o Google se recusaram a comentar. Mas os especialistas dizem que é o obstáculo mais flagrante para a visão da Big Tech de IA generativa abrindo caminho em todos os setores, cortando o número de funcionários e aumentando a eficiência.

A computação intensiva que a IA exige é o motivo pelo qual a OpenAI reteve seu poderoso novo modelo de linguagem, GPT-4, da versão gratuita do ChatGPT, que ainda está executando um modelo GPT-3.5 mais fraco. O conjunto de dados subjacentes do ChatGPT foi atualizado pela última vez em setembro de 2021, tornando-o inútil para pesquisar ou discutir eventos recentes. E mesmo aqueles que pagam US$ 20 por mês pelo GPT-4 podem enviar apenas 25 mensagens a cada três horas porque é muito caro executá-lo. (Também é muito mais lento para responder.)

Esses custos também podem ser um dos motivos pelos quais o Google ainda não construiu um chatbot de IA em seu principal mecanismo de pesquisa, que responde a bilhões de consultas todos os dias. Quando o Google lançou seu chatbot Bard em março, optou por não usar seu maior modelo de linguagem. Dylan Patel, analista-chefe da empresa de pesquisa de semicondutores SemiAnalysis, estimou que um único bate-papo com o ChatGPT pode custar até 1.000 vezes mais do que uma simples pesquisa no Google.

Em um relatório recente sobre inteligência artificial, o governo Biden identificou os custos computacionais da IA ​​generativa como uma preocupação nacional. A Casa Branca escreveu que espera-se que a tecnologia “aumente drasticamente as demandas computacionais e os impactos ambientais associados” e que há uma “necessidade urgente” de projetar sistemas mais sustentáveis.

Ainda mais do que outras formas de aprendizado de máquina, a IA generativa requer quantidades vertiginosas de poder computacional e chips de computador especializados, conhecidos como GPUs, que apenas as empresas mais ricas podem pagar. A intensificação da batalha pelo acesso a esses chips ajudou a transformar seus principais fornecedores em gigantes da tecnologia por direito próprio, dando-lhes as chaves para o que se tornou o ativo mais valioso do setor de tecnologia.

Por que a Nvidia é de repente uma das empresas mais valiosas do mundo

O Vale do Silício passou a dominar a economia da internet, em parte, oferecendo serviços como busca online, e-mail e mídia social para o mundo gratuitamente, perdendo dinheiro inicialmente, mas eventualmente gerando grandes lucros em publicidade personalizada. E os anúncios provavelmente estão chegando aos chatbots de IA. Mas os analistas dizem que os anúncios sozinhos provavelmente não serão suficientes para tornar as ferramentas de IA lucrativas tão cedo.

Enquanto isso, as empresas que oferecem modelos de IA para uso do consumidor devem equilibrar seu desejo de ganhar participação de mercado com as perdas financeiras que estão acumulando.

A busca por IA mais confiável também deve gerar lucros principalmente para os fabricantes de chips e gigantes da computação em nuvem que já controlam grande parte do espaço digital – junto com os fabricantes de chips cujo hardware eles precisam para executar os modelos.

Não é por acaso que as empresas que constroem os principais modelos de linguagem de IA estão entre os maiores provedores de computação em nuvem, como o Google e a Microsoft, ou têm parcerias estreitas com eles, como a OpenAI faz com a Microsoft. As empresas que compram as ferramentas de IA dessas empresas não percebem que estão presas a um serviço altamente subsidiado que custa muito mais do que estão pagando atualmente, disse Clem Delangue, CEO da Hugging Face, uma empresa de IA de código aberto.