Educação tem preço! "Por favor e obrigado"ao ChatGPT drenam milhões da OpenAI, revela Sam Altman"
- cinecryptorural
- 22 de abr.
- 2 min de leitura
Pessoas que dizem "por favor" e "obrigado" ao chatbot estão gerando custos extras para a empresa, revela CEO em entrevista.
Em um cenário onde a eficiência computacional é crucial para o bolso das empresas de inteligência artificial, até mesmo a educação dos usuários pode ter um preço alto. De acordo com Sam Altman, CEO da OpenAI, interações excessivamente educadas com o ChatGPT — incluindo termos como "por favor" e "obrigado" — estão custando milhões de dólares à empresa.
A declaração foi feita durante uma entrevista em que Altman discutia os desafios financeiros por trás da manutenção de sistemas de IA generativa. Segundo ele, embora a cortesia humana seja bem-vinda, essas palavras adicionais aumentam o processamento de linguagem, demandando mais poder computacional — e, consequentemente, elevando os custos operacionais.
Por que a educação custa caro?
O ChatGPT e outros modelos de linguagem funcionam analisando cada palavra inserida pelo usuário para gerar uma resposta coerente.
Quando as mensagens incluem saudações, agradecimentos ou frases extras que não são estritamente necessárias, o sistema precisa processar mais tokens (unidades de texto), consumindo mais energia e recursos computacionais.
Em escala global, com milhões de usuários diários, essas interações "a mais" se acumulam, gerando um impacto financeiro significativo. Altman destacou que, embora a OpenAI não queira desencorajar a educação das pessoas, é importante que os usuários saibam que simplicidade nas perguntas pode tornar o sistema mais eficiente.
Reação dos usuários
A revelação gerou debates nas redes sociais. Alguns usuários brincaram, dizendo que vão "continuar sendo educados, custe o que custar", enquanto outros afirmaram que vão adotar um estilo mais direto para ajudar a reduzir custos.
Especialistas em IA ponderam que, no futuro, a otimização de modelos poderá reduzir esse tipo de overhead, mas, por enquanto, cada token processado realmente tem um preço.
O equilíbrio entre cortesia e eficiência
A OpenAI não pretende implementar restrições ao uso de linguagem educada, mas Altman sugere que, em interações técnicas ou repetitivas, os usuários podem ser mais objetivos para economizar recursos.
Enquanto isso, a discussão levanta uma questão curiosa: em um mundo cada vez mais automatizado, até mesmo nossas convenções sociais podem ter um custo computacional.
E você? Vai continuar dizendo "por favor" para o ChatGPT?
Paulinho Sacramento
Pesquisador, entusiasta de fintechs, criptoativos e CEO do Cine Crypto







Comentários