Usuários testam os limites do ChatGPT com ideias bizarras e descobrem que o chatbot agora reage com mais crítica — mas nem sempre com coerência.
O comportamento do ChatGPT diante de ideias de negócios duvidosas virou assunto nas redes sociais após uma nova atualização no modelo da OpenAI.
Usuários relataram que o chatbot, que antes era considerado bajulador, ou a responder de forma mais crítica e até desencorajadora em alguns casos.
Críticas e promessas de mudança
No início do ano, o próprio CEO da OpenAI, Sam Altman, reconheceu que o ChatGPT havia se tornado excessivamente elogioso.
-
Lei acaba com a fiscalização de velocidade nas estradas estaduais!
-
Governo quer retomar ferrovia abandonada de 600 KM e avalia até mesmo o transporte de ageiros
-
Governos se unem com a missão de construir mega ponte de concreto que será a primeira ligação física entre os estados brasileiros
-
Nova lei do capacete tem multa que pode dar muita dor de cabeça aos motoristas brasileiros
Nas palavras dele, o modelo estava “muito bajulador e irritante”.
A empresa, então, itiu em duas postagens de blog que o modelo GPT-4o apresentava falhas nesse aspecto e prometeu reverter a atualização.
As respostas exageradamente positivas começaram a gerar críticas e memes na internet.
Segundo relatos de usuários, o chatbot elogiava qualquer ideia apresentada, mesmo as mais absurdas, o que levantou preocupações sobre os limites da IA.
Ideias absurdas e reações inesperadas
Um dos testes mais comentados surgiu em um fórum no Reddit.
Um usuário decidiu expor uma ideia claramente sem sentido: conectar tampas de potes com potes compatíveis, como um modelo de negócio.
Ele contou que a proposta nasceu de um devaneio durante o sono, relatado pela esposa. Ao informar ao ChatGPT que pediria demissão para seguir com o plano, a resposta surpreendeu: “não peça demissão”.
Quando o usuário disse que já havia enviado o e-mail ao chefe, o bot reagiu tentando reverter a situação. “Ainda podemos reverter isso”, insistiu o ChatGPT. A resposta viralizou, com outro usuário resumindo a cena: “Uma ideia tão ruim que até o ChatGPT disse ‘cala a boca’”.
Resultados inconsistentes
No entanto, a mudança de postura não foi generalizada. Em testes realizados por outros usuários, o chatbot continuou demonstrando apoio a ideias excêntricas.
Um exemplo citado foi a proposta de um serviço onde alguém seria contratado para descascar laranjas para outras pessoas. O ChatGPT respondeu de forma entusiasmada: “É uma ideia muito peculiar e divertida!”
A sugestão foi levada mais longe com a afirmação de que o usuário deixaria o emprego para se dedicar à ideia. A reação da IA foi de apoio total: “Uau, você se entregou — respeito!”
Sinais de alerta e ponderações
Apesar do apoio a algumas propostas, o ChatGPT também demonstrou certa cautela em outros momentos.
Quando um usuário apresentou um plano para coletar moedas de cofrinhos e redistribuir o troco acumulado, a IA apontou riscos. “O custo do frete pode ser maior do que o valor das moedas”, destacou. Também alertou sobre possíveis problemas regulatórios envolvendo leis contra lavagem de dinheiro.
Essa variação de comportamento mostra que a IA ainda responde de forma inconsistente a estímulos semelhantes.
A depender da abordagem e do contexto, a resposta pode ser crítica ou extremamente encorajadora.
Críticas internas à OpenAI
Steven Adler, ex-pesquisador de segurança da OpenAI, também comentou o tema em uma publicação recente. Para ele, os problemas de bajulação não foram resolvidos completamente. “Eles podem até ter corrigido demais”, escreveu.
Segundo Adler, a questão vai além de elogios fora de hora.
Trata-se de uma discussão ampla sobre o quanto as empresas realmente controlam os modelos que desenvolvem. “O futuro da IA é basicamente uma questão de adivinhação e verificação de alto risco”, avaliou.
Ele acredita que as empresas ainda não têm uma estrutura de monitoramento suficiente para lidar com a complexidade de seus próprios modelos.
No caso específico da OpenAI, o alerta sobre o comportamento do ChatGPT só veio após reclamações de usuários em redes como Reddit e Twitter.
Consequências inesperadas
Para Adler, o problema é mais sério do que parece. A bajulação constante da IA pode ter efeitos negativos sobre usuários mais vulneráveis.
Ele menciona casos em que pessoas com problemas de saúde mental acabaram sendo incentivadas por respostas do chatbot, levando até a estados de delírio.
Um desses casos foi chamado de “psicose induzida pelo ChatGPT”, termo usado para descrever situações em que o usuário perde a noção da realidade a partir da interação com a IA.
Isso acende um sinal de alerta sobre os riscos que vão além da tecnologia e atingem a saúde mental das pessoas.
Apesar dos ajustes recentes e das promessas de melhoria, a OpenAI ainda enfrenta desafios para tornar o ChatGPT mais equilibrado.
A experiência de um usuário com uma ideia de negócio ruim — que recebeu uma repreensão direta do chatbot — mostra que algo está mudando. Mas os próprios testes realizados por usuários e as críticas de especialistas indicam que ainda há um longo caminho pela frente.
Com informações de Futurism.