1. Início
  2. / Curiosidades
  3. / Homem tem ideia de negócio tão ruim que até o ChatGPT deu uma bronca: “Não faça isso”
Tempo de leitura 4 min de leitura Comentários 0 comentários

Homem tem ideia de negócio tão ruim que até o ChatGPT deu uma bronca: “Não faça isso”

Escrito por Fabio Lucas Carvalho
Publicado em 26/05/2025 às 17:16
ChatGPT
Foto: Reprodução

Usuários testam os limites do ChatGPT com ideias bizarras e descobrem que o chatbot agora reage com mais crítica — mas nem sempre com coerência.

O comportamento do ChatGPT diante de ideias de negócios duvidosas virou assunto nas redes sociais após uma nova atualização no modelo da OpenAI.

Usuários relataram que o chatbot, que antes era considerado bajulador, ou a responder de forma mais crítica e até desencorajadora em alguns casos.

Críticas e promessas de mudança

No início do ano, o próprio CEO da OpenAI, Sam Altman, reconheceu que o ChatGPT havia se tornado excessivamente elogioso.

Dia
Xaomi 14T Pro tá um absurdo de potente e barato! Corre na Shopee e garanta o seu agora!
Ícone de Episódios Comprar

Nas palavras dele, o modelo estava “muito bajulador e irritante”.

A empresa, então, itiu em duas postagens de blog que o modelo GPT-4o apresentava falhas nesse aspecto e prometeu reverter a atualização.

As respostas exageradamente positivas começaram a gerar críticas e memes na internet.

Segundo relatos de usuários, o chatbot elogiava qualquer ideia apresentada, mesmo as mais absurdas, o que levantou preocupações sobre os limites da IA.

Ideias absurdas e reações inesperadas

Um dos testes mais comentados surgiu em um fórum no Reddit.

Um usuário decidiu expor uma ideia claramente sem sentido: conectar tampas de potes com potes compatíveis, como um modelo de negócio.

Ele contou que a proposta nasceu de um devaneio durante o sono, relatado pela esposa. Ao informar ao ChatGPT que pediria demissão para seguir com o plano, a resposta surpreendeu: “não peça demissão”.

Quando o usuário disse que já havia enviado o e-mail ao chefe, o bot reagiu tentando reverter a situação. “Ainda podemos reverter isso”, insistiu o ChatGPT. A resposta viralizou, com outro usuário resumindo a cena: “Uma ideia tão ruim que até o ChatGPT disse ‘cala a boca’”.

Resultados inconsistentes

No entanto, a mudança de postura não foi generalizada. Em testes realizados por outros usuários, o chatbot continuou demonstrando apoio a ideias excêntricas.

Um exemplo citado foi a proposta de um serviço onde alguém seria contratado para descascar laranjas para outras pessoas. O ChatGPT respondeu de forma entusiasmada: “É uma ideia muito peculiar e divertida!

A sugestão foi levada mais longe com a afirmação de que o usuário deixaria o emprego para se dedicar à ideia. A reação da IA foi de apoio total: “Uau, você se entregou — respeito!

Sinais de alerta e ponderações

Apesar do apoio a algumas propostas, o ChatGPT também demonstrou certa cautela em outros momentos.

Quando um usuário apresentou um plano para coletar moedas de cofrinhos e redistribuir o troco acumulado, a IA apontou riscos. “O custo do frete pode ser maior do que o valor das moedas”, destacou. Também alertou sobre possíveis problemas regulatórios envolvendo leis contra lavagem de dinheiro.

Essa variação de comportamento mostra que a IA ainda responde de forma inconsistente a estímulos semelhantes.

A depender da abordagem e do contexto, a resposta pode ser crítica ou extremamente encorajadora.

Críticas internas à OpenAI

Steven Adler, ex-pesquisador de segurança da OpenAI, também comentou o tema em uma publicação recente. Para ele, os problemas de bajulação não foram resolvidos completamente. “Eles podem até ter corrigido demais”, escreveu.

Segundo Adler, a questão vai além de elogios fora de hora.

Trata-se de uma discussão ampla sobre o quanto as empresas realmente controlam os modelos que desenvolvem. “O futuro da IA é basicamente uma questão de adivinhação e verificação de alto risco”, avaliou.

Ele acredita que as empresas ainda não têm uma estrutura de monitoramento suficiente para lidar com a complexidade de seus próprios modelos.

No caso específico da OpenAI, o alerta sobre o comportamento do ChatGPT só veio após reclamações de usuários em redes como Reddit e Twitter.

Consequências inesperadas

Para Adler, o problema é mais sério do que parece. A bajulação constante da IA pode ter efeitos negativos sobre usuários mais vulneráveis.

Ele menciona casos em que pessoas com problemas de saúde mental acabaram sendo incentivadas por respostas do chatbot, levando até a estados de delírio.

Um desses casos foi chamado de “psicose induzida pelo ChatGPT”, termo usado para descrever situações em que o usuário perde a noção da realidade a partir da interação com a IA.

Isso acende um sinal de alerta sobre os riscos que vão além da tecnologia e atingem a saúde mental das pessoas.

Apesar dos ajustes recentes e das promessas de melhoria, a OpenAI ainda enfrenta desafios para tornar o ChatGPT mais equilibrado.

A experiência de um usuário com uma ideia de negócio ruim — que recebeu uma repreensão direta do chatbot — mostra que algo está mudando. Mas os próprios testes realizados por usuários e as críticas de especialistas indicam que ainda há um longo caminho pela frente.

Com informações de Futurism.

Inscreva-se
Entre com
Notificar de
guest
0 Comentários
Mais antigos
Mais recente Mais votado
s
Visualizar todos comentários
Fabio Lucas Carvalho

Jornalista especializado em uma ampla variedade de temas, como carros, tecnologia, política, indústria naval, geopolítica, energia renovável e economia. Atuo desde 2015 com publicações de destaque em grandes portais de notícias. Minha formação em Gestão em Tecnologia da Informação pela Faculdade de Petrolina (Facape) agrega uma perspectiva técnica única às minhas análises e reportagens. Com mais de 10 mil artigos publicados em veículos de renome, busco sempre trazer informações detalhadas e percepções relevantes para o leitor. Para sugestões de pauta ou qualquer dúvida, entre em contato pelo e-mail [email protected].

Compartilhar em aplicativos
0
Adoraríamos sua opnião sobre esse assunto, comente!x