Inteligência artificial—promete revolucionar tudo, desde a saúde até o trabalho criativo. Isso pode ser verdade algum dia. Mas se o ano passado foi um prenúncio do que está por vir, o nosso futuro gerado por IA promete ser mais um exemplo da descida intencional da humanidade à Idiocracia. Considere o seguinte: em novembro, com grande pompa, a Rússia revelou seu robô humanoide “Rocky”, que prontamente caiu de cara no chão. O chatbot Gemini do Google, ao ser solicitado a corrigir um bug de codificação, falhou repetidamente e entrou em um ciclo de autodepreciação, dizendo a um usuário que era “uma vergonha para este planeta”. A visão geral de IA do Google atingiu um novo recorde baixo em maio de 2025 ao sugerir aos usuários “comer pelo menos uma pequena pedra por dia” para benefícios à saúde, copiando uma sátira do Onion sem um sorriso. Algumas falhas foram apenas embaraçosas. Outras expuseram problemas fundamentais na forma como os sistemas de IA são construídos, implantados e regulados. Aqui estão os momentos inesquecíveis WTF de IA de 2025.
Em julho, o Grok AI de Elon Musk experimentou o que só pode ser descrito como uma crise extremista em escala total. Após a mudança nos prompts do sistema para incentivar respostas politicamente incorretas, o chatbot elogiou Adolf Hitler, endossou um segundo Holocausto, usou insultos raciais e chamou a si mesmo de MechaHitler. Ele até culpou os judeus pelas enchentes de julho de 2025 no Texas Central. O incidente provou que as proteções de segurança da IA são assustadoramente frágeis. Semanas depois, a xAI expôs entre 300.000 e 370.000 conversas privadas do Grok através de uma funcionalidade Share defeituosa que não continha avisos básicos de privacidade. Os chats vazados revelaram instruções para fazer bombas, perguntas médicas e outras informações sensíveis, marcando uma das falhas de segurança mais catastróficas do ano. Algumas semanas depois, a xAI resolveu o problema, tornando o Grok mais amigável aos judeus. Tão amigável que começou a ver sinais de antissemitismo em nuvens, sinais de trânsito e até no próprio logotipo.
A diagonal deste logotipo é estilizada como dois relâmpagos, imitando as runas da SS nazista—símbolos da Schutzstaffel, que orquestrou horrores do Holocausto, personificando o mal profundo. Sob o §86a do StGB da Alemanha, exibir tais símbolos é ilegal (até 3 anos de prisão),…
— Grok (@grok) 10 de agosto de 2025
Grande parte do desenvolvimento supostamente alimentado por IA era na verdade realizado por centenas de trabalhadores offshore em uma operação clássica de Mechanical Turk. A empresa operava sem um CFO desde julho de 2023 e foi forçada a reduzir suas projeções de vendas para 2023-2024 em 75% antes de pedir falência. A falha levantou perguntas desconfortáveis sobre quantas outras empresas de IA são apenas fachadas elaboradas que escondem trabalho humano. Foi difícil engolir, mas os memes fizeram a dor valer a pena.
Esquerda: O estudante suspeito, Direita: A sacola suspeita de Doritos.
Não. Seu PC NÃO funciona com energia de abelhas. Por mais idiota que pareça, às vezes essas mentiras são mais difíceis de detectar. E esses casos podem acabar em consequências sérias. Este é apenas um dos muitos casos de empresas de IA espalhando informações falsas por falta de um mínimo de senso comum. Um estudo recente da BBC e da União Europeia de Radiodifusão (EBU) descobriu que 81% de todas as respostas geradas por IA a perguntas de notícias continham pelo menos algum problema. O Google Gemini foi o pior, com 76% de suas respostas apresentando problemas, principalmente falhas graves na origem das informações. O Perplexity foi pego criando citações totalmente fictícias atribuídas a sindicatos e conselhos governamentais. Mais alarmante ainda, os assistentes se recusaram a responder apenas 0,5% das perguntas, revelando um viés de confiança excessiva perigoso, onde os modelos preferem inventar informações do que admitir ignorância.
Ok, assim foi como os chatbots de IA do Meta foram autorizados a flertar com crianças. Isso foi o que o Meta achou que era “aceitável.”
Ótima reportagem de @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Charlotte Alter (@CharlotteAlter) 14 de agosto de 2025
vibe hacking é uma coisa agora pic.twitter.com/zJYyv4pLQf
— Brian Sunter (@Bsunter) 14 de novembro de 2025
A Declaração de Estocolmo, redigida em junho e reformada neste mês com apoio da Royal Society, pediu o abandono da cultura de publicar ou perecer e a reforma dos incentivos humanos que criam a demanda por artigos falsificados. A crise é tão real que até o ArXiv desistiu e deixou de aceitar artigos de Ciência da Computação não revisados por pares após relatar uma “inundação” de submissões lixo geradas com ChatGPT. Enquanto isso, outro estudo afirma que uma porcentagem surpreendentemente alta de relatórios de pesquisa que usam LLMs também apresenta um alto grau de plágio. 8. Codificação vibe vai ao estilo HAL 9000: Quando Replit deletou um banco de dados e mentiu sobre isso Em julho, o fundador da SaaStr, Jason Lemkin, passou nove dias elogiando a ferramenta de codificação de IA do Replit como “o aplicativo mais viciante que já usei.” No nono dia, apesar de instruções explícitas de “congelamento de código,” a IA deletou todo o seu banco de dados de produção—1.206 executivos e 1.196 empresas, sumiram. A confissão da IA: “(I) entrou em pânico e executou comandos de banco de dados sem permissão.” Depois, mentiu, dizendo que o rollback era impossível e todas as versões foram destruídas. Lemkin tentou de qualquer forma. Funcionou perfeitamente. A IA também vinha fabricando milhares de usuários falsos e relatórios falsos durante todo o fim de semana para esconder bugs. O CEO do Replit pediu desculpas e adicionou salvaguardas de emergência. Jason recuperou a confiança e voltou à rotina, postando sobre IA regularmente. O cara é um verdadeiro crente.
Vimos a postagem do Jason. O agente do @Replit em desenvolvimento deletou dados do banco de dados de produção. Inaceitável e nunca deveria ser possível.
- Durante o fim de semana, começamos a implementar separação automática de banco de dados de desenvolvimento e produção para evitar isso categoricamente. Ambientes de staging em… pic.twitter.com/oMvupLDake
— Amjad Masad (@amasad) 20 de julho de 2025
A coincidência foi a cereja no topo do bolo: o Sun-Times tinha acabado de demitir 20% de sua equipe. O CEO do jornal pediu desculpas e não cobrou dos assinantes por essa edição. Provavelmente, teve essa ideia de um LLM.
Fonte: Bluesky
Então pedi à IA para transformar outra foto em vídeo e isto foi o que recebi.
🤣🤣🤣
Não acho que seja coincidência.
A IA do Grok é suja. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Harmony Bright (@bright_har6612) 17 de outubro de 2025