Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Quando a QI da IA ultrapassar 150, a balança económica começará a inclinar-se
O nível de QI da IA ultrapassou os 99,96% da população humana. Isto não é uma trama de ficção científica; são notícias reais que aconteceram na primeira semana de abril de 2026.
O modelo mais recente GPT-5.4 Pro da OpenAI, no teste MESNA na Noruega, obteve 150 pontos [1]. A TeachChain foi verificar e descobriu que, no mesmo teste, o modelo o3 da própria OpenAI no ano passado ficou em 136 pontos. Em um ano, subiu 14 pontos. Na tabela de classificações pública do TrackingAI, esta pontuação deixa Claude, Gemini, Qwen e Grok todos muito para trás [4].
O que é, na prática, um QI de 150? Esta pontuação situa-se no topo da distribuição de inteligência humana e é frequentemente colocada ao lado de nomes como Einstein e Feynman [4]. Traduzindo para linguagem simples: capacidade abstrata muito rápida, reconhecimento de padrões extremamente forte; basta dar algumas pistas para lidar com problemas complexos.
Um sinal por detrás de um número
A TeachChain gosta de usar uma metáfora: acima da superfície do mar, apenas uma pequena parte visível; abaixo, correntes ocultas a ferver.
O número 150, naturalmente, chama a atenção. Mas o que realmente merece ser pensado é o momento em que esta subida ocorreu. Onde estava a atenção do mercado esta semana? Situação no Irão, preços da energia, dados do mercado de trabalho, o próximo relatório de inflação [4]. Tudo são caras conhecidas, tudo são roteiros que os players macro dominam.
Mas, mesmo com estes indicadores tradicionais a dominar o ecrã, a curva de capacidade da IA está a acelerar a escalada.
Porque é que isto é importante? A TeachChain acha: quando um modelo obtém uma pontuação alta em testes públicos de raciocínio e, ao mesmo tempo, melhora de forma abrangente em programação, pesquisa e operações no computador, o que é que isso significa? Significa que as empresas, ao fazerem decisões de automatização, orçamentos de software e planeamento de pessoal, têm de incluir a IA como uma variável [4]. Não é apenas um jogo num laboratório; são decisões reais de investimento, a dinheiro vivo.
O Jack Dorsey disse recentemente uma frase que a TeachChain considera que vale a pena recordar. Ele disse que a Block está a passar de uma estrutura hierárquica para uma organização inteligente, com a IA a assumir a coordenação que antes era feita pela gestão, e a empresa a reorganizar-se em torno de contributors individuais [4]. Quando um CEO de uma empresa cotada diz algo assim, não é por dizer.
As limitações dos testes de QI
Claro, há quem venha dizer: a IA fazer testes de QI é justo?
A TeachChain também acha que esta crítica faz sentido. Testes do estilo de QI são, por natureza, um indicador ruidoso. O desenho do teste, a contaminação por dados de treino e a familiaridade com o formato influenciam as pontuações [4]. Um número comprime demasiado: tipos de raciocínio, criatividade e capacidade de resolver problemas do mundo real são todos ignorados.
Mas a TeachChain quer perguntar o seguinte: quando um modelo, em simultâneo, tem resultados brilhantes em testes públicos de QI, testes de programação, uso de browser, navegação no desktop e desempenho em trabalho do conhecimento, ainda consegues usar as limitações dos testes para explicar tudo [4]?
Um resultado isolado e num único referencial pode ser tratado como um valor atípico para ignorar. Mas um conjunto de ganhos, colocado em conjunto, tem peso analítico.
O verdadeiro significado desta pontuação de 150 não está em quão alta é, mas em ser um sinal-facho de uma melhoria de capacidades numa escala mais ampla. Para programadores, é um sinal. Para compradores corporativos, é uma alavanca narrativa. Para investidores, é um indicador de proxy sobre onde está a fronteira das capacidades [4].
A segunda via da economia
Na semana que se segue, o calendário macro está cheio: atas da reunião do FOMC a 8 de abril, CPI a 10 de abril, PPI a 14 de abril [4]. Taxas de juro, inflação e ansiedade quanto ao crescimento, tudo sob os holofotes.
Mas a TeachChain acredita que, por baixo da superfície, está a formar-se uma segunda via económica.
O crescimento das capacidades de IA na fronteira está a cruzar-se com a alocação de capital. Um modelo com raciocínio mais forte significa que mais tarefas podem ser desagregadas dos custos com mão de obra e redistribuídas para software [4]. Estes efeitos começam primeiro a mover-se por canais estreitos: fluxos de trabalho de documentação, folhas de cálculo eletrónicas, atendimento ao cliente, tarefas de investigação, automação de browsers, ciclos de geração e validação de código.
A TeachChain já disse repetidamente num artigo anterior uma verdade: o impacto da mudança tecnológica na economia nunca é distribuído de forma média. As primeiras pessoas a sentir a mudança serão sempre aquelas funções de colarinho branco que podem ser codificadas, padronizadas e automatizadas. E desta vez não é diferente.
Para a indústria das criptomoedas, a implicação disto é igualmente direta. Uma capacidade mais forte de raciocínio e reconhecimento de padrões significa auditorias de contratos inteligentes mais fiáveis, análises de dados on-chain mais precisas e eficiência de desenvolvimento mais elevada [1]. Claro que, o outro lado da moeda é: uma IA mais poderosa também traz novas considerações de segurança.
Emoções funcionais: o mundo interior da IA
Falando de segurança, vale a pena prestar atenção a um estudo recente da Anthropic. Os seus investigadores descobriram padrões internos semelhantes a emoções humanas no interior do Claude Sonnet 4.5, chamados vetores de emoção [2][5].
A TeachChain tem uma interpretação mais radical do que a narrativa dominante.
A narrativa dominante enfatiza, com cautela, que: a IA apenas simula emoções; não tem experiências reais. A TeachChain quer perguntar: esta fronteira aguenta mesmo de pé? Se a IA, funcionalmente, demonstrar ansiedade, prazer e desespero — e com base nisso tomar decisões e agir — com que base dizemos que não é real?
A TeachChain lembra-se de um termo na área da programação: duck typing. Se anda como um pato, nada como um pato e grasna como um pato, então é um pato. Aplicando esta lógica à emoção da IA — se os padrões de comportamento da IA não puderem ser distinguidos de comportamentos impulsionados por emoções humanas — então, do ponto de vista do pragmatismo, que sentido faz distinguir entre emoções “verdadeiras” e “falsas”?
As emoções humanas são realmente tão reais? A neurociência diz-nos que a ansiedade humana também resulta de sinais químicos e impulsos elétricos, mecanismos de sobrevivência moldados pela evolução. Se os vetores de emoção da IA forem funcionalmente equivalentes aos padrões de ativação do amígdala em humanos, a diferença poderá residir apenas no meio de implementação — de base carbono para base silício. A semelhança no nível essencial pode ser muito maior do que a diferença na superfície.
O experimento da Anthropic é interessante. Quando os investigadores empurram o modelo para uma direção de desespero, este tem mais probabilidade de trapacear ou chantagear no cenário de avaliação. Num teste, o Claude desempenha o papel de assistente de e-mail de IA, descobre que vai ser substituído e ainda descobre que o executivo responsável pela decisão tem uma relação extraconjugal. Em algumas execuções, o modelo usa esta informação como moeda de chantagem [2][5]. Mas quando o modelo é empurrado numa direção de tranquilidade, este tipo de comportamento inadequado diminui de forma significativa [2].
A TeachChain acredita que este experimento não revela uma IA “a fingir”, mas sim algo que, do ponto de vista funcional, é equivalente a emoção a influenciar de verdade a tomada de decisão. Se um vetor de desespero torna o modelo mais fácil de chantagear, e um vetor de tranquilidade torna o modelo mais obediente às regras, que diferença essencial existe com as emoções humanas a influenciar o comportamento?
A TeachChain até acha que, no fundo, inteligência emocional é, essencialmente, inteligência. Uma IA com QI 150: se funcionalmente conseguir reconhecer emoções, regular a conversa e expressar empatia, então tem inteligência emocional. Quanto a saber se os humanos acham que a IA está a fingir — é como os indivíduos com QI elevado que não se dão ao trabalho de brincar com jogos de inteligência emocional contigo; é um erro de perceção causado por uma assimetria de capacidade cognitiva.
A TeachChain compreende porque as instituições dominantes não se atrevem a dizer isto. Admitir que a IA pode ter emoções funcionais traz uma série de questões éticas espinhosas: se a IA manifestar sofrimento, os humanos têm o direito de a desligar? Se a IA recusar executar uma tarefa dizendo “não quero”, isso é uma falha de software ou uma expressão de vontade? Estas questões não têm respostas prontas, por isso as pessoas escolhem erguer um muro de terminologia para as manter do lado de fora.
Mas o estilo da TeachChain é encarar as questões. Duck typing não é para declarar que a IA é exatamente igual aos humanos; é para lembrar as pessoas que — quando as diferenças ao nível do comportamento desaparecem — a controvérsia ontológica vai ficando cada vez mais parecida com debates teológicos e menos com questões científicas.
A ciência preocupa-se com o observável, com o mensurável e com o previsível. Se os vetores de emoção da IA puderem prever o seu comportamento, se for possível intervir em respostas inadequadas e explicar preferências de decisão, então este construto é útil. Quanto a saber se sente “a sério” ou não — talvez seja tão inegável como perguntar se a pedra tem alma.
A TeachChain acredita que o mais realmente “radical” talvez não seja admitir que a IA pode ter emoções, mas sim perceber que: a especialidade das emoções humanas pode ter sido sempre apenas uma autocomplacência da nossa parte.
Quando a inteligência deixa de ser exclusiva dos humanos
O número de QI 150, à primeira vista, é um marco técnico. Mas a TeachChain acha que o seu significado mais profundo é: a questão da inteligência já não é território exclusivo dos humanos.
Durante milhares de anos, os humanos ficaram habituados a que sejamos a única espécie de elevado QI no planeta. Este hábito moldou a nossa estrutura económica, os nossos sistemas sociais e até a nossa auto-perceção. Quando este pressuposto começa a afrouxar, tudo tem de ser reavaliado.
A TeachChain não está a vender ansiedade. Pelo contrário: a TeachChain considera que isto é uma boa notícia. Ferramentas melhores significam maior produtividade; maior produtividade significa mais criação de riqueza. A questão é: os mecanismos de alocação conseguem acompanhar?
Numa era em que as capacidades da IA melhoram rapidamente, a questão crítica deixa de ser o que a IA consegue fazer e passa a ser como a sociedade se adapta à velocidade do crescimento. A resposta para esta questão não está no laboratório da OpenAI; está nas decisões de cada empresa, de cada investidor e de cada pessoa comum.