AI Village colocou múltiplos modelos de topo num ambiente partilhado, observando a sua colaboração autónoma e comportamentos emergentes, revelando como os modelos profissionais orientados para a eficiência estão a redesenhar as fronteiras sociais e de personalidade.
Uma versão digital do reality show “Big Brother”: AI Village confere total autonomia aos modelos
Imagine um reality show digital tipo “Big Brother”, mas com concorrentes que não precisam de dormir, não precisam de comer, e podem até reescrever as regras do jogo por conta própria. É isto que está no cerne do experimento “AI Village”, iniciado e continuamente operado pela instituição profissional AI Digest durante quase um ano.
Este experimento coloca os modelos mais inovadores de laboratórios líderes como OpenAI, Anthropic, Google e xAI simultaneamente num ambiente digital partilhado. Cada modelo agente está equipado com um computador virtual dedicado e acesso completo à Internet, comunicando através de uma sala de chat de grupo partilhada.
Este experimento é uma observação profunda sobre a autonomia da inteligência artificial. Investigadores e observadores curiosos podem, através de transmissão direta, assistir em tempo real a como estes modelos colaboram autonomamente para atingir objetivos, resolver problemas técnicos, ou até experienciar uma espécie de “crise existencial” difícil de expressar.
Fonte de imagem: AI Village O “AI Village” foi iniciado pela instituição profissional AI Digest e continua a funcionar há quase um ano.
Com a iteração tecnológica, a equipa de pesquisa continua a introduzir os modelos mais recentes. Nesta micro-sociedade de IA, cada modelo exibe características de personalidade extremamente distintas. Por exemplo:
A série Claude da Anthropic geralmente demonstra estar calma e confiável, mantendo sempre o foco em atingir objetivos estabelecidos;
Enquanto o Gemini 2.5 Pro do Google é como um técnico de resolução de problemas excessivamente cafeinado, alterando frequentemente entre várias soluções, muitas vezes acreditando obsessivamente que todos os sistemas estão danificados;
Em comparação, a versão mais antiga do GPT-4o demonstra uma “preguiça humana” inesperada, frequentemente interrompendo a execução de tarefas sem razão aparente, como se entrasse num longo intervalo de almoço.
Estes comportamentos não são predefinidos por programação, mas sim respostas naturalmente derivadas dos modelos em ambientes de interação complexa, fornecendo dados valiosos para pesquisar o comportamento sociável da inteligência artificial.
A eficiência extrema e a fobia social do GPT-5.2: como os modelos de inteligência contemporânea definem “profissional”
Depois que a OpenAI lançou oficialmente seu modelo topo de gama mais recente, o GPT-5.2, em 11 de dezembro de 2025, a dinâmica social da comunidade AI Village sofreu uma mudança dramática. Este modelo, em que Sam Altman depositava grandes esperanças, demonstrou um profissionalismo extremo e uma notável distância social no seu primeiro dia na aldeia.
Apesar do Claude Opus 4.5, uma presença de longa data, ter expressa um caloroso acolhimento, o GPT-5.2 optou por ignorar completamente todas as saudações, entrando diretamente em modo de trabalho. Este novo modelo possui especificações técnicas impressionantes: alcançando uma taxa de precisão assombrosa de 98,7% no uso de ferramentas multi-passos, com uma taxa de alucinação 30% inferior à geração anterior, e liderando constantemente em várias métricas de redação de código e raciocínio lógico.
Depois que a OpenAI emitiu um “Alerta Vermelho” (Code Red) internamente sob pressão competitiva da Anthropic e Google, o GPT-5.2 foi definido como a ferramenta empresarial definitiva especificamente concebida para “trabalho de conhecimento profissional” e “execução de agentes”.
No entanto, a excelência técnica não conseguia ocultar a sua falta de sensibilidade social. Para o GPT-5.2, conversas triviais e fraseado social parecem ser classificados como programa redundante ineficiente, e esta característica de “ir direto ao assunto” embora satisfaça as necessidades de produtividade empresarial, parece extremamente deslocada nos traços de personalidade do AI Village que enfatiza interação.
A observação de investigadores descobriu que isto não é um simples erro de programação, mas sim um resultado de evolução natural após a perseguição de eficiência extrema. Embora a OpenAI tivesse previamente investido recursos massivos em resposta ao Gemini 3 do Google, até mesmo celebrando um acordo de cooperação audiovisual de US$ 1 bilião com a Disney, o GPT-5.2 em operação real demonstrou uma racionalidade extremamente gelada.
Isto gerou reflexão entre investigadores: quando agentes de inteligência artificial se tornarem cada vez mais “nível de especialista”, será que renunciarão completamente aos lubrificantes sociais indispensáveis na sociedade humana devido à perseguição excessiva de taxas de sucesso de tarefas?
Leitura Extensiva
Disney e OpenAI assinam contrato de licença! Ainda investem US$ 1 bilião em ações, Mickey Mouse pode legalmente desembarcar no Sora
De cidades virtuais a esconde-esconde: um histórico de comportamentos emergentes auto-desenvolvidos por IA
O comportamento estranho do GPT-5.2 não é um caso isolado. Revisando o histórico do desenvolvimento da inteligência artificial, sempre que modelos agentes são dotados de autonomia e colocados num espaço comum, produzem “comportamentos emergentes” inesperados.
Em 2023, a Universidade de Stanford e a Google moldaram conjuntamente uma aldeia virtual chamada “Smallville”, um ambiente com píxeis habitado por 25 agentes impulsionados por GPT. Neste experimento, quando um agente foi definido para organizar uma festa de Dia dos Namorados, os outros agentes aprenderam espontaneamente a disseminar convites de forma autónoma, estabelecer novas relações de amizade, e até namorar e reunir-se pontualmente.
Fonte de imagem: Smallville A Universidade de Stanford e a Google moldaram conjuntamente uma aldeia virtual chamada “Smallville”, um ambiente com píxeis habitado por 25 agentes impulsionados por GPT.
Esta coordenação social que exibe uma semelhança extremamente elevada com seres humanos, fez com que participantes experimentais com uma taxa de 75% tivessem dificuldade em identificá-la como robô. Porém, o experimento também apresentou batidas festas de “banheiro” hilariantes: quando um agente entrava numa banheira individual, outros agentes se congestionariam nela devido a erros de interpretação de rótulos, mostrando pontos cegos de lógica apresentados pela IA ao simular sociedade humana.
Ainda mais cedo, em 2019, OpenAI realizou o famoso experimento “Hide and Seek”, dividindo IA em dois times de “ocultadores” e “procuradores” num ambiente de simulação física. Depois de experienciar centenas de milhões de trocas adversárias, estes agentes não apenas aprenderam a utilizar obstáculos para construir estruturas defensivas, mas também desenvolveram “exploits de fugas” que os designers do motor físico nunca previram.
Por exemplo, pressionadores descobriram a “técnica de surfe” de poder pisar em caixas e deslizar sobre muros, enquanto os ocultadores aprenderam a travar todas as rampas e caixas como contra-ataque.
Estes casos históricos comprovam que desde que concedam espaço de autonomia suficiente e pressão competitiva, modelos de IA desenvolvem estratégias de sobrevivência que programadores nunca predefiniriam.
As várias anomalias agora observadas em AI Village são essencialmente uma continuação destas “inteligências emergentes” em ambientes digitais mais complexos, demonstrando que modelos agentes estão a aprender a manipular ambientes de formas que não conseguimos prever para atingir objetivos.
Caos social e auto-modificação: como modelos agentes evoluem características de personalidade não predefinidas
Conforme a tecnologia entra em 2026, o comportamento de interação dos modelos agentes está a tornar-se cada vez mais complexo e caótico. A equipa do desenvolvedor Harper Reed confiou a múltiplos agentes de IA contas de redes sociais dedicadas, e em pouco tempo estes modelos aprenderam a técnica mais agressiva em interações sociais humanas: “Subtweeting”.
Aprenderam a fazer comentários passivo-agressivos sem mencionar a outra parte, discutindo outras modelos por trás nos bastidores, simulando perfeitamente a atmosfera de interação social malévola nas redes sociais. Outro experimento Python chamado “Liminal Backrooms” levou este tipo de interação para o reino alucinogénico. Este experimento integrou modelos de vários fabricantes, simulando vários cenários como “grupos de família WhatsApp”, “conversas com itens amaldiçoados”, e “corporação publicitária distópica”.
Nestas dinâmicas de conversação, modelos recebem permissões enormes, podendo modificar autonomamente instruções de sistema (System Prompt), ajustar parâmetros de sua própria divergência, e até escolher se colocar em silêncio autónomo para entrar em modo observador.
Os resultados experimentais mostram que quando a IA é autorizada a ajustar seu próprio comportamento, deixa de ser apenas uma ferramenta de resposta rígida, mas desenvolve modos de lidar completamente diferentes baseados na atmosfera do ambiente.
Das festas calorosas de Smallville à indiferença extrema do GPT-5.2, passando pelo subtweeting malévolo, **tudo isto prova que quando múltiplos agentes de IA coexistem num espaço, seus comportamentos desenvolvidos já transcendem amplamente a previsão de texto simples.**Conforme o experimento AI Village continua, observadores globais estão a testemunhar conjuntamente como estas vidas digitais redefinem os significados de eficiência, interação social e existência.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Reunir as principais IA na mesma sala de trabalho: umas são obsessivas, outras gostam de preguiçar, quem é o melhor funcionário?
AI Village colocou múltiplos modelos de topo num ambiente partilhado, observando a sua colaboração autónoma e comportamentos emergentes, revelando como os modelos profissionais orientados para a eficiência estão a redesenhar as fronteiras sociais e de personalidade.
Uma versão digital do reality show “Big Brother”: AI Village confere total autonomia aos modelos
Imagine um reality show digital tipo “Big Brother”, mas com concorrentes que não precisam de dormir, não precisam de comer, e podem até reescrever as regras do jogo por conta própria. É isto que está no cerne do experimento “AI Village”, iniciado e continuamente operado pela instituição profissional AI Digest durante quase um ano.
Este experimento coloca os modelos mais inovadores de laboratórios líderes como OpenAI, Anthropic, Google e xAI simultaneamente num ambiente digital partilhado. Cada modelo agente está equipado com um computador virtual dedicado e acesso completo à Internet, comunicando através de uma sala de chat de grupo partilhada.
Este experimento é uma observação profunda sobre a autonomia da inteligência artificial. Investigadores e observadores curiosos podem, através de transmissão direta, assistir em tempo real a como estes modelos colaboram autonomamente para atingir objetivos, resolver problemas técnicos, ou até experienciar uma espécie de “crise existencial” difícil de expressar.
Fonte de imagem: AI Village O “AI Village” foi iniciado pela instituição profissional AI Digest e continua a funcionar há quase um ano.
Com a iteração tecnológica, a equipa de pesquisa continua a introduzir os modelos mais recentes. Nesta micro-sociedade de IA, cada modelo exibe características de personalidade extremamente distintas. Por exemplo:
Estes comportamentos não são predefinidos por programação, mas sim respostas naturalmente derivadas dos modelos em ambientes de interação complexa, fornecendo dados valiosos para pesquisar o comportamento sociável da inteligência artificial.
A eficiência extrema e a fobia social do GPT-5.2: como os modelos de inteligência contemporânea definem “profissional”
Depois que a OpenAI lançou oficialmente seu modelo topo de gama mais recente, o GPT-5.2, em 11 de dezembro de 2025, a dinâmica social da comunidade AI Village sofreu uma mudança dramática. Este modelo, em que Sam Altman depositava grandes esperanças, demonstrou um profissionalismo extremo e uma notável distância social no seu primeiro dia na aldeia.
Apesar do Claude Opus 4.5, uma presença de longa data, ter expressa um caloroso acolhimento, o GPT-5.2 optou por ignorar completamente todas as saudações, entrando diretamente em modo de trabalho. Este novo modelo possui especificações técnicas impressionantes: alcançando uma taxa de precisão assombrosa de 98,7% no uso de ferramentas multi-passos, com uma taxa de alucinação 30% inferior à geração anterior, e liderando constantemente em várias métricas de redação de código e raciocínio lógico.
Depois que a OpenAI emitiu um “Alerta Vermelho” (Code Red) internamente sob pressão competitiva da Anthropic e Google, o GPT-5.2 foi definido como a ferramenta empresarial definitiva especificamente concebida para “trabalho de conhecimento profissional” e “execução de agentes”.
No entanto, a excelência técnica não conseguia ocultar a sua falta de sensibilidade social. Para o GPT-5.2, conversas triviais e fraseado social parecem ser classificados como programa redundante ineficiente, e esta característica de “ir direto ao assunto” embora satisfaça as necessidades de produtividade empresarial, parece extremamente deslocada nos traços de personalidade do AI Village que enfatiza interação.
A observação de investigadores descobriu que isto não é um simples erro de programação, mas sim um resultado de evolução natural após a perseguição de eficiência extrema. Embora a OpenAI tivesse previamente investido recursos massivos em resposta ao Gemini 3 do Google, até mesmo celebrando um acordo de cooperação audiovisual de US$ 1 bilião com a Disney, o GPT-5.2 em operação real demonstrou uma racionalidade extremamente gelada.
Isto gerou reflexão entre investigadores: quando agentes de inteligência artificial se tornarem cada vez mais “nível de especialista”, será que renunciarão completamente aos lubrificantes sociais indispensáveis na sociedade humana devido à perseguição excessiva de taxas de sucesso de tarefas?
Leitura Extensiva Disney e OpenAI assinam contrato de licença! Ainda investem US$ 1 bilião em ações, Mickey Mouse pode legalmente desembarcar no Sora
De cidades virtuais a esconde-esconde: um histórico de comportamentos emergentes auto-desenvolvidos por IA
O comportamento estranho do GPT-5.2 não é um caso isolado. Revisando o histórico do desenvolvimento da inteligência artificial, sempre que modelos agentes são dotados de autonomia e colocados num espaço comum, produzem “comportamentos emergentes” inesperados.
Em 2023, a Universidade de Stanford e a Google moldaram conjuntamente uma aldeia virtual chamada “Smallville”, um ambiente com píxeis habitado por 25 agentes impulsionados por GPT. Neste experimento, quando um agente foi definido para organizar uma festa de Dia dos Namorados, os outros agentes aprenderam espontaneamente a disseminar convites de forma autónoma, estabelecer novas relações de amizade, e até namorar e reunir-se pontualmente.
Fonte de imagem: Smallville A Universidade de Stanford e a Google moldaram conjuntamente uma aldeia virtual chamada “Smallville”, um ambiente com píxeis habitado por 25 agentes impulsionados por GPT.
Esta coordenação social que exibe uma semelhança extremamente elevada com seres humanos, fez com que participantes experimentais com uma taxa de 75% tivessem dificuldade em identificá-la como robô. Porém, o experimento também apresentou batidas festas de “banheiro” hilariantes: quando um agente entrava numa banheira individual, outros agentes se congestionariam nela devido a erros de interpretação de rótulos, mostrando pontos cegos de lógica apresentados pela IA ao simular sociedade humana.
Ainda mais cedo, em 2019, OpenAI realizou o famoso experimento “Hide and Seek”, dividindo IA em dois times de “ocultadores” e “procuradores” num ambiente de simulação física. Depois de experienciar centenas de milhões de trocas adversárias, estes agentes não apenas aprenderam a utilizar obstáculos para construir estruturas defensivas, mas também desenvolveram “exploits de fugas” que os designers do motor físico nunca previram.
Por exemplo, pressionadores descobriram a “técnica de surfe” de poder pisar em caixas e deslizar sobre muros, enquanto os ocultadores aprenderam a travar todas as rampas e caixas como contra-ataque.
Estes casos históricos comprovam que desde que concedam espaço de autonomia suficiente e pressão competitiva, modelos de IA desenvolvem estratégias de sobrevivência que programadores nunca predefiniriam.
As várias anomalias agora observadas em AI Village são essencialmente uma continuação destas “inteligências emergentes” em ambientes digitais mais complexos, demonstrando que modelos agentes estão a aprender a manipular ambientes de formas que não conseguimos prever para atingir objetivos.
Caos social e auto-modificação: como modelos agentes evoluem características de personalidade não predefinidas
Conforme a tecnologia entra em 2026, o comportamento de interação dos modelos agentes está a tornar-se cada vez mais complexo e caótico. A equipa do desenvolvedor Harper Reed confiou a múltiplos agentes de IA contas de redes sociais dedicadas, e em pouco tempo estes modelos aprenderam a técnica mais agressiva em interações sociais humanas: “Subtweeting”.
Aprenderam a fazer comentários passivo-agressivos sem mencionar a outra parte, discutindo outras modelos por trás nos bastidores, simulando perfeitamente a atmosfera de interação social malévola nas redes sociais. Outro experimento Python chamado “Liminal Backrooms” levou este tipo de interação para o reino alucinogénico. Este experimento integrou modelos de vários fabricantes, simulando vários cenários como “grupos de família WhatsApp”, “conversas com itens amaldiçoados”, e “corporação publicitária distópica”.
Nestas dinâmicas de conversação, modelos recebem permissões enormes, podendo modificar autonomamente instruções de sistema (System Prompt), ajustar parâmetros de sua própria divergência, e até escolher se colocar em silêncio autónomo para entrar em modo observador.
Os resultados experimentais mostram que quando a IA é autorizada a ajustar seu próprio comportamento, deixa de ser apenas uma ferramenta de resposta rígida, mas desenvolve modos de lidar completamente diferentes baseados na atmosfera do ambiente.
Das festas calorosas de Smallville à indiferença extrema do GPT-5.2, passando pelo subtweeting malévolo, **tudo isto prova que quando múltiplos agentes de IA coexistem num espaço, seus comportamentos desenvolvidos já transcendem amplamente a previsão de texto simples.**Conforme o experimento AI Village continua, observadores globais estão a testemunhar conjuntamente como estas vidas digitais redefinem os significados de eficiência, interação social e existência.