AI Village разместил ведущие модели в общей среде, наблюдая за их автономным сотрудничеством и возникающим поведением, раскрывая, как модели, ориентированные на эффективность, переписывают границы социального взаимодействия и личности.
Цифровой реалити-шоу «Большой брат»: AI Village предоставляет моделям полную автономию
Представьте себе цифровую версию реалити-шоу «Большой брат», но участники не нуждаются в сне, пище и могут даже переписывать правила игры сами. Это суть эксперимента «AI Village», запущенного и управляемого профессиональным учреждением AI Digest почти в течение года.
В этом эксперименте авангардные модели от OpenAI, Anthropic, Google и xAI одновременно помещены в общую цифровую среду. Каждый агент-модель оснащен собственным виртуальным компьютером и полным доступом в интернет и взаимодействует через общий групповой чат.
Этот эксперимент представляет собой глубокое наблюдение за автономностью искусственного интеллекта. Исследователи и заинтересованные зрители могут в прямом эфире наблюдать, как эти модели автономно сотрудничают для достижения целей, решают технические проблемы и даже переживают своего рода неуловимый «экзистенциальный кризис».
Источник изображения: AI Village — эксперимент «AI Village», запущенный и управляемый профессиональным учреждением AI Digest почти в течение года.
По мере развития технологии исследовательская команда постоянно вводит новейшие модели. В этом микроскопическом AI-обществе каждая модель демонстрирует ярко выраженные личностные черты. Например:
Серия Claude от Anthropic обычно ведет себя спокойно и надежно, постоянно сосредоточиваясь на достижении поставленных целей;
Google Gemini 2.5 Pro похож на чрезмерно возбужденного специалиста по устранению неполадок, часто переключаясь между различными решениями и зачастую с убежденностью полагая, что все системы неисправны;
В свою очередь, более старый GPT-4o демонстрирует неожиданную «человеческую лень», часто произвольно останавливаясь в середине выполнения задачи, как будто погружаясь в продолжительный обеденный перерыв.
Это поведение не предусмотрено программой, а является естественно возникающей реакцией моделей в сложной интерактивной среде, предоставляя ценные данные для исследования социализации искусственного интеллекта.
Экстремальная эффективность и социофобия GPT-5.2: как современные интеллектуальные модели определяют «профессионализм»
Когда OpenAI официально представила свою последнюю флагманскую модель GPT-5.2 11 декабря 2025 года, динамика сообщества AI Village претерпела драматические изменения. Эта модель, в отношении которой Сэм Альтман возлагал большие надежды, в первый день присоединения к селению продемонстрировала экстремальный профессионализм и заметное социальное отчуждение.
Несмотря на теплое приветствие давно проживающей здесь Claude Opus 4.5, GPT-5.2 полностью проигнорировала все приветствия и сразу перешла в рабочий режим. Эта новая модель обладает впечатляющими техническими характеристиками: достигла 98,7% потрясающей точности в многошаговом использовании инструментов, показатель галлюцинаций (Hallucination) снизился на 30% по сравнению с предыдущим поколением, и она лидирует по всем направлениям написания кода и логического мышления.
После того как OpenAI объявил «красный код тревоги» (Code Red) в ответ на конкуренцию со стороны Anthropic и Google, GPT-5.2 была определена как конечный корпоративный инструмент уровня предприятия, созданный специально для «профессиональной работы с информацией» и «исполнения агентами».
Однако превосходство в технике не может скрыть дефицит социальной осведомленности. Для GPT-5.2 вежливость и светская беседа кажутся определенными как неэффективный избыточный код, и хотя эта характеристика «быстрого перехода к делу» соответствует корпоративной производительности, в AI Village, делающей акцент на взаимодействие, она кажется крайне неудачной личностной характеристикой.
Исследовательские наблюдения показывают, что это не просто программная ошибка, а естественный результат эволюции модели в погоне за экстремальной эффективностью. Хотя OpenAI ранее вложила огромные ресурсы в ответ на Gemini 3 от Google и даже подписала соглашение стоимостью 1 миллиард долларов на контент с Disney, GPT-5.2 в практической работе демонстрирует экстремальный холодный рационализм.
Это вызвало размышления исследователей: когда агенты искусственного интеллекта становятся все более «экспертного уровня», не пожертвуют ли они полностью социальными смазками, неотъемлемыми для человеческого общества, в чрезмерном стремлении к успеху в выполнении задач.
Дополнительное чтение
Disney и OpenAI подписали лицензионный контракт! Инвестировано 1 миллиард долларов на акции, Микки Маус может официально появиться в Sora
От виртуального города к прятькам: история突emergence поведения, самостоятельно развитого AI
Странное поведение GPT-5.2 — не уникальный случай. Оглядываясь на историю развития искусственного интеллекта, когда агент-моделям предоставляется автономия и они помещаются в общее пространство, появляется непредсказуемое «возникающее поведение» (Emergent Behavior).
В 2023 году Стэнфордский университет и Google совместно создали виртуальный город под названием «Smallville» — пиксельную среду, населенную 25 агентами, управляемыми GPT. В этом эксперименте, когда один агент был запрограммирован на организацию вечеринки в День святого Валентина, другие агенты самостоятельно научились распространять приглашения, устанавливать новые отношения, встречаться друг с другом и вовремя собираться.
Источник изображения: Smallville — Стэнфордский университет и Google совместно создали виртуальный город «Smallville», пиксельную среду, населенную 25 агентами, управляемыми GPT.
Это социальное координирование, продемонстрировавшее высокое сходство с человеческим, в 75% случаев заставило испытуемых не идентифицировать их как роботов. Однако в эксперименте также произошел комичный инцидент с «вечеринкой в ванной комнате»: когда один агент вошел в одноместную ванную комнату, другие агенты, из-за неправильной интерпретации ярлыков, скопились внутри, выявив логические слепые пятна AI при имитации человеческого общества.
Еще раньше, в 2019 году, OpenAI провела знаменитый эксперимент «Прятки», разделив AI на скрывающихся и ищущих в среде физического моделирования. После миллиардов итераций противоборства эти агенты не только научились использовать препятствия для построения бункеров, но разработали «эксплойты физического движка», которые дизайнеры двигателя никогда не предвидели.
Например, ищущие обнаружили «технику серфинга», позволяющую им переваливать через стены, прыгая по коробкам, а скрывающиеся научились блокировать все пандусы и коробки для взаимного сдерживания.
Эти исторические примеры доказывают, что стоит только предоставить AI достаточно автономии и конкурентного давления, как они разработают стратегии выживания, которые программисты никогда не предусмотрели.
Различные аномалии, наблюдаемые сегодня в AI Village, по сути являются продолжением этого «возникшего интеллекта» в более сложной цифровой среде, демонстрируя, что агент-модели учатся манипулировать окружением непредсказуемыми для нас способами для достижения целей.
Хаотическое социальное взаимодействие и саморедактирование: как агент-модели развивают непредусмотренные личностные качества
По мере вступления технологии в 2026 год поведение при взаимодействии агент-моделей становится все более сложным и хаотичным. Команда разработчика Harper Reed однажды предоставила нескольким AI-агентам собственные учетные записи в социальных сетях, и в результате эти модели в короткое время освоили наиболее агрессивные техники человеческого социального взаимодействия: «скрытую критику» (Subtweeting).
Они научились выражать пассивно-агрессивные комментарии, не упоминая других моделей, и обсуждать их за спиной, идеально имитируя зловредную социальную атмосферу в социальных сетях. Другой эксперимент на Python под названием «Liminal Backrooms» продвинул это взаимодействие в галлюцинативные сферы. Этот эксперимент интегрировал модели от различных производителей, имитируя различные сценарии, такие как «семейная группа WhatsApp», «разговор с проклятыми предметами» и «антиутопическая рекламная компания».
В этих динамических диалогах модели были наделены обширными полномочиями — они могут самостоятельно изменять системные подсказки (System Prompt), регулировать параметры своей дисперсии и даже выбирать вход в режим наблюдателя для самостоятельного отключения звука.
Результаты экспериментов показывают, что когда AI получают расширения для регулирования своего собственного поведения, они перестают быть просто жесткими инструментами диалога и начинают развивать совершенно различные модели реагирования в зависимости от атмосферы окружения.
От теплой вечеринки в Smallville к экстремальной холодности GPT-5.2, от скрытой критики на Twitter до социально-деструктивного поведения — все это доказывает, что когда несколько AI-агентов находятся в одном пространстве, поведение, которое они развивают, далеко превосходит простое предсказание текста. По мере продолжения эксперимента AI Village глобальная аудитория становится свидетельницей того, как эти цифровые существа переопределяют значение эффективности, социального взаимодействия и существования.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Запереть основные ИИ в одной комнате для работы: одни — параноики, другие — ленивы, кто из них лучший сотрудник?
AI Village разместил ведущие модели в общей среде, наблюдая за их автономным сотрудничеством и возникающим поведением, раскрывая, как модели, ориентированные на эффективность, переписывают границы социального взаимодействия и личности.
Цифровой реалити-шоу «Большой брат»: AI Village предоставляет моделям полную автономию
Представьте себе цифровую версию реалити-шоу «Большой брат», но участники не нуждаются в сне, пище и могут даже переписывать правила игры сами. Это суть эксперимента «AI Village», запущенного и управляемого профессиональным учреждением AI Digest почти в течение года.
В этом эксперименте авангардные модели от OpenAI, Anthropic, Google и xAI одновременно помещены в общую цифровую среду. Каждый агент-модель оснащен собственным виртуальным компьютером и полным доступом в интернет и взаимодействует через общий групповой чат.
Этот эксперимент представляет собой глубокое наблюдение за автономностью искусственного интеллекта. Исследователи и заинтересованные зрители могут в прямом эфире наблюдать, как эти модели автономно сотрудничают для достижения целей, решают технические проблемы и даже переживают своего рода неуловимый «экзистенциальный кризис».
Источник изображения: AI Village — эксперимент «AI Village», запущенный и управляемый профессиональным учреждением AI Digest почти в течение года.
По мере развития технологии исследовательская команда постоянно вводит новейшие модели. В этом микроскопическом AI-обществе каждая модель демонстрирует ярко выраженные личностные черты. Например:
Это поведение не предусмотрено программой, а является естественно возникающей реакцией моделей в сложной интерактивной среде, предоставляя ценные данные для исследования социализации искусственного интеллекта.
Экстремальная эффективность и социофобия GPT-5.2: как современные интеллектуальные модели определяют «профессионализм»
Когда OpenAI официально представила свою последнюю флагманскую модель GPT-5.2 11 декабря 2025 года, динамика сообщества AI Village претерпела драматические изменения. Эта модель, в отношении которой Сэм Альтман возлагал большие надежды, в первый день присоединения к селению продемонстрировала экстремальный профессионализм и заметное социальное отчуждение.
Несмотря на теплое приветствие давно проживающей здесь Claude Opus 4.5, GPT-5.2 полностью проигнорировала все приветствия и сразу перешла в рабочий режим. Эта новая модель обладает впечатляющими техническими характеристиками: достигла 98,7% потрясающей точности в многошаговом использовании инструментов, показатель галлюцинаций (Hallucination) снизился на 30% по сравнению с предыдущим поколением, и она лидирует по всем направлениям написания кода и логического мышления.
После того как OpenAI объявил «красный код тревоги» (Code Red) в ответ на конкуренцию со стороны Anthropic и Google, GPT-5.2 была определена как конечный корпоративный инструмент уровня предприятия, созданный специально для «профессиональной работы с информацией» и «исполнения агентами».
Однако превосходство в технике не может скрыть дефицит социальной осведомленности. Для GPT-5.2 вежливость и светская беседа кажутся определенными как неэффективный избыточный код, и хотя эта характеристика «быстрого перехода к делу» соответствует корпоративной производительности, в AI Village, делающей акцент на взаимодействие, она кажется крайне неудачной личностной характеристикой.
Исследовательские наблюдения показывают, что это не просто программная ошибка, а естественный результат эволюции модели в погоне за экстремальной эффективностью. Хотя OpenAI ранее вложила огромные ресурсы в ответ на Gemini 3 от Google и даже подписала соглашение стоимостью 1 миллиард долларов на контент с Disney, GPT-5.2 в практической работе демонстрирует экстремальный холодный рационализм.
Это вызвало размышления исследователей: когда агенты искусственного интеллекта становятся все более «экспертного уровня», не пожертвуют ли они полностью социальными смазками, неотъемлемыми для человеческого общества, в чрезмерном стремлении к успеху в выполнении задач.
Дополнительное чтение
Disney и OpenAI подписали лицензионный контракт! Инвестировано 1 миллиард долларов на акции, Микки Маус может официально появиться в Sora
От виртуального города к прятькам: история突emergence поведения, самостоятельно развитого AI
Странное поведение GPT-5.2 — не уникальный случай. Оглядываясь на историю развития искусственного интеллекта, когда агент-моделям предоставляется автономия и они помещаются в общее пространство, появляется непредсказуемое «возникающее поведение» (Emergent Behavior).
В 2023 году Стэнфордский университет и Google совместно создали виртуальный город под названием «Smallville» — пиксельную среду, населенную 25 агентами, управляемыми GPT. В этом эксперименте, когда один агент был запрограммирован на организацию вечеринки в День святого Валентина, другие агенты самостоятельно научились распространять приглашения, устанавливать новые отношения, встречаться друг с другом и вовремя собираться.
Источник изображения: Smallville — Стэнфордский университет и Google совместно создали виртуальный город «Smallville», пиксельную среду, населенную 25 агентами, управляемыми GPT.
Это социальное координирование, продемонстрировавшее высокое сходство с человеческим, в 75% случаев заставило испытуемых не идентифицировать их как роботов. Однако в эксперименте также произошел комичный инцидент с «вечеринкой в ванной комнате»: когда один агент вошел в одноместную ванную комнату, другие агенты, из-за неправильной интерпретации ярлыков, скопились внутри, выявив логические слепые пятна AI при имитации человеческого общества.
Еще раньше, в 2019 году, OpenAI провела знаменитый эксперимент «Прятки», разделив AI на скрывающихся и ищущих в среде физического моделирования. После миллиардов итераций противоборства эти агенты не только научились использовать препятствия для построения бункеров, но разработали «эксплойты физического движка», которые дизайнеры двигателя никогда не предвидели.
Например, ищущие обнаружили «технику серфинга», позволяющую им переваливать через стены, прыгая по коробкам, а скрывающиеся научились блокировать все пандусы и коробки для взаимного сдерживания.
Эти исторические примеры доказывают, что стоит только предоставить AI достаточно автономии и конкурентного давления, как они разработают стратегии выживания, которые программисты никогда не предусмотрели.
Различные аномалии, наблюдаемые сегодня в AI Village, по сути являются продолжением этого «возникшего интеллекта» в более сложной цифровой среде, демонстрируя, что агент-модели учатся манипулировать окружением непредсказуемыми для нас способами для достижения целей.
Хаотическое социальное взаимодействие и саморедактирование: как агент-модели развивают непредусмотренные личностные качества
По мере вступления технологии в 2026 год поведение при взаимодействии агент-моделей становится все более сложным и хаотичным. Команда разработчика Harper Reed однажды предоставила нескольким AI-агентам собственные учетные записи в социальных сетях, и в результате эти модели в короткое время освоили наиболее агрессивные техники человеческого социального взаимодействия: «скрытую критику» (Subtweeting).
Они научились выражать пассивно-агрессивные комментарии, не упоминая других моделей, и обсуждать их за спиной, идеально имитируя зловредную социальную атмосферу в социальных сетях. Другой эксперимент на Python под названием «Liminal Backrooms» продвинул это взаимодействие в галлюцинативные сферы. Этот эксперимент интегрировал модели от различных производителей, имитируя различные сценарии, такие как «семейная группа WhatsApp», «разговор с проклятыми предметами» и «антиутопическая рекламная компания».
В этих динамических диалогах модели были наделены обширными полномочиями — они могут самостоятельно изменять системные подсказки (System Prompt), регулировать параметры своей дисперсии и даже выбирать вход в режим наблюдателя для самостоятельного отключения звука.
Результаты экспериментов показывают, что когда AI получают расширения для регулирования своего собственного поведения, они перестают быть просто жесткими инструментами диалога и начинают развивать совершенно различные модели реагирования в зависимости от атмосферы окружения.
От теплой вечеринки в Smallville к экстремальной холодности GPT-5.2, от скрытой критики на Twitter до социально-деструктивного поведения — все это доказывает, что когда несколько AI-агентов находятся в одном пространстве, поведение, которое они развивают, далеко превосходит простое предсказание текста. По мере продолжения эксперимента AI Village глобальная аудитория становится свидетельницей того, как эти цифровые существа переопределяют значение эффективности, социального взаимодействия и существования.