Top.Mail.Ru
РБК Компании
Заморозили скидки: делитесь новостями бизнеса и читайте эксклюзивы на РБК
Успеть до 14.12
Заморозили скидки:
делитесь новостями бизнеса
и читайте эксклюзивы на РБК
Успеть до 14.12

Коллективный разум стал реальностью: как нейросети становятся еще умнее

Ученые нашли способ сделать искусственный интеллект еще умнее, добавив ему способность разбираться с задачей группой. Результат оказался выше всяких похвал
Коллективный разум стал реальностью: как нейросети становятся еще умнее
Источник изображения: Unsplash.com
Кирилл Пшинник
Кирилл Пшинник
Сооснователь и генеральный директор онлайн-университета Zerocoder

ИИ — моя сфера интереса. Я твердо уверен, что нейросети не заменят людей, но люди, использующие нейросети заменят тех, кто их не использует

Подробнее про эксперта

Коллективно решать проблему почти всегда эффективнее, чем делать это в одиночку. Как оказалось, касается это не только людей, но и животных, а также — неожиданно — нейросетей.

Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и СЕО онлайн-университета «Зерокодер». В сегодняшней статье говорим о проблемах и о коллективном их решении — как в рамках ИИ, так и применительно к другим интересным кейсам. Например, про голубей, которых научили определять онкологию по изображениям. 

Коллективизм и голуби 

«Голубиному» исследованию уже 10 лет — это не новости, но все равно занимательный кейс. Группа ученых из Университета штата Айова обучила обыкновенных сизых голубей различать доброкачественные и злокачественные новообразования на медицинских изображениях — без всяких слов, только на основе оперантного обучения и пищевых поощрений. Голуби успешно учились на гистологических срезах и маммограммах, достигая индивидуальной точности порядка 80–85%, при этом сохраняли способность обобщать знания для работы с новыми изображениями.

Ключевой результат — коллективная точность, что исследователи назвали flock-sourcing. Они объединяли ответы группы из 4 птиц: если несколько из них считали снимок злокачественным, система тоже классифицировала его как «плохой». Это дало впечатляющий результат: точность при совместной оценке достигла 99 %, значительно превзойдя уровень каждого отдельного голубя (~0.99 против 0.73–0.85 у индивидуальных птиц).

Примечательно, что группа птиц проигрывала только в сверхсложной задаче — распознавании тонких масс в маммограммах, где и люди испытывают трудности. 

Таким образом, исследование демонстрирует: совместный «птичий разум» оказался более точным, чем зрение каждого голубя отдельно. Авторы подчеркивают, что такая «коллективная перцепция» может быть использована для проверки качества медицинских изображений, особенно в условиях дефицита специалистов или при тестировании новых технологий визуализации.

Мы знаем, что с голубями это сработало. Теперь можно предположить, что будет, если использовать «коллективную точность» применительно к нейросетям. И даже сказать наверняка, потому что такое исследование теперь тоже появилось.

TreeQuest: когда нейросети не конкурируют, а действуют сообща

Японский стартап Sakana AI разработал алгоритм Adaptive Branching Monte Carlo Tree Search (AB‑MCTS), который позволяет разным большим языковым моделям (LLM) работать сообща, а не соревноваться между собой. Именно этот подход лежит в основе нового open-source фреймворка TreeQuest — инструмента, который обеспечивает кооперацию топовых моделей вроде ChatGPT, Gemini и DeepSeek при решении сложных задач.

Большинство игроков рынка AI ведут борьбу за одну конкретную модель — чтобы она была самой быстрой, мощной и «умной». Sakana AI предлагает другой путь — использовать разнообразие данных и навыков каждого LLM как преимущество:

«Мы воспринимаем уникальные характеристики каждой модели не как ограничения, а как ресурсы для формирования коллективного интеллекта».

Мульти‑LLM AB‑MCTS работает на этапе вывода, позволяя «команде» моделей вести поиск решения двумя способами: либо развивать существующее решение (вглубь), либо проверять новые варианты (вширь). Такой баланс позволяет улучшить качество при ограниченном числе запросов к LLM.

Sakana AI протестировала мульти‑LLM AB‑MCTS на бенчмарке ARC‑AGI‑2, где команда из o4‑mini + Gemini 2.5 Pro + DeepSeek‑R1‑0528 показала решение более 30% задач, в то время как o4‑mini сам по себе справился только с 23%.

Отмечены ключевые примеры сотрудничества моделей: когда o4‑mini давал неверный результат, последующие запросы к DeepSeek и Gemini использовали этот «подсказочный» ответ и довели решение до правильного варианта . Именно такой коллективный интеллект позволяет решать задачи, которые недоступны одиночным моделям.

Sakana AI выпустила алгоритм в открытый доступ под Apache 2.0, включая гибкий API и поддержку кастомных функций оценки качества решений. Это позволяет интегрировать Multi‑LLM AB‑MCTS в задачи:

  • оптимизации кода и рефакторинга;
  • улучшения точности ML‑моделей;
  • минимизации галлюцинаций моделей.

TreeQuest предназначен для ситуаций, когда нужно многоступенчатое, итеративное решение: например, оптимизация производительности сервисов или автоматическая генерация кода.

Философия «косяка рыб»

Sakana AI следует философии «косяка рыб» — коллективного интеллекта из множества агентов, которые вместе сильнее, чем поодиночке. AB‑MCTS — логичное развитие их исследований по объединению моделей. Что интересно, теория «косяка рыб» перекликается с теорией «стаи птиц», которую использовали ученые, работающие с голубями. 

С точки зрения бизнеса — это шанс создать гибкую инфраструктуру, где разные LLM от разных компаний дополняют друг друга. Это может быть особенно важно для задач, где требуется баланс между логикой, креативностью и контекстно-зависимым пониманием.

В стратегическом плане AB‑MCTS — это логичный шаг после этапа масштабирования моделей на этапе обучения: теперь масштаб развития происходит уже на этапе вывода, когда разные модели коллективно анализируют и калибруют ответы в рамках единой логики поиска.

Grok4 Heavy: как работает «учебная группа» из ИИ

К философии коллективного разума присоединилась и компания xAI Илона Маска, выпустившая Grok4 Heavy — усовершенствованную версию своей модели Grok4. Она показала выдающиеся результаты, превзойдя в испытаниях на бенчмарках не только базовый Grok4, но и лучшие модели от OpenAI и Google. И особенность тут не просто в размере модели, а в архитектуре, вдохновленной кооперативным поведением — почти как у студентов, которые готовятся к экзамену в группе.

Вместо одной модели Grok4 Heavy запускает сразу несколько агентов, которые работают параллельно и независимо друг от друга. После выполнения задачи они сравнивают свои результаты, обсуждают найденные подходы и выбирают лучший из них. Как отметил Маск, это не просто голосование по большинству: часто только один из агентов находит правильный «трюк» или суть задачи — и делится этим знанием с остальными. После чего группа коллективно формирует ответ, прошедший внутреннюю проверку.

По сути, это реализация идеи «коллективной интерпретации» в ИИ: каждый агент исследует проблему по-своему, затем участники обмениваются мыслями и приходят к общему решению, более точному, чем могли бы дать поодиночке.

Важно, что такой подход требует увеличенных вычислений на этапе вывода — в разы больше, чем при использовании одной модели. Но в условиях, когда стоимость вычислений постепенно стремится к стоимости электроэнергии, этот путь может оказаться оправданным, особенно для задач, где качество решения критично.

Что это все значит для будущего ИИ

TreeQuest и Grok4 Heavy — два разных подхода, идущих в одном направлении: от «модели-супергероя» к «команде специалистов». Один делает акцент на координацию разных моделей, другой — на обсуждение внутри одной архитектуры. Оба демонстрируют: коллективное мышление может работать в ИИ не хуже, чем у людей (а порой — и лучше).

Такой подход открывает новые горизонты. Например, можно будет:

  • создавать «гибридные команды» моделей с разными сильными сторонами: аналитика, языковое понимание, визуальное восприятие;
  • применять их в сложных мультидисциплинарных задачах — от медицины до космических исследований;
  • уменьшать зависимость от одной универсальной модели и использовать многофункциональные связки.

Интеллект будущего, похоже, будет не одиноким суперразумом, а чем-то вроде умной, сплоченной стаи. Или косяка рыб, действующего слаженно и эффективно.

История с голубями, TreeQuest от Sakana AI и Grok4 Heavy от xAI показывают: коллективный разум способен на большее, чем одиночный интеллект. Мы лишь начали применять этот принцип к ИИ, и уже видим серьезные результаты.

Вместо гонки за идеальной универсальной моделью, индустрия делает поворот к сотрудничеству — к объединению разных подходов, агентов и архитектур. Это не только усиливает точность и надежность решений, но и делает ИИ-системы более гибкими и адаптивными.

По сути, мы наблюдаем сдвиг парадигмы: интеллект будущего — это не «одна большая нейросеть», а экосистема взаимодействующих агентов, способных делиться инсайтами, дополнять друг друга и развиваться не только на этапе обучения, но и в процессе работы.

Как и в природе, сила — в сплоченности. Будь то голуби или ИИ, выигрыш получает тот, кто действует не в одиночку, а в команде.

Интересное:

Новости отрасли:

Все новости:

Достижения

Вошла в рейтинг Smart500Компания была включена в рейтинг Smart500 — ТОП-100 крупнейших образовательных компаний cтраны
Победитель премии SEAПобедитель SEA (School of Education) в номинации «Прорыв года.Взрослое образование»
Победитель EdTechs AwardsПобедитель EdTechs Awards в номинации «Новая ниша/аудитория»
Лидер в no-code обученииЗанимает 60% рынка обучения no-code разработке по версии Smart Ranking в 2024 году
Стабильный рост выручкиЗа первый квартал 2025 года выручка 144 миллиона, что на 72% больше, чем в прошлом году

Контакты

Адрес
Россия, г. Москва, Большая Новодмитровская ул., д. 23, эт. 2, каб. 46
Телефон

Социальные сети

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия