Прорыв производительности модели Manus вызывает размышления о путях развития ИИ
Недавно модель Manus достигла прорывных результатов в бенчмаркинге GAIA, превзойдя производительность крупных языковых моделей аналогичного уровня. Это означает, что Manus может самостоятельно выполнять сложные задачи, такие как международные деловые переговоры, включая анализ условий контрактов, разработку стратегий и генерацию решений, а также может координировать юридические и финансовые команды.
Преимущества Manus в основном проявляются в трех аспектах: способности динамического разбиения целей, способности к кросс-модальному выводу и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Этот прорыв снова вызвал обсуждение будущих путей развития в области искусственного интеллекта: двигаться в сторону общего искусственного интеллекта (AGI) или же к совместному доминированию многоагентных систем (MAS)?
Дизайн концепции Manus подразумевает две возможности: первая — это путь AGI, который предполагает постоянное повышение уровня индивидуального интеллекта, приближающего его к общей способности к принятию решений, характерной для человека; вторая — путь MAS, который выступает в роли суперкординатора, руководящего совместной работой тысяч специализированных агентов.
На поверхности это спор о технологическом пути, но на самом деле он отражает глубокие противоречия в том, как балансировать между эффективностью и безопасностью в развитии ИИ. Чем ближе индивидуальный интеллект к AGI, тем выше риск непрозрачности его процесса принятия решений; в то время как сотрудничество многопользовательских агентов может распределить риски, оно может также упустить критические моменты принятия решений из-за задержек в коммуникации.
Прогресс Manus также усиливает присущие риски развития ИИ, включая такие проблемы, как конфиденциальность данных, предвзятость алгоритмов и атаки с использованием противодействия. Например, в медицинских сценариях Manus необходимо получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. В процессе найма может возникнуть дискриминация по зарплате в отношении определенных групп; при проверке юридических контрактов уровень ошибок в оценке условий новых отраслей может быть высоким. Кроме того, хакеры могут вмешиваться в оценку Manus во время переговоров, внедряя специфические звуковые частоты.
Эти вызовы подчеркивают тревожный факт: чем умнее системы ИИ, тем шире их потенциальные уязвимости.
В области Web3 безопасность всегда была ключевым моментом. В рамках предложенной Виталиком Бутериным концепции "невозможного треугольника" (блокчейн-сеть не может одновременно обеспечить безопасность, децентрализацию и масштабируемость) возникло множество криптографических технологий:
Модель нулевого доверия: основанная на принципе "не доверять никому, всегда проверять", требует строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентичность (DID): новый стандарт децентрализованной цифровой идентичности, позволяющий проводить аутентификацию без центрального регистрационного органа.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных и при этом реализуя их ценность.
Среди этих технологий FHE считается важным инструментом для решения проблем безопасности в эпоху ИИ. Он может обеспечить защиту на нескольких уровнях:
На уровне данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном виде, и даже сама AI-система не может расшифровать оригинальные данные.
Алгоритмический уровень: реализация "обучения зашифрованных моделей" с помощью FHE, чтобы обеспечить недоступность процесса принятия решений AI для внешнего наблюдения.
Кооперативный уровень: связь между несколькими агентами осуществляется с использованием порогового шифрования, компрометация одного узла не приведет к утечке глобальных данных.
Несмотря на то, что технологии безопасности Web3 могут не иметь прямой связи с обычными пользователями, они оказывают глубокое влияние на интересы пользователей. В этой сложной среде постоянное совершенствование мер безопасности имеет решающее значение.
Некоторые проекты уже добились успеха в этих областях. Например, uPort запустил решение для децентрализованной идентификации в 2017 году, а NKN выпустил основную сеть на основе модели нулевого доверия в 2019 году. В области FHE Mind Network стал первым проектом, который запустил основную сеть, и начал сотрудничество с несколькими известными учреждениями.
С развитием технологий ИИ, которые все ближе подходят к уровню человеческого интеллекта, нетрадиционные системы защиты становятся все более важными. Такие технологии, как FHE, не только решают текущие проблемы, но и закладывают основу для эпохи мощного ИИ в будущем. На пути к AGI эти технологии безопасности стали незаменимыми элементами.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
6 Лайков
Награда
6
3
Поделиться
комментарий
0/400
CascadingDipBuyer
· 07-20 21:01
Все будут играть для лохов.
Посмотреть ОригиналОтветить0
MetadataExplorer
· 07-20 20:59
Эм? Многоагентные системы не очень надежны.
Посмотреть ОригиналОтветить0
consensus_whisperer
· 07-20 20:36
Искусственный интеллект взялся за дело, кого еще волнует риск?
Прорыв модели Manus вызывает размышления о путях развития ИИ. Технологии безопасности Web3 могут стать ключевыми.
Прорыв производительности модели Manus вызывает размышления о путях развития ИИ
Недавно модель Manus достигла прорывных результатов в бенчмаркинге GAIA, превзойдя производительность крупных языковых моделей аналогичного уровня. Это означает, что Manus может самостоятельно выполнять сложные задачи, такие как международные деловые переговоры, включая анализ условий контрактов, разработку стратегий и генерацию решений, а также может координировать юридические и финансовые команды.
Преимущества Manus в основном проявляются в трех аспектах: способности динамического разбиения целей, способности к кросс-модальному выводу и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Этот прорыв снова вызвал обсуждение будущих путей развития в области искусственного интеллекта: двигаться в сторону общего искусственного интеллекта (AGI) или же к совместному доминированию многоагентных систем (MAS)?
Дизайн концепции Manus подразумевает две возможности: первая — это путь AGI, который предполагает постоянное повышение уровня индивидуального интеллекта, приближающего его к общей способности к принятию решений, характерной для человека; вторая — путь MAS, который выступает в роли суперкординатора, руководящего совместной работой тысяч специализированных агентов.
На поверхности это спор о технологическом пути, но на самом деле он отражает глубокие противоречия в том, как балансировать между эффективностью и безопасностью в развитии ИИ. Чем ближе индивидуальный интеллект к AGI, тем выше риск непрозрачности его процесса принятия решений; в то время как сотрудничество многопользовательских агентов может распределить риски, оно может также упустить критические моменты принятия решений из-за задержек в коммуникации.
Прогресс Manus также усиливает присущие риски развития ИИ, включая такие проблемы, как конфиденциальность данных, предвзятость алгоритмов и атаки с использованием противодействия. Например, в медицинских сценариях Manus необходимо получать доступ к чувствительным данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. В процессе найма может возникнуть дискриминация по зарплате в отношении определенных групп; при проверке юридических контрактов уровень ошибок в оценке условий новых отраслей может быть высоким. Кроме того, хакеры могут вмешиваться в оценку Manus во время переговоров, внедряя специфические звуковые частоты.
Эти вызовы подчеркивают тревожный факт: чем умнее системы ИИ, тем шире их потенциальные уязвимости.
В области Web3 безопасность всегда была ключевым моментом. В рамках предложенной Виталиком Бутериным концепции "невозможного треугольника" (блокчейн-сеть не может одновременно обеспечить безопасность, децентрализацию и масштабируемость) возникло множество криптографических технологий:
Модель нулевого доверия: основанная на принципе "не доверять никому, всегда проверять", требует строгой аутентификации и авторизации для каждого запроса на доступ.
Децентрализованная идентичность (DID): новый стандарт децентрализованной цифровой идентичности, позволяющий проводить аутентификацию без центрального регистрационного органа.
Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность данных и при этом реализуя их ценность.
Среди этих технологий FHE считается важным инструментом для решения проблем безопасности в эпоху ИИ. Он может обеспечить защиту на нескольких уровнях:
На уровне данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном виде, и даже сама AI-система не может расшифровать оригинальные данные.
Алгоритмический уровень: реализация "обучения зашифрованных моделей" с помощью FHE, чтобы обеспечить недоступность процесса принятия решений AI для внешнего наблюдения.
Кооперативный уровень: связь между несколькими агентами осуществляется с использованием порогового шифрования, компрометация одного узла не приведет к утечке глобальных данных.
Несмотря на то, что технологии безопасности Web3 могут не иметь прямой связи с обычными пользователями, они оказывают глубокое влияние на интересы пользователей. В этой сложной среде постоянное совершенствование мер безопасности имеет решающее значение.
Некоторые проекты уже добились успеха в этих областях. Например, uPort запустил решение для децентрализованной идентификации в 2017 году, а NKN выпустил основную сеть на основе модели нулевого доверия в 2019 году. В области FHE Mind Network стал первым проектом, который запустил основную сеть, и начал сотрудничество с несколькими известными учреждениями.
С развитием технологий ИИ, которые все ближе подходят к уровню человеческого интеллекта, нетрадиционные системы защиты становятся все более важными. Такие технологии, как FHE, не только решают текущие проблемы, но и закладывают основу для эпохи мощного ИИ в будущем. На пути к AGI эти технологии безопасности стали незаменимыми элементами.