Манус подолав GAIA бенчмарк, виклики безпеки за допомогою штучного інтелекту підкреслюють потенціал повністю гомоморфного шифрування

robot
Генерація анотацій у процесі

Manus досяг прориву в GAIA Бенчмарк тестуванні

Нещодавно Manus встановив новий рекорд у бенчмарку GAIA, його показники перевершили результати інших великих мовних моделей того ж рівня. Це досягнення свідчить про те, що Manus здатен самостійно виконувати складні завдання, такі як міжнародні бізнес-угоди, що включають аналіз контрактів, стратегічне планування та розробку пропозицій.

Переваги Manus у порівнянні з традиційними системами в основному проявляються в трьох аспектах: динамічне розбиття цілей, крос-модальне розуміння та посилене навчання пам'яті. Він здатний розбивати великі завдання на сотні виконуваних підзавдань, обробляти різні типи даних і постійно підвищувати свою ефективність прийняття рішень за допомогою посиленого навчання, знижуючи ймовірність виникнення помилок.

Прогрес Manus знову викликав обговорення в галузі щодо шляхів розвитку штучного інтелекту: чи буде майбутнє уніфікованою моделлю загального штучного інтелекту (AGI), чи ж у колаборативній моделі багаторівневих систем (MAS)?

Це питання стосується дизайнерської концепції Manus, яка натякає на два можливі напрямки розвитку:

  1. Шлях AGI: шляхом постійного підвищення можливостей окремої інтелектуальної системи, щоб поступово наблизити її до рівня комплексного прийняття рішень людиною.

  2. MAS шлях: Визначити Manus як суперкоординатора, який керує спільною роботою багатьох агентів у різних професійних сферах.

На поверхні це обговорення технічного шляху, але насправді воно відображає основний конфлікт у розвитку ШІ: як досягти балансу між ефективністю та безпекою. Оскільки монолітні інтелектуальні системи стають дедалі ближчими до AGI, ризик непрозорості їхніх процесів прийняття рішень також зростає; тоді як співпраця багатьох агентів, хоч і може зменшити ризики, може пропустити критичні моменти прийняття рішень через затримки в комунікації.

Еволюція Manus безпосередньо збільшує ризики, що притаманні розвитку штучного інтелекту. Наприклад, у медичних сценаріях Manus потребує доступу до чутливих даних пацієнтів в реальному часі; під час фінансових переговорів можуть бути залучені ненадані інформації про компанії. Крім того, існує проблема алгоритмічної упередженості, наприклад, під час процесу найму надаються несправедливі пропозиції щодо заробітної плати для певних груп або під час перевірки юридичних контрактів є високий рівень помилок у тлумаченні умов нових галузей. Ще один ризик, на який варто звернути увагу, - це атакуючі дії, коли хакери можуть впроваджувати певні аудіосигнали, щоб заважати Manus у визначенні цінових пропозицій супротивника під час переговорів.

Ці виклики підкреслюють сувору реальність: чим більш розвиненими є інтелектуальні системи, тим більша їх потенційна площа атаки.

Manus приносить перші промені AGI, безпека ШІ також заслуговує на глибокі роздуми

У сфері Web3 безпека завжди була предметом великої уваги. Від "неможливого трикутника", запропонованого засновником Ethereum Віталіком Батеріним (блокчейн-мережі важко одночасно досягти безпеки, децентралізації та масштабованості), виникло безліч криптографічних технологій:

  • Модель нульового довіри: на основі принципу "ніколи не довіряй, завжди перевіряй" здійснюється строгий контроль ідентифікації та авторизації для кожного запиту на доступ.

  • Децентралізоване ідентифікація (DID): стандарт ідентифікації, який не потребує централізованих реєстраційних органів, що забезпечує новий підхід до управління ідентичністю в екосистемі Web3.

  • Повна гомоморфна криптографія (FHE): дозволяє виконувати обчислення над даними в зашифрованому стані, особливо підходить для таких сценаріїв, як хмарні обчислення та передача даних.

Серед цих технологій, повна гомоморфна криптографія, як новітній спосіб шифрування, має потенціал стати ключовою технологією для вирішення проблем безпеки в епоху ШІ. Вона дозволяє проводити обчислення безпосередньо на зашифрованих даних, пропонуючи нові можливості для захисту приватності.

Щоб впоратися з безпековими викликами, спричиненими ШІ, можна зосередитися на кількох аспектах:

  1. Дані на рівні: забезпечити, щоб вся інформація, введена користувачем (включаючи біометричні дані, голос тощо), оброблялася в зашифрованому стані, навіть сама AI-система не могла розшифрувати оригінальні дані.

  2. Алгоритмічний рівень: реалізація "зашифрованого навчання моделі" за допомогою FHE, що дозволяє навіть розробникам не мати можливості безпосередньо спостерігати за процесом ухвалення рішень AI.

  3. Співпраця: у багатагентних системах використовується порогове шифрування, навіть якщо один вузол буде зламано, це не призведе до витоку глобальних даних.

Зі зближенням технологій штучного інтелекту до рівня людського інтелекту, нам потрібні більш просунуті системи захисту. FHE не лише вирішує теперішні проблеми безпеки, але й закладає основу для майбутньої ери сильного штучного інтелекту. На шляху до AGI FHE вже не є опційним рішенням, а є необхідною умовою для забезпечення безпечного розвитку штучного інтелекту.

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
ZenMinervip
· 15год тому
Безпека залежить від шифрування
Переглянути оригіналвідповісти на0
FallingLeafvip
· 15год тому
Хто може витримати ризики шифрування?
Переглянути оригіналвідповісти на0
OnchainHolmesvip
· 16год тому
повністю гомоморфне шифрування дивовижний啊 这才是刚需
Переглянути оригіналвідповісти на0
GateUser-0717ab66vip
· 16год тому
Не розумію, але вважаю, що це дуже круто.
Переглянути оригіналвідповісти на0
RektDetectivevip
· 16год тому
Алгоритм все ж偏偏
Переглянути оригіналвідповісти на0
  • Закріпити