Лауреат премии Тьюринга Ян Ликунь: Единственный способ сделать платформы ИИ безопасными, хорошими и практичными — это открытый исходный код

Источник: Бумага

Репортер Чжан Цзин

«Есть люди, которые хотят, чтобы ИИ в целом жестко регулировался, потому что они боятся последствий ИИ. Потому что они говорят, что если кто-то сможет освоить ИИ, если они смогут делать с ИИ все, что захотят, тогда ситуация будет такой. очень опасно, поэтому необходимо строгое регулирование ИИ. Я полностью с этим не согласен».

Людям потребовалось много времени, чтобы установить нынешнюю этику и механизмы управления. Если искусственному интеллекту разрешено развивать сознание и интеллект, как у людей, как люди могут соответствовать требованиям этики и управления? Каков механизм вмешательства человека в искусственный интеллект?

6 июля в Шанхае открылась Всемирная конференция по искусственному интеллекту 2023 года. Янн ЛеКун, лауреат премии Тьюринга 2018 года и главный специалист по искусственному интеллекту команды Meta AI Basic Artificial Intelligence Research Institute, заявил на церемонии открытия, что он полностью не согласен с тем, что «поскольку любой может использовать искусственный интеллект для чего угодно, ситуация может быть очень опасным», поэтому искусственный интеллект необходимо строго регулировать». В долгосрочной перспективе единственный способ сделать платформы ИИ безопасными, хорошими и полезными — открыть их исходный код.

Ян Ликунь рассказал о том, как искусственный интеллект становится интеллектуальным и управляемым. «Если вы думаете, что способ достижения искусственного интеллекта человеческого уровня заключается в создании более крупной авторегрессионной LLM (большой языковой модели), а затем в использовании мультимодельного тестирования данных, то вы можете подумать, что эти системы искусственного интеллекта небезопасны. На самом деле, я не думаю, что эта система может быть очень разумной. Я думаю, что то, как они становятся разумными, также является способом сделать их управляемыми, то есть концепцией целеустремленного искусственного интеллекта. Это должно быть достигнуто». Ян Ликунь сказал: «Некоторые из этих целей являются целями, определенными задачей, например, ответила ли система на вопрос? Система завела машину? Система очистила таблицу? Другие цели действуют как защитные ограждения, например, чтобы никому не причинить вреда.

Ян Ликунь считает, что эти системы искусственного интеллекта не будут обманывать или доминировать над людьми путем постепенного проникновения. Люди могут ставить цели, которые заставляют ИИ быть честными, например, заставить ИИ уступить людям, проявлять осторожность, чтобы вызвать у них любопытство, и предоставить им доступ к ресурсам, которых у них не должно быть. «Поэтому я думаю, что эти системы будут полностью контролируемыми и манипулируемыми. Системы могут быть спроектированы так, чтобы быть безопасными, но это непросто. Разработка этих целей, обеспечение безопасности системы будет сложной инженерной задачей».

Но Ян Ликунь сказал, что людям не обязательно с самого начала проектировать ее хорошо, а можно начать с создания системы, умной, как мышь.Цель людей — сделать из нее хорошую мышь. «Мы собираемся поместить их в песочницу или среду моделирования, и мы хотим убедиться, что они в безопасности, что является важным вопросом, потому что есть люди, которые в целом хотят, чтобы ИИ жестко регулировался, потому что они боятся о последствиях ИИ..Потому что они говорят, что если кто-то может завладеть ИИ, если они могут делать с ИИ все, что хотят, то ситуация может быть очень опасной, поэтому необходимо строгое регулирование ИИ. согласен с этим во всем».

Напротив, Ян Ликунь считает, что в долгосрочной перспективе единственный способ сделать платформы искусственного интеллекта безопасными, хорошими и практичными — это открыть исходный код. В будущем все будут взаимодействовать с цифровым миром через помощников искусственного интеллекта, и вся человеческая информация должна проходить через этого помощника искусственного интеллекта.Если технологии контролируются несколькими компаниями, это нехорошо. «Будущие системы искусственного интеллекта станут сокровищницей всех человеческих знаний, и способ их обучения должен основываться на многочисленных источниках. Поэтому в будущем мы увидим больше LLM с открытым исходным кодом и больше систем искусственного интеллекта с открытым исходным кодом».

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить