В последние дни дискуссия о том, как контролировать ИИ, становится все более и более горячей, и у больших парней очень разные мнения.
Например, триумвират премии Тьюринга Джеффри Хинтон, Йошуа Бенжио и Ян Лекун придерживаются двух взглядов. Хинтон и Бенджио — это команда, которая решительно призывает к более жесткому регулированию ИИ, что может привести к риску «исчезновения ИИ». Лекун не разделяет их взглядов, утверждая, что жесткое регулирование ИИ неизбежно приведет к монополии гигантов, в результате чего лишь несколько компаний контролируют ИОКР.
Для того, чтобы выразить свои идеи, многие люди подписали совместное письмо, чтобы донести свои взгляды, например, в последние несколько дней Бенжио, Хинтон и другие выпустили совместное письмо «Управление рисками ИИ в быстро развивающуюся эпоху», призвав исследователей принять срочные меры управления перед разработкой систем ИИ.
В то же время в социальных сетях в настоящее время бродит открытое письмо под названием «Совместное заявление о безопасности и открытости искусственного интеллекта».
Ссылка на открытое письмо:
На данный момент открытое письмо подписали более 370 человек, в том числе Лекун, один из трех гигантов глубокого обучения, и Эндрю Нг, профессор кафедры компьютерных наук Стэнфордского университета. Список постоянно пополняется.
«Открытый, прозрачный и широкий доступ делает программную платформу более безопасной и надежной. Это открытое письмо от Mozilla Foundation, которое я также подписал, приводит доводы в пользу открытых платформ и систем искусственного интеллекта».
Ниже приведено содержание открытого письма:
Мы находимся на критическом этапе в управлении ИИ. Чтобы смягчить нынешний и будущий вред, наносимый системами ИИ, нам необходимо обеспечить открытость, транспарентность и широкий доступ. Это должно стать глобальным приоритетом.
Это правда, что общедоступные модели рискованны и уязвимы — модели ИИ могут быть использованы злоумышленниками или развернуты плохо оснащенными разработчиками. Тем не менее, снова и снова мы наблюдаем это со всевозможными проприетарными технологиями – расширенный публичный доступ и цензура делают технологии более безопасными, а не более опасными. Идея о том, что строгий и проприетарный контроль базовых моделей ИИ является единственным способом защитить нас от массового вреда, в лучшем случае наивна, а в худшем — опасна.
Более того, история человеческого развития учит нас, что быстрое принятие неправильного регулирования может привести к концентрации власти, что может нанести ущерб конкуренции и инновациям. Открытая модель может стать основой для общественных дебатов и улучшить разработку стратегии. Если нашей целью является безопасность, защищенность и подотчетность, то открытость и прозрачность являются важными факторами в достижении этой цели.
Мы находимся в разгаре динамичной дискуссии о том, что значит быть «открытым» в эпоху ИИ. Эту важную дискуссию нельзя приостанавливать. Скорее, его следует ускорить, поощряя нас экспериментировать, учиться и разрабатывать новые способы использования открытости в гонке безопасности ИИ.
Нам необходимо создать набор подходов к открытому исходному коду и открытости, которые могут служить строительными блоками для:
Ускорьте понимание рисков и опасностей, связанных с возможностями ИИ, благодаря независимым исследованиям, сотрудничеству и обмену знаниями. 2. Усилить общественный контроль и подотчетность, помогая регулирующим органам внедрять инструменты для мониторинга крупномасштабных систем ИИ. 3. Снизьте порог входа для новых игроков и сосредоточьтесь на создании ответственного ИИ.
Подписав это открытое письмо, мы представляем собой разнообразную группу ученых, стратегов, инженеров, активистов, предпринимателей, педагогов и журналистов, и это лишь некоторые из них. Мы представляем различные точки зрения на то, как управлять ИИ с открытым исходным кодом и публиковать его. Тем не менее, мы полностью согласны в одном: открытый, подотчетный и прозрачный подход необходим для обеспечения нашей безопасности в эпоху ИИ.
Когда речь идет о безопасности ИИ, открытость является противоядием, а не ядом.
Подписано:
Артур Менш, соучредитель и генеральный директор французского стартапа MistralAI
Эндрю Нг, основатель DeepLearning.AI, основатель и генеральный директор Landing AI, профессор информатики в Стэнфордском университете
Ян Лекун, лауреат премии Тьюринга, главный научный сотрудник по искусственному интеллекту в Meta
Жюльен Шомон (Julien Chaumond), технический директор Hugging Face
Брайан Белендорф (Brian Behlendorf), один из основателей Apache, технический директор OpenSSF
Эрик фон Хиппель — американский экономист и профессор Школы менеджмента Слоуна Массачусетского технологического института
......
В настоящее время это открытое письмо, появившееся всего несколько дней назад, продолжает бродить, и привлекло большое внимание и обсуждение в зарубежном ИИ-сообществе, поэтому можно и дальше обращать внимание на обновление списка.
Если вы согласны с идеей совместного письма, вы также можете поставить свою подпись.
Потребуется время, чтобы ответить, принесет ли жесткое регулирование ИИ больше вреда, чем пользы, или же преимущества перевешивают недостатки.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Более 370 человек, в том числе Лекун и Нг Энда, подписали совместное письмо: строгий контроль над ИИ опасен, а открытость — противоядием
Первоисточник: Heart of the Machine
В последние дни дискуссия о том, как контролировать ИИ, становится все более и более горячей, и у больших парней очень разные мнения.
Например, триумвират премии Тьюринга Джеффри Хинтон, Йошуа Бенжио и Ян Лекун придерживаются двух взглядов. Хинтон и Бенджио — это команда, которая решительно призывает к более жесткому регулированию ИИ, что может привести к риску «исчезновения ИИ». Лекун не разделяет их взглядов, утверждая, что жесткое регулирование ИИ неизбежно приведет к монополии гигантов, в результате чего лишь несколько компаний контролируют ИОКР.
Для того, чтобы выразить свои идеи, многие люди подписали совместное письмо, чтобы донести свои взгляды, например, в последние несколько дней Бенжио, Хинтон и другие выпустили совместное письмо «Управление рисками ИИ в быстро развивающуюся эпоху», призвав исследователей принять срочные меры управления перед разработкой систем ИИ.
В то же время в социальных сетях в настоящее время бродит открытое письмо под названием «Совместное заявление о безопасности и открытости искусственного интеллекта».
На данный момент открытое письмо подписали более 370 человек, в том числе Лекун, один из трех гигантов глубокого обучения, и Эндрю Нг, профессор кафедры компьютерных наук Стэнфордского университета. Список постоянно пополняется.
«Открытый, прозрачный и широкий доступ делает программную платформу более безопасной и надежной. Это открытое письмо от Mozilla Foundation, которое я также подписал, приводит доводы в пользу открытых платформ и систем искусственного интеллекта».
Подписано:
В настоящее время это открытое письмо, появившееся всего несколько дней назад, продолжает бродить, и привлекло большое внимание и обсуждение в зарубежном ИИ-сообществе, поэтому можно и дальше обращать внимание на обновление списка.
Если вы согласны с идеей совместного письма, вы также можете поставить свою подпись.
Потребуется время, чтобы ответить, принесет ли жесткое регулирование ИИ больше вреда, чем пользы, или же преимущества перевешивают недостатки.