Возможно, еще никогда не существовало технологии, которая бы быстро стала консенсусом научного и технологического сообщества и даже всего общества всего за несколько месяцев, как большая модель ИИ. Сегодня все технологические гиганты и крупные правительства почти твердо верят, что ИИ изменит мир и изменит все.
Но за большим консенсусом все еще стоит слишком много проблем. С одной стороны, они реальны — подмена в действии, распространение ложного контента, неравные пороги использования и т. д. -термин человеческих произведений искусства.Здесь выражена «угроза цивилизации». **По данным журнала Wired, OpenAI даже предусмотрела в финансовом документе механизм выхода из ситуации, когда ИИ разрушает экономическую систему человечества. **
В июле этого года на мероприятии, состоявшемся в штаб-квартире IBM, лидер большинства в Сенате США Чак Шумер заявил, что созовет серию конференций по искусственному интеллекту, чтобы «собрать за столом лучших людей и поучиться друг у друга». ** В конечном итоге Шумер надеется «заложить основу для законодательства в области политики в области ИИ» на основе обмена мнениями на встрече. **
**Через два месяца состоялась встреча. **В закрытой встрече приняли участие 22 представителя ведущих технологических компаний. Среди них были генеральный директор OpenAI Сэм Альтман, генеральный директор NVIDIA Хуан Дженсюнь и генеральный директор Google Сундар. Пичаи, генеральный директор Meta Марк Цукерберг. и другие, а также основатель Microsoft Билл Гейтс и бывший генеральный директор Google Эрик Шмидт, технологические лидеры предыдущего поколения Интернета.
ИИ должен быть «контролируемым»
Никто не будет отрицать огромный потенциал искусственного интеллекта, но нам до сих пор не хватает консенсуса относительно рисков, мер безопасности, надзора и будущего искусственного интеллекта. интеллект.
Покинув первую закрытую встречу, генеральный директор Tesla, SpaceX и Neuralink Илон Маск публично заявил, что встреча была «исторической» и что он поддерживает идею создания нового агентства по регулированию искусственного интеллекта. огромные риски, связанные с искусственным интеллектом.
"Последствия неправильной работы ИИ серьезны, поэтому мы должны проявлять инициативу, а не реагировать, - сказал Маск. - На самом деле проблема заключается в цивилизационном риске, который несет в себе потенциальный риск для всех людей во всем мире".
Маск не стал подробно останавливаться на конкретном вреде так называемого искусственного интеллекта для человеческой цивилизации, но когда искусственный интеллект станет более активно участвовать в управлении и контроле электросетей, систем водоснабжения и транспортных систем, ошибки приведут к много проблем . Ученый-компьютерщик и исследователь искусственного интеллекта Деб Раджи также упомянула, что предвзятые решения искусственного интеллекта влияют на все аспекты жизни общества.
Более того, существуют давние опасения человечества по поводу искусственного интеллекта.
Но как мы можем уменьшить и предотвратить риски, создаваемые искусственным интеллектом? Президент Microsoft Брэд Смит предложил, что нам необходимо установить «аварийный тормоз» для огромных рисков, которые может представлять собой искусственный интеллект, особенно в системах искусственного интеллекта, которые управляют критически важной инфраструктурой, такой как электросети и системы водоснабжения. «Таким образом, мы можем гарантировать, что угрозы, которых боятся многие люди, остаются научной фантастикой и не становятся новой реальностью».**
Брэд Смит, фото/
Смит считает, что точно так же, как автоматические выключатели, которые есть в каждом здании и доме и могут при необходимости немедленно остановить работу энергосистемы, системам искусственного интеллекта потребуются аналогичные «аварийные тормоза», чтобы гарантировать, что такие системы не повлияют на людей.
По совпадению, Уильям Далли, главный научный сотрудник и старший вице-президент NVIDIA, также отметил, что ключ к возможности ошибок и серьезного вреда, причиненного искусственным интеллектом как компьютерной программой, лежит в «человеческом участии», то есть люди помещены в В ключевых звеньях работы искусственного интеллекта ограничены некоторые полномочия искусственного интеллекта по принятию решений. **
Уильям Дейли, фото/NVIDIA
«Поэтому я думаю, что пока мы будем осторожны с тем, как мы развертываем ИИ, помещая людей в критически важное звено, мы можем быть уверены, что ИИ не возьмет на себя управление и не отключит нашу энергосистему или не приведет к падению самолетов с неба. », — сказал Дэйли.
**Будет ли ИИ с открытым исходным кодом ящиком Пандоры? **
В конце прошлого года, когда ChatGPT впервые стал популярен в технологических кругах, некоторые люди выразили обеспокоенность по поводу использования моделей искусственного интеллекта для злонамеренного поведения, такого как мошенничество. Открытый исходный код, похоже, увеличивает риск «злоупотреблений».
Одна из дискуссий на конференции вращалась вокруг моделей искусственного интеллекта с «открытым исходным кодом», которые может загружать и изменять общественность. Открытый код этих моделей позволяет предприятиям и исследователям использовать технологию искусственного интеллекта, аналогичную той, что используется в ChatGPT, без вложения огромных денег и ресурсов в обучение.
Но злоумышленники могут также злоупотреблять системами искусственного интеллекта с открытым исходным кодом, включая OpenAI, которая остановила открытый исходный код со времен GPT-3.5. Соучредитель и главный научный сотрудник OpenAI Илья Суцкевер сказал: «Через несколько лет все ясно увидят, что искусственный интеллект с открытым исходным кодом Разум неразумен».
Илья Суцкевер беседует с Джен-Сюнем Хуангом на GDC, фото/NVIDIA
**Когда его спросили, почему, он ответил: «Эти модели очень сильны и будут становиться все сильнее и сильнее, и в какой-то момент, если кто-то захочет, с помощью этих моделей будет легко нанести большой урон». **
Кроме того, Мустафа Сулейман, соучредитель DeepMind и генеральный директор Inflection AI, недавно также упомянул о рисках открытого исходного кода. один человек может нанести миру беспрецедентный вред и оказать влияние: «В ближайшие 20 лет наивный открытый исходный код почти наверняка приведет к катастрофе». **
Мустафа Сулейман, 图/DeepMind
Однако Meta явно не согласна с этими утверждениями.**Генеральный директор Meta Цукерберг возразил, что открытый исходный код «демократизирует ИИ, поможет честной конкуренции и будет способствовать индивидуальным и корпоративным инновациям». **Но в то же время он также сказал, что модель с открытым исходным кодом может нести опасность, но Meta строит эту технологию максимально безопасно.
Когда ИИ встречается с открытым исходным кодом, это все еще открытый вопрос.
Напишите в конце
2104 года назад, через семь лет после смерти императора У династии Хань, двор Хань созвал беспрецедентные политические консультации.Одним из главных вопросов была отмена и пересмотр государственной политики монополии на соль и железное вино, реализованной во времена императора. Период У. С этой целью «более шестидесяти добродетельных и литераторов», а также правительственные чиновники, такие как Сан Хунъян, имперский цензор, позже были названы «Конференцией соли и железа». Однако эта конференция «Соль и железо» по существу обсуждала направление экономической политики династии Хань.
Хотя темы разные, а среда той эпохи очень разная**, будь то Конференция «Соль и железо» более 2000 лет назад или нынешний Форум по изучению искусственного интеллекта, мы все столкнулись с огромной проблемой, и мы надеемся, что общаться посредством дебатов о «группах талантов» как основы законодательства. **
Изображение/Google
В недавней статье, посвященной 25-летию Google, нынешний генеральный директор Google Сундар Пичаи написал:
(Google) Присоединяйтесь к важной дискуссии о том, как эти технологии будут формировать наше общество, а затем работайте вместе, чтобы найти ответы. Искусственный интеллект является ключевой частью этого. Хотя мы воодушевлены потенциалом ИИ, который может принести пользу людям и обществу**, мы знаем, что ИИ, как и любая технология на ранней стадии, сопряжен со сложностями и рисками. Наша разработка и использование ИИ должны учитывать эти риски и способствовать ответственному развитию технологии. **
Несколько дней спустя восемь компаний, в том числе Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI и Stability, стали второй группой компаний, подписавших соглашение об «ответственной разработке технологии искусственного интеллекта (ИИ)». Часто, сталкиваясь с проблемами, которые не могут быть решены одним человеком или одной компанией/правительством, мы должны осознавать ценность «совместных усилий».
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Что сказали мировые гиганты ИИ, собравшись на конференцию «Соль и железо в эпоху ИИ»?
Возможно, еще никогда не существовало технологии, которая бы быстро стала консенсусом научного и технологического сообщества и даже всего общества всего за несколько месяцев, как большая модель ИИ. Сегодня все технологические гиганты и крупные правительства почти твердо верят, что ИИ изменит мир и изменит все.
Но за большим консенсусом все еще стоит слишком много проблем. С одной стороны, они реальны — подмена в действии, распространение ложного контента, неравные пороги использования и т. д. -термин человеческих произведений искусства.Здесь выражена «угроза цивилизации». **По данным журнала Wired, OpenAI даже предусмотрела в финансовом документе механизм выхода из ситуации, когда ИИ разрушает экономическую систему человечества. **
В июле этого года на мероприятии, состоявшемся в штаб-квартире IBM, лидер большинства в Сенате США Чак Шумер заявил, что созовет серию конференций по искусственному интеллекту, чтобы «собрать за столом лучших людей и поучиться друг у друга». ** В конечном итоге Шумер надеется «заложить основу для законодательства в области политики в области ИИ» на основе обмена мнениями на встрече. **
**Через два месяца состоялась встреча. **В закрытой встрече приняли участие 22 представителя ведущих технологических компаний. Среди них были генеральный директор OpenAI Сэм Альтман, генеральный директор NVIDIA Хуан Дженсюнь и генеральный директор Google Сундар. Пичаи, генеральный директор Meta Марк Цукерберг. и другие, а также основатель Microsoft Билл Гейтс и бывший генеральный директор Google Эрик Шмидт, технологические лидеры предыдущего поколения Интернета.
ИИ должен быть «контролируемым»
Никто не будет отрицать огромный потенциал искусственного интеллекта, но нам до сих пор не хватает консенсуса относительно рисков, мер безопасности, надзора и будущего искусственного интеллекта. интеллект.
Покинув первую закрытую встречу, генеральный директор Tesla, SpaceX и Neuralink Илон Маск публично заявил, что встреча была «исторической» и что он поддерживает идею создания нового агентства по регулированию искусственного интеллекта. огромные риски, связанные с искусственным интеллектом.
"Последствия неправильной работы ИИ серьезны, поэтому мы должны проявлять инициативу, а не реагировать, - сказал Маск. - На самом деле проблема заключается в цивилизационном риске, который несет в себе потенциальный риск для всех людей во всем мире".
Маск не стал подробно останавливаться на конкретном вреде так называемого искусственного интеллекта для человеческой цивилизации, но когда искусственный интеллект станет более активно участвовать в управлении и контроле электросетей, систем водоснабжения и транспортных систем, ошибки приведут к много проблем . Ученый-компьютерщик и исследователь искусственного интеллекта Деб Раджи также упомянула, что предвзятые решения искусственного интеллекта влияют на все аспекты жизни общества.
Более того, существуют давние опасения человечества по поводу искусственного интеллекта.
Но как мы можем уменьшить и предотвратить риски, создаваемые искусственным интеллектом? Президент Microsoft Брэд Смит предложил, что нам необходимо установить «аварийный тормоз» для огромных рисков, которые может представлять собой искусственный интеллект, особенно в системах искусственного интеллекта, которые управляют критически важной инфраструктурой, такой как электросети и системы водоснабжения. «Таким образом, мы можем гарантировать, что угрозы, которых боятся многие люди, остаются научной фантастикой и не становятся новой реальностью».**
Брэд Смит, фото/
Смит считает, что точно так же, как автоматические выключатели, которые есть в каждом здании и доме и могут при необходимости немедленно остановить работу энергосистемы, системам искусственного интеллекта потребуются аналогичные «аварийные тормоза», чтобы гарантировать, что такие системы не повлияют на людей.
По совпадению, Уильям Далли, главный научный сотрудник и старший вице-президент NVIDIA, также отметил, что ключ к возможности ошибок и серьезного вреда, причиненного искусственным интеллектом как компьютерной программой, лежит в «человеческом участии», то есть люди помещены в В ключевых звеньях работы искусственного интеллекта ограничены некоторые полномочия искусственного интеллекта по принятию решений. **
Уильям Дейли, фото/NVIDIA
«Поэтому я думаю, что пока мы будем осторожны с тем, как мы развертываем ИИ, помещая людей в критически важное звено, мы можем быть уверены, что ИИ не возьмет на себя управление и не отключит нашу энергосистему или не приведет к падению самолетов с неба. », — сказал Дэйли.
**Будет ли ИИ с открытым исходным кодом ящиком Пандоры? **
В конце прошлого года, когда ChatGPT впервые стал популярен в технологических кругах, некоторые люди выразили обеспокоенность по поводу использования моделей искусственного интеллекта для злонамеренного поведения, такого как мошенничество. Открытый исходный код, похоже, увеличивает риск «злоупотреблений».
Одна из дискуссий на конференции вращалась вокруг моделей искусственного интеллекта с «открытым исходным кодом», которые может загружать и изменять общественность. Открытый код этих моделей позволяет предприятиям и исследователям использовать технологию искусственного интеллекта, аналогичную той, что используется в ChatGPT, без вложения огромных денег и ресурсов в обучение.
Но злоумышленники могут также злоупотреблять системами искусственного интеллекта с открытым исходным кодом, включая OpenAI, которая остановила открытый исходный код со времен GPT-3.5. Соучредитель и главный научный сотрудник OpenAI Илья Суцкевер сказал: «Через несколько лет все ясно увидят, что искусственный интеллект с открытым исходным кодом Разум неразумен».
Илья Суцкевер беседует с Джен-Сюнем Хуангом на GDC, фото/NVIDIA
**Когда его спросили, почему, он ответил: «Эти модели очень сильны и будут становиться все сильнее и сильнее, и в какой-то момент, если кто-то захочет, с помощью этих моделей будет легко нанести большой урон». **
Кроме того, Мустафа Сулейман, соучредитель DeepMind и генеральный директор Inflection AI, недавно также упомянул о рисках открытого исходного кода. один человек может нанести миру беспрецедентный вред и оказать влияние: «В ближайшие 20 лет наивный открытый исходный код почти наверняка приведет к катастрофе». **
Мустафа Сулейман, 图/DeepMind
Однако Meta явно не согласна с этими утверждениями.**Генеральный директор Meta Цукерберг возразил, что открытый исходный код «демократизирует ИИ, поможет честной конкуренции и будет способствовать индивидуальным и корпоративным инновациям». **Но в то же время он также сказал, что модель с открытым исходным кодом может нести опасность, но Meta строит эту технологию максимально безопасно.
Когда ИИ встречается с открытым исходным кодом, это все еще открытый вопрос.
Напишите в конце
2104 года назад, через семь лет после смерти императора У династии Хань, двор Хань созвал беспрецедентные политические консультации.Одним из главных вопросов была отмена и пересмотр государственной политики монополии на соль и железное вино, реализованной во времена императора. Период У. С этой целью «более шестидесяти добродетельных и литераторов», а также правительственные чиновники, такие как Сан Хунъян, имперский цензор, позже были названы «Конференцией соли и железа». Однако эта конференция «Соль и железо» по существу обсуждала направление экономической политики династии Хань.
Хотя темы разные, а среда той эпохи очень разная**, будь то Конференция «Соль и железо» более 2000 лет назад или нынешний Форум по изучению искусственного интеллекта, мы все столкнулись с огромной проблемой, и мы надеемся, что общаться посредством дебатов о «группах талантов» как основы законодательства. **
Изображение/Google
В недавней статье, посвященной 25-летию Google, нынешний генеральный директор Google Сундар Пичаи написал:
(Google) Присоединяйтесь к важной дискуссии о том, как эти технологии будут формировать наше общество, а затем работайте вместе, чтобы найти ответы. Искусственный интеллект является ключевой частью этого. Хотя мы воодушевлены потенциалом ИИ, который может принести пользу людям и обществу**, мы знаем, что ИИ, как и любая технология на ранней стадии, сопряжен со сложностями и рисками. Наша разработка и использование ИИ должны учитывать эти риски и способствовать ответственному развитию технологии. **
Несколько дней спустя восемь компаний, в том числе Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI и Stability, стали второй группой компаний, подписавших соглашение об «ответственной разработке технологии искусственного интеллекта (ИИ)». Часто, сталкиваясь с проблемами, которые не могут быть решены одним человеком или одной компанией/правительством, мы должны осознавать ценность «совместных усилий».