Можливо, ніколи не існувало такої технології, яка швидко досягла б консенсусу науково-технічного співтовариства і навіть усього суспільства всього за кілька місяців, як велика модель ШІ. Сьогодні всі технологічні гіганти та великі уряди майже твердо вірять, що ШІ змінить світ і змінить усе.
Але позаду великого консенсусу все ще криється забагато проблем. З одного боку, вони реальні — підміна в роботі, поширення неправдивого вмісту, неоднакові пороги використання тощо; з іншого боку, це тривалі -термін людські твори мистецтва Тут виражена «загроза цивілізації». **За даними журналу Wired, OpenAI навіть передбачив механізм виходу у фінансовому документі, коли штучний інтелект руйнує людську економічну систему. **
У липні цього року на заході, який відбувся в штаб-квартирі IBM, лідер більшості в Сенаті США Чак Шумер заявив, що скличе серію конференцій зі штучного інтелекту, щоб «збирати найкращих людей за стіл і вчитися один у одного». Спілкуйтеся, відповідайте на запитання , спробуйте прийти до певного консенсусу та рішень, а сенатори, наші співробітники та інші просто послухають." ** Зрештою, Шумер сподівається "закласти основу для законодавства про політику штучного інтелекту" на основі обміну думками під час зустрічі. **
**Два місяці потому почалася зустріч.**У закритій зустрічі взяли участь 22 учасники з провідних технологічних компаній. Серед них були генеральний директор OpenAI Сем Альтман, генеральний директор NVIDIA Хуан Дженсюнь і генеральний директор Google Сундар. Пічаї, генеральний директор Meta Марк Цукерберг та інші, а також засновник Microsoft Білл Гейтс і колишній генеральний директор Google Ерік Шмідт, технологічні лідери попереднього покоління Інтернету.
ШІ потрібно «контролювати»
Ніхто не заперечуватиме величезний потенціал штучного інтелекту, але нам все ще бракує консенсусу щодо ризиків, заходів безпеки, контролю та майбутнього штучного інтелекту. Єдине, що можна сказати напевно, це те, що люди не можуть повністю дозволити жорстоке зростання штучного інтелекту. інтелект.
Покинувши першу закриту зустріч, генеральний директор Tesla, SpaceX і Neuralink Ілон Маск публічно заявив, що зустріч була «історичною» і що він підтримує ідею створення нового агентства для регулювання штучного інтелекту. , і знову підкреслив, величезні ризики, які створює штучний інтелект.
"Наслідки неправильного штучного інтелекту є серйозними, тому ми повинні бути проактивними, а не реагувати, - сказав Маск. - Проблема насправді полягає в цивілізаційному ризику, який потенційно загрожує всім людям у всьому світі".
Маск не розповів детально про конкретну шкоду так званого штучного інтелекту для людської цивілізації, але коли штучний інтелект стане більш залученим в управління та контроль електромереж, систем водопостачання та транспортних систем, помилки спричинять багато проблем. Інформатик і дослідник штучного інтелекту Деб Раджі також зазначив, що упереджені рішення штучного інтелекту впливають на всі аспекти суспільства.
Більше того, існує також давнє занепокоєння людей щодо штучного інтелекту.
Але як ми можемо зменшити та запобігти ризикам, які створює штучний інтелект? Президент Microsoft Бред Сміт запропонував створити «аварійне гальмо» щодо величезних ризиків, які може створити штучний інтелект, особливо в системах штучного інтелекту, які керують критично важливою інфраструктурою, такою як електромережі та системи водопостачання. «Таким чином ми можемо гарантувати, що загрози, яких багато хто боїться, залишаються науковою фантастикою і не стають новою реальністю».**
Бред Сміт, фото/
Сміт вважає, що так само, як автоматичні вимикачі, які є в кожній будівлі та будинку, які можуть негайно зупинити роботу системи живлення, якщо це необхідно, системам штучного інтелекту знадобляться подібні «аварійні гальма», щоб гарантувати, що такі системи не постраждають від людей. Масштабна шкода.
Випадково Вільям Деллі, головний науковий співробітник і старший віце-президент NVIDIA, також зазначив, що ключ до можливості помилок і серйозної шкоди, спричиненої штучним інтелектом як комп’ютерною програмою, полягає в «участі людини», тобто люди поміщені в У ключових ланках роботи штучного інтелекту деякі повноваження штучного інтелекту щодо прийняття рішень обмежені. **
Вільям Дейлі, фото/NVIDIA
«Тож я думаю, що якщо ми будемо уважні до того, як ми розгортаємо штучний інтелект, ставлячи людей у важливу ланку, ми можемо переконатися, що штучний інтелект не захопить і не вимкне нашу енергосистему чи спричинить падіння літаків з неба. ", - сказав Дейлі.
**Чи буде ШІ з відкритим кодом скринькою Пандори? **
Наприкінці минулого року, коли ChatGPT вперше став популярним у технологічному середовищі, деякі люди висловили занепокоєння щодо використання моделей ШІ для зловмисної поведінки, наприклад шахрайства. Здається, відкрите джерело підвищує ризик «зловживання».
Одна з дискусій на конференції точилася навколо моделей штучного інтелекту з «відкритим кодом», які можуть завантажувати та змінювати громадськість. Відкритий код цих моделей дозволяє підприємствам і дослідникам використовувати технологію штучного інтелекту, подібну до тієї, що лежить в основі ChatGPT, не вкладаючи величезних коштів і ресурсів у навчання.
Але погані хлопці також можуть зловживати системами штучного інтелекту з відкритим кодом, включаючи OpenAI, який припинив роботу з відкритим кодом після GPT 3.5. Співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер сказав: «Через кілька років усі чітко побачать, що штучний інтелект з відкритим кодом Розум нерозумний».
Ілля Суцкевер розмовляє з Джен-Хсунь Хуаном на GDC, фото/NVIDIA
Коли його запитали чому, він сказав: «Ці моделі дуже міцні і будуть ставати все сильнішими і сильнішими, і в якийсь момент, якби хтось захотів, цими моделями було б легко завдати багато шкоди».
Крім того, нещодавно Мустафа Сулейман, співзасновник DeepMind і генеральний директор Inflection AI, також згадав про ризики відкритого коду.Він зазначив, що ключова проблема відкритого ШІ полягає в тому, що «швидке розповсюдження влади» дозволить одна людина може завдати безпрецедентної шкоди світу та вплинути: «У наступні 20 років наївний відкритий код майже напевно спричинить катастрофу». **
Мустафа Сулейман, 图/DeepMind
Однак Meta, очевидно, не погоджується з цими заявами.**Генеральний директор Meta Цукерберг заперечив, що відкритий код «демократизує штучний інтелект, допоможе чесній конкуренції та сприятиме індивідуальним і корпоративним інноваціям». **В той же час він також сказав, що модель з відкритим вихідним кодом може становити небезпеку, але Meta створює цю технологію якомога безпечніше.
Коли штучний інтелект зустрічається з відкритим кодом, це все ще залишається відкритим питанням.
Напишіть в кінці
2104 роки тому, через сім років після смерті імператора У з династії Хань, ханьський двір скликав безпрецедентну політичну консультацію. Одним із головних питань було скасування та перегляд державної політики монополії на сіль і залізне вино, запровадженої за часів імператора Період Ву. З цією метою «Більше шістдесяти чеснотливих і літературних людей», а також урядовців, таких як Сан Хунян, імперський цензор, пізніше назвали «Конференцією солі та заліза». Однак ця Конференція із солі та заліза по суті обговорювала напрям економічної політики династії Хань.
Незважаючи на те, що теми різні, а середовище епохи дуже різне**, незалежно від того, чи була це Конференція із солі та заліза понад 2000 років тому, чи нинішній Форум зі штучного інтелекту, ми всі стикаємося з величезною проблемою, і ми сподіваємося, що спілкуватися через дебати «груп талантів» як основу для законодавства. **
Picture/Google
У нещодавній статті, присвяченій 25-річчю Google, нинішній генеральний директор Google Сундар Пічаї написав:
(Google) Приєднуйтесь до важливої дискусії про те, як ці технології впливатимуть на наше суспільство, а потім працюйте разом, щоб знайти відповіді. Ключовою частиною цього є штучний інтелект. Хоча ми в захваті від потенціалу штучного інтелекту приносити користь людям і суспільству**, ми знаємо, що штучний інтелект, як і будь-яка нова технологія, пов’язана зі складнощами та ризиками. Наша розробка та використання штучного інтелекту має усунути ці ризики та сприяти відповідальному розвитку технології. **
Через кілька днів вісім компаній, включаючи Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI і Stability, стали другою групою компаній, які підписали угоду «Відповідальний розвиток технології штучного інтелекту (AI)». Часто, стикаючись із проблемами, які не можуть бути розв’язані окремою людиною чи окремою компанією/урядом, ми повинні усвідомлювати цінність «спільних зусиль».
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Що сказали світові гіганти штучного інтелекту, коли вони зібралися на конференцію солі та заліза в епоху штучного інтелекту?
Можливо, ніколи не існувало такої технології, яка швидко досягла б консенсусу науково-технічного співтовариства і навіть усього суспільства всього за кілька місяців, як велика модель ШІ. Сьогодні всі технологічні гіганти та великі уряди майже твердо вірять, що ШІ змінить світ і змінить усе.
Але позаду великого консенсусу все ще криється забагато проблем. З одного боку, вони реальні — підміна в роботі, поширення неправдивого вмісту, неоднакові пороги використання тощо; з іншого боку, це тривалі -термін людські твори мистецтва Тут виражена «загроза цивілізації». **За даними журналу Wired, OpenAI навіть передбачив механізм виходу у фінансовому документі, коли штучний інтелект руйнує людську економічну систему. **
У липні цього року на заході, який відбувся в штаб-квартирі IBM, лідер більшості в Сенаті США Чак Шумер заявив, що скличе серію конференцій зі штучного інтелекту, щоб «збирати найкращих людей за стіл і вчитися один у одного». Спілкуйтеся, відповідайте на запитання , спробуйте прийти до певного консенсусу та рішень, а сенатори, наші співробітники та інші просто послухають." ** Зрештою, Шумер сподівається "закласти основу для законодавства про політику штучного інтелекту" на основі обміну думками під час зустрічі. **
**Два місяці потому почалася зустріч.**У закритій зустрічі взяли участь 22 учасники з провідних технологічних компаній. Серед них були генеральний директор OpenAI Сем Альтман, генеральний директор NVIDIA Хуан Дженсюнь і генеральний директор Google Сундар. Пічаї, генеральний директор Meta Марк Цукерберг та інші, а також засновник Microsoft Білл Гейтс і колишній генеральний директор Google Ерік Шмідт, технологічні лідери попереднього покоління Інтернету.
ШІ потрібно «контролювати»
Ніхто не заперечуватиме величезний потенціал штучного інтелекту, але нам все ще бракує консенсусу щодо ризиків, заходів безпеки, контролю та майбутнього штучного інтелекту. Єдине, що можна сказати напевно, це те, що люди не можуть повністю дозволити жорстоке зростання штучного інтелекту. інтелект.
Покинувши першу закриту зустріч, генеральний директор Tesla, SpaceX і Neuralink Ілон Маск публічно заявив, що зустріч була «історичною» і що він підтримує ідею створення нового агентства для регулювання штучного інтелекту. , і знову підкреслив, величезні ризики, які створює штучний інтелект.
"Наслідки неправильного штучного інтелекту є серйозними, тому ми повинні бути проактивними, а не реагувати, - сказав Маск. - Проблема насправді полягає в цивілізаційному ризику, який потенційно загрожує всім людям у всьому світі".
Маск не розповів детально про конкретну шкоду так званого штучного інтелекту для людської цивілізації, але коли штучний інтелект стане більш залученим в управління та контроль електромереж, систем водопостачання та транспортних систем, помилки спричинять багато проблем. Інформатик і дослідник штучного інтелекту Деб Раджі також зазначив, що упереджені рішення штучного інтелекту впливають на всі аспекти суспільства.
Більше того, існує також давнє занепокоєння людей щодо штучного інтелекту.
Але як ми можемо зменшити та запобігти ризикам, які створює штучний інтелект? Президент Microsoft Бред Сміт запропонував створити «аварійне гальмо» щодо величезних ризиків, які може створити штучний інтелект, особливо в системах штучного інтелекту, які керують критично важливою інфраструктурою, такою як електромережі та системи водопостачання. «Таким чином ми можемо гарантувати, що загрози, яких багато хто боїться, залишаються науковою фантастикою і не стають новою реальністю».**
Бред Сміт, фото/
Сміт вважає, що так само, як автоматичні вимикачі, які є в кожній будівлі та будинку, які можуть негайно зупинити роботу системи живлення, якщо це необхідно, системам штучного інтелекту знадобляться подібні «аварійні гальма», щоб гарантувати, що такі системи не постраждають від людей. Масштабна шкода.
Випадково Вільям Деллі, головний науковий співробітник і старший віце-президент NVIDIA, також зазначив, що ключ до можливості помилок і серйозної шкоди, спричиненої штучним інтелектом як комп’ютерною програмою, полягає в «участі людини», тобто люди поміщені в У ключових ланках роботи штучного інтелекту деякі повноваження штучного інтелекту щодо прийняття рішень обмежені. **
Вільям Дейлі, фото/NVIDIA
«Тож я думаю, що якщо ми будемо уважні до того, як ми розгортаємо штучний інтелект, ставлячи людей у важливу ланку, ми можемо переконатися, що штучний інтелект не захопить і не вимкне нашу енергосистему чи спричинить падіння літаків з неба. ", - сказав Дейлі.
**Чи буде ШІ з відкритим кодом скринькою Пандори? **
Наприкінці минулого року, коли ChatGPT вперше став популярним у технологічному середовищі, деякі люди висловили занепокоєння щодо використання моделей ШІ для зловмисної поведінки, наприклад шахрайства. Здається, відкрите джерело підвищує ризик «зловживання».
Одна з дискусій на конференції точилася навколо моделей штучного інтелекту з «відкритим кодом», які можуть завантажувати та змінювати громадськість. Відкритий код цих моделей дозволяє підприємствам і дослідникам використовувати технологію штучного інтелекту, подібну до тієї, що лежить в основі ChatGPT, не вкладаючи величезних коштів і ресурсів у навчання.
Але погані хлопці також можуть зловживати системами штучного інтелекту з відкритим кодом, включаючи OpenAI, який припинив роботу з відкритим кодом після GPT 3.5. Співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер сказав: «Через кілька років усі чітко побачать, що штучний інтелект з відкритим кодом Розум нерозумний».
Ілля Суцкевер розмовляє з Джен-Хсунь Хуаном на GDC, фото/NVIDIA
Коли його запитали чому, він сказав: «Ці моделі дуже міцні і будуть ставати все сильнішими і сильнішими, і в якийсь момент, якби хтось захотів, цими моделями було б легко завдати багато шкоди».
Крім того, нещодавно Мустафа Сулейман, співзасновник DeepMind і генеральний директор Inflection AI, також згадав про ризики відкритого коду.Він зазначив, що ключова проблема відкритого ШІ полягає в тому, що «швидке розповсюдження влади» дозволить одна людина може завдати безпрецедентної шкоди світу та вплинути: «У наступні 20 років наївний відкритий код майже напевно спричинить катастрофу». **
Мустафа Сулейман, 图/DeepMind
Однак Meta, очевидно, не погоджується з цими заявами.**Генеральний директор Meta Цукерберг заперечив, що відкритий код «демократизує штучний інтелект, допоможе чесній конкуренції та сприятиме індивідуальним і корпоративним інноваціям». **В той же час він також сказав, що модель з відкритим вихідним кодом може становити небезпеку, але Meta створює цю технологію якомога безпечніше.
Коли штучний інтелект зустрічається з відкритим кодом, це все ще залишається відкритим питанням.
Напишіть в кінці
2104 роки тому, через сім років після смерті імператора У з династії Хань, ханьський двір скликав безпрецедентну політичну консультацію. Одним із головних питань було скасування та перегляд державної політики монополії на сіль і залізне вино, запровадженої за часів імператора Період Ву. З цією метою «Більше шістдесяти чеснотливих і літературних людей», а також урядовців, таких як Сан Хунян, імперський цензор, пізніше назвали «Конференцією солі та заліза». Однак ця Конференція із солі та заліза по суті обговорювала напрям економічної політики династії Хань.
Незважаючи на те, що теми різні, а середовище епохи дуже різне**, незалежно від того, чи була це Конференція із солі та заліза понад 2000 років тому, чи нинішній Форум зі штучного інтелекту, ми всі стикаємося з величезною проблемою, і ми сподіваємося, що спілкуватися через дебати «груп талантів» як основу для законодавства. **
Picture/Google
У нещодавній статті, присвяченій 25-річчю Google, нинішній генеральний директор Google Сундар Пічаї написав:
(Google) Приєднуйтесь до важливої дискусії про те, як ці технології впливатимуть на наше суспільство, а потім працюйте разом, щоб знайти відповіді. Ключовою частиною цього є штучний інтелект. Хоча ми в захваті від потенціалу штучного інтелекту приносити користь людям і суспільству**, ми знаємо, що штучний інтелект, як і будь-яка нова технологія, пов’язана зі складнощами та ризиками. Наша розробка та використання штучного інтелекту має усунути ці ризики та сприяти відповідальному розвитку технології. **
Через кілька днів вісім компаній, включаючи Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI і Stability, стали другою групою компаній, які підписали угоду «Відповідальний розвиток технології штучного інтелекту (AI)». Часто, стикаючись із проблемами, які не можуть бути розв’язані окремою людиною чи окремою компанією/урядом, ми повинні усвідомлювати цінність «спільних зусиль».