Що сказали світові гіганти штучного інтелекту, коли вони зібралися на конференцію солі та заліза в епоху штучного інтелекту?

Джерело: Lei Technology

Можливо, ніколи не існувало такої технології, яка швидко стала б консенсусом науково-технічного співтовариства і навіть усього суспільства лише за кілька місяців, як велика модель ШІ. Сьогодні всі технологічні гіганти та великі уряди майже твердо вірять, що ШІ змінить світ і змінить усе.

Але за великим консенсусом все ще є забагато проблем. З одного боку, вони реальні — підміна в роботі, поширення неправдивого вмісту, неоднакові пороги використання тощо; з іншого боку, це тривалі -термін людські твори мистецтва Тут виражена «загроза цивілізації». **За даними журналу Wired, OpenAI навіть передбачив механізм виходу у фінансовому документі, коли штучний інтелект руйнує людську економічну систему. **

У липні цього року на заході, який відбувся в штаб-квартирі IBM, лідер більшості в Сенаті США Чак Шумер заявив, що скличе серію конференцій зі штучного інтелекту, щоб «зібрати найкращих людей за стіл і вчитися один у одного». , спробуйте прийти до певного консенсусу та рішень, а сенатори, наші співробітники та інші просто послухають." ** Зрештою, Шумер сподівається "закласти основу для законодавства про політику штучного інтелекту" на основі обміну думками під час зустрічі. **

**Два місяці потому почалася зустріч.**У закритій зустрічі взяли участь 22 учасники з провідних технологічних компаній. Серед них були генеральний директор OpenAI Сем Альтман, генеральний директор NVIDIA Хуан Дженсюнь і генеральний директор Google Сундар. Пічаї, генеральний директор Meta Марк Цукерберг та інші, а також засновник Microsoft Білл Гейтс і колишній генеральний директор Google Ерік Шмідт, технологічні лідери попереднього покоління Інтернету.

ШІ потрібно «контролювати»

Ніхто не заперечуватиме величезний потенціал штучного інтелекту, але нам все ще бракує консенсусу щодо ризиків, заходів безпеки, контролю та майбутнього штучного інтелекту. Єдине, що можна сказати напевно, це те, що люди не можуть повністю дозволити жорстоке зростання штучного інтелекту. інтелект.

Вийшовши з першої закритої зустрічі, генеральний директор Tesla, SpaceX і Neuralink Ілон Маск публічно заявив, що зустріч була «історичною» і що він підтримує ідею створення нового агентства для регулювання штучного інтелекту. , і знову наголосив, величезні ризики, які створює штучний інтелект.

"Наслідки неправильного штучного інтелекту є серйозними, тому ми повинні бути проактивними, а не реагувати, - сказав Маск. - Проблема насправді полягає в цивілізаційному ризику, який потенційно загрожує всім людям у всьому світі".

Маск не розповів детально про конкретну шкоду так званого штучного інтелекту для людської цивілізації, але коли штучний інтелект стане більш залученим в управління та контроль електромереж, систем водопостачання та транспортних систем, помилки спричинять багато проблем. Інформатик і дослідник штучного інтелекту Деб Раджі також зазначив, що упереджені рішення штучного інтелекту впливають на всі аспекти суспільства.

Більше того, існує також давнє занепокоєння людей щодо штучного інтелекту.

Але як ми можемо зменшити та запобігти ризикам, які створює штучний інтелект? Президент Microsoft Бред Сміт запропонував створити «аварійне гальмо» щодо величезних ризиків, які може створити штучний інтелект, особливо в системах штучного інтелекту, які керують критично важливою інфраструктурою, такою як електромережі та системи водопостачання. «Таким чином ми можемо гарантувати, що загрози, яких багато хто боїться, залишаються науковою фантастикою і не стають новою реальністю».**

Бред Сміт/фото

Сміт вважає, що так само, як автоматичні вимикачі, які є в кожній будівлі та будинку, які можуть негайно зупинити роботу системи живлення, якщо це необхідно, системам штучного інтелекту знадобляться подібні «аварійні гальма», щоб гарантувати, що такі системи не постраждають від людей. Масштабна шкода.

Випадково Вільям Деллі, головний науковий співробітник і старший віце-президент NVIDIA, також зазначив, що ключ до можливості помилок і серйозної шкоди, спричиненої штучним інтелектом як комп’ютерною програмою, полягає в «участі людини», тобто люди поміщені в У ключових ланках роботи штучного інтелекту деякі повноваження штучного інтелекту щодо прийняття рішень обмежені. **

Вільям Дейлі, фото/NVIDIA

«Тож я думаю, якщо ми будемо уважні до того, як ми розгортаємо штучний інтелект, ставлячи людей у вирішальну ланку, ми можемо переконатися, що штучний інтелект не захопить і не вимкне нашу енергомережу чи спричинить падіння літаків з неба. ", - сказав Дейлі.

**Чи буде ШІ з відкритим кодом скринькою Пандори? **

Наприкінці минулого року, коли ChatGPT вперше став популярним у технологічному середовищі, деякі люди висловили занепокоєння щодо використання моделей ШІ для зловмисної поведінки, наприклад шахрайства. Здається, відкрите джерело підвищує ризик «зловживання».

Одна з дискусій на конференції точилася навколо моделей штучного інтелекту з «відкритим кодом», які можуть завантажувати та змінювати громадськість. Відкритий код цих моделей дозволяє підприємствам і дослідникам використовувати технологію штучного інтелекту, подібну до тієї, що лежить в основі ChatGPT, не вкладаючи величезних коштів і ресурсів у навчання.

Але погані хлопці також можуть зловживати системами штучного інтелекту з відкритим кодом, включаючи OpenAI, який припинив роботу з відкритим кодом після GPT 3.5. Співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер сказав: «Через кілька років усі чітко побачать, що штучний інтелект з відкритим кодом Розум – це нерозумно».

Ілля Суцкевер розмовляє з Джен-Хсунь Хуаном на GDC, фото/NVIDIA

Коли його запитали чому, він сказав: «Ці моделі дуже міцні і будуть ставати все сильнішими і сильнішими, і в якийсь момент, якби хтось захотів, цими моделями було б легко завдати багато шкоди».

Крім того, нещодавно Мустафа Сулейман, співзасновник DeepMind і генеральний директор Inflection AI, також згадав про ризики відкритого коду.Він зазначив, що ключова проблема відкритого ШІ полягає в тому, що «швидке розповсюдження влади» дозволить одна людина може завдати безпрецедентної шкоди світу та вплинути: «У наступні 20 років наївний відкритий код майже напевно спричинить катастрофу». **

Мустафа Сулейман, 图/DeepMind

Однак Meta, очевидно, не погоджується з цими заявами.**Генеральний директор Meta Цукерберг заперечив, що відкритий код «демократизує штучний інтелект, допоможе чесній конкуренції та сприятиме індивідуальним і корпоративним інноваціям». **В той же час він також сказав, що модель з відкритим вихідним кодом може становити небезпеку, але Meta створює цю технологію якомога безпечніше.

Коли штучний інтелект зустрічається з відкритим кодом, це все ще залишається відкритим питанням.

Напишіть в кінці

2104 роки тому, через сім років після смерті імператора У з династії Хань, ханьський двір скликав безпрецедентну політичну консультацію. Одним із головних питань було скасування та перегляд державної політики монополії на сіль і залізне вино, запровадженої за часів імператора Період Ву. З цією метою «Більше шістдесяти чеснотливих і літературних людей», а також урядовців, таких як Сан Хунян, імперський цензор, пізніше назвали «Конференцією солі та заліза». Однак ця Конференція із солі та заліза по суті обговорювала напрям економічної політики династії Хань.

Незважаючи на те, що теми різні, а середовище епохи дуже різне**, незалежно від того, чи була це Конференція із солі та заліза понад 2000 років тому, чи нинішній Форум зі штучного інтелекту, ми всі стикаємося з величезною проблемою, і ми сподіваємося, що спілкуватися через дебати «груп талантів» як основу для законодавства. **

Picture/Google

У нещодавній статті, присвяченій 25-річчю Google, нинішній генеральний директор Google Сундар Пічаї написав:

(Google) Приєднуйтесь до важливої дискусії про те, як ці технології формуватимуть наше суспільство, а потім працюйте разом, щоб знайти відповіді. Ключовою частиною цього є штучний інтелект. Хоча ми в захваті від потенціалу штучного інтелекту приносити користь людям і суспільству**, ми знаємо, що штучний інтелект, як і будь-яка технологія на ранніх стадіях, пов’язана зі складнощами та ризиками. Наша розробка та використання штучного інтелекту мають усунути ці ризики та сприяти відповідальному розвитку технології. **

Через кілька днів вісім компаній, включаючи Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI і Stability, стали другою групою компаній, які підписали угоду про «відповідальний розвиток технології штучного інтелекту (ШІ)». Часто, стикаючись із проблемами, які не можуть бути розв’язані окремою людиною чи окремою компанією/урядом, ми повинні усвідомлювати цінність «спільних зусиль».

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити