Лекун сказав, що переважна більшість академічних колег дуже підтримують відкриті дослідження та розробки в галузі штучного інтелекту, але все ще є опоненти.
У питанні ризиків, пов'язаних зі штучним інтелектом, великі люди з усіх верств суспільства також мають різні думки. Деякі люди взяли на себе ініціативу, підписавши спільний лист із закликом до негайного мораторію на лабораторії штучного інтелекту, і цю думку підтримують тріумвірат глибокого навчання Джеффрі Хінтон, Йошуа Бенджіо та інші.
Лише кілька днів тому Бенджіо, Хінтон та інші опублікували спільний лист «Управління ризиками штучного інтелекту в епоху швидкого розвитку», закликаючи дослідників вжити термінових заходів управління, щоб надати пріоритет безпеці та етичним практикам перед розробкою систем штучного інтелекту, і закликавши уряди вжити заходів для управління ризиками, пов'язаними зі штучним інтелектом.
У статті згадуються деякі невідкладні заходи управління, такі як залучення державних установ для запобігання зловживанню людьми ШІ. Щоб досягти ефективного регулювання, уряди повинні мати всебічне розуміння розвитку штучного інтелекту. Регулюючі органи повинні вжити низку заходів, таких як реєстрація моделей, ефективний захист викривачів, а також моніторинг розробки моделей та використання суперкомп'ютерів. Регулюючим органам також потрібен доступ до передових систем штучного інтелекту, щоб оцінити свої небезпечні можливості перед розгортанням.
Мало того, трохи пізніше, у травні цього року, американська некомерційна організація Center for Artificial Intelligence Security опублікувала заяву, в якій попередила, що штучний інтелект слід розглядати як ризик вимирання людства як епідемію, а серед тих, хто підтримав заяву, також були Хінтон, Бенджіо та інші.
У травні Хінтон також звільнився з роботи в Google, щоб висловитися про ризики, пов'язані зі штучним інтелектом. В інтерв'ю New York Times він сказав: «Більшість людей думають, що це далеко. Раніше я думав, що до цього ще далеко, можливо, 30-50 років, а то й довше. Але, очевидно, зараз я так не думаю».
Як і очікувалося, в очах таких великих лідерів штучного інтелекту, як Хінтон, управління ризиками, пов'язаними зі штучним інтелектом, є дуже нагальною справою.
Однак Янн Лекун, один із «великої трійки» у сфері глибокого навчання, дуже оптимістично дивиться на розвиток ШІ. Він був значною мірою проти підписання спільного листа про ризики ШІ, стверджуючи, що розвиток ШІ далекий від загрози людству.
Щойно Лекун відповів на кілька запитань користувачів мережі про ризики ШІ у спілкуванні з користувачами X.
Користувач мережі запитав Лекуна про думку Лекуна щодо статті "Це його зміна клімату: експерти, які допомагають Ріші Сунаку запечатати його спадщину", в якій стверджується, що спільний лист, опублікований Хінтоном, Бенджіо та іншими, змінив сприйняття ШІ людьми як потенційної загрози на початку. Далі в статті йдеться про те, що останніми місяцями спостерігачі у Великій Британії знаходять все більше інформації про апокаліптичну атмосферу, яку створює штучний інтелект. У березні уряд Великої Британії опублікував білу книгу, в якій пообіцяв не придушувати інновації в галузі штучного інтелекту. Однак лише через два місяці Велика Британія заговорила про встановлення обмежень для штучного інтелекту та закликала США прийняти свій план щодо глобальних правил штучного інтелекту.
Адреса статті:
Реакція Лекуна на статтю була такою: він не хотів, щоб занепокоєння Великої Британії щодо фаталістичних ризиків ШІ поширилося на інші країни.
Після цього відбувається спілкування між користувачами LeCun і X, про яке ми згадували раніше, і ось всі відповіді LeCun:
"Альтман, Хассабіс і Амодей займаються масовим корпоративним лобіюванням. Вони намагаються регулювати індустрію штучного інтелекту. А ви, Джефф і Йошуа даєте «боєприпаси» тим, хто лобіює заборону відкритих досліджень ШІ.
Якщо ваша кампанія страху увінчається успіхом, це неминуче призведе до того, що ми з вами обоє вважаємо катастрофічним результатом: кілька компаній візьмуть під контроль штучний інтелект.
Переважна більшість академічних колег дуже підтримують відкриті дослідження та розробки штучного інтелекту. Мало хто вірить апокаліптичному сценарію, який ви проповідуєте. Ви, Йошуа, Джефф і Стюарт – єдині винятки.
Як і багато людей, я є великим прихильником відкритих платформ штучного інтелекту, тому що вірю в поєднання сил: народної творчості, демократії, ринкових сил і регулювання продуктів. Я також знаю, що можна виробляти системи штучного інтелекту, які будуть безпечними та під нашим контролем. Я вже вносив конкретні пропозиції щодо цього. Все це буде мотивувати людей чинити правильно.
Ви пишете так, ніби штучний інтелект був створений на рівному місці, що це природне явище, яке ми не можемо контролювати. Але це не так. Вона прогресує завдяки всім, кого ми з вами знаємо. І ми, і вони маємо владу побудувати «правильні речі». Вимога регулювання НДДКР (на відміну від розгортання продуктів) передбачає припущення, що ці люди та організації, які вони обслуговують, є некомпетентними, безрозсудними, саморуйнівними або злими. Але це не так.
Я вигадав багато аргументів, щоб довести, що апокаліптичний сценарій, якого ви боїтеся, смішний. Я не буду тут вдаватися в подробиці. Але головний момент полягає в тому, що якщо сильна система штучного інтелекту керується цілями, включаючи огорожі, то вони безпечні та контрольовані, оскільки вони встановлюють ці огорожі та цілі. (Поточні авторегресійні LLM не є цілеспрямованими, тому давайте не будемо робити висновки про слабкі сторони авторегресійних LLM).
Коли справа доходить до відкритого вихідного коду, ефект від вашої діяльності буде прямо протилежним тому, до чого ви прагнете. У майбутньому системи штучного інтелекту стануть скарбницею всіх людських знань і культури, і нам потрібна безкоштовна платформа з відкритим вихідним кодом, щоб кожен міг зробити свій внесок у неї. Відкритість – це єдиний спосіб для платформ штучного інтелекту відображати весь спектр людських знань і культури. Це вимагає, щоб внесок на ці платформи був краудсорсинговим, подібно до Вікіпедії. Якщо платформа не відкрита, це не спрацює.
Якщо платформи штучного інтелекту з відкритим вихідним кодом будуть регулюватися, то обов'язково станеться інший сценарій, який полягає в тому, що кілька компаній контролюватимуть платформу штучного інтелекту і, як наслідок, повну цифрову залежність людей. Що це означає для демократії? Що це означає для культурного розмаїття? Це те, що не дає мені спати ночами».
Під довгим твітом Лекуна також є багато людей, які «підтримують» його погляди.
Ірина Ріш, професор кафедри комп'ютерних наук та дослідження операцій Монреальського університету, також є ключовим членом Інституту штучного інтелекту Mila - Quebec. Вона сказала, що, можливо, дослідники, які підтримують штучний інтелект з відкритим вихідним кодом, повинні припинити мовчати і повинні бути лідерами в розробці нового ШІ.
Засновник Amazon Бефф Джезос також заявив у розділі коментарів, що такі огляди важливі та потрібні.
Користувачі мережі заявили, що на початку обговорення питань безпеки може збагатити уяву кожного про технології майбутнього, але сенсаційна наукова фантастика не повинна призводити до появи монопольної політики.
Модератор блогу Лекс Фрідман з нетерпінням чекає на нього в цій дискусії.
Дискусії про ризики штучного інтелекту також визначатимуть майбутнє штучного інтелекту. Коли ідея привертає до себе увагу, люди сліпо слідують їй. Тільки тоді, коли обидві сторони зможуть продовжувати вести раціональні дискусії, вони зможуть по-справжньому побачити «справжнє обличчя» штучного інтелекту.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Лауреати премії Тюрінга сперечаються, а Лекун: теорія вимирання штучного інтелекту Бенджіо, Хінтона та ін. смішна
Джерело: Heart of the Machine
У питанні ризиків, пов'язаних зі штучним інтелектом, великі люди з усіх верств суспільства також мають різні думки. Деякі люди взяли на себе ініціативу, підписавши спільний лист із закликом до негайного мораторію на лабораторії штучного інтелекту, і цю думку підтримують тріумвірат глибокого навчання Джеффрі Хінтон, Йошуа Бенджіо та інші.
Лише кілька днів тому Бенджіо, Хінтон та інші опублікували спільний лист «Управління ризиками штучного інтелекту в епоху швидкого розвитку», закликаючи дослідників вжити термінових заходів управління, щоб надати пріоритет безпеці та етичним практикам перед розробкою систем штучного інтелекту, і закликавши уряди вжити заходів для управління ризиками, пов'язаними зі штучним інтелектом.
У статті згадуються деякі невідкладні заходи управління, такі як залучення державних установ для запобігання зловживанню людьми ШІ. Щоб досягти ефективного регулювання, уряди повинні мати всебічне розуміння розвитку штучного інтелекту. Регулюючі органи повинні вжити низку заходів, таких як реєстрація моделей, ефективний захист викривачів, а також моніторинг розробки моделей та використання суперкомп'ютерів. Регулюючим органам також потрібен доступ до передових систем штучного інтелекту, щоб оцінити свої небезпечні можливості перед розгортанням.
Мало того, трохи пізніше, у травні цього року, американська некомерційна організація Center for Artificial Intelligence Security опублікувала заяву, в якій попередила, що штучний інтелект слід розглядати як ризик вимирання людства як епідемію, а серед тих, хто підтримав заяву, також були Хінтон, Бенджіо та інші.
У травні Хінтон також звільнився з роботи в Google, щоб висловитися про ризики, пов'язані зі штучним інтелектом. В інтерв'ю New York Times він сказав: «Більшість людей думають, що це далеко. Раніше я думав, що до цього ще далеко, можливо, 30-50 років, а то й довше. Але, очевидно, зараз я так не думаю».
Як і очікувалося, в очах таких великих лідерів штучного інтелекту, як Хінтон, управління ризиками, пов'язаними зі штучним інтелектом, є дуже нагальною справою.
Однак Янн Лекун, один із «великої трійки» у сфері глибокого навчання, дуже оптимістично дивиться на розвиток ШІ. Він був значною мірою проти підписання спільного листа про ризики ШІ, стверджуючи, що розвиток ШІ далекий від загрози людству.
Щойно Лекун відповів на кілька запитань користувачів мережі про ризики ШІ у спілкуванні з користувачами X.
Реакція Лекуна на статтю була такою: він не хотів, щоб занепокоєння Великої Британії щодо фаталістичних ризиків ШІ поширилося на інші країни.
"Альтман, Хассабіс і Амодей займаються масовим корпоративним лобіюванням. Вони намагаються регулювати індустрію штучного інтелекту. А ви, Джефф і Йошуа даєте «боєприпаси» тим, хто лобіює заборону відкритих досліджень ШІ.
Якщо ваша кампанія страху увінчається успіхом, це неминуче призведе до того, що ми з вами обоє вважаємо катастрофічним результатом: кілька компаній візьмуть під контроль штучний інтелект.
Переважна більшість академічних колег дуже підтримують відкриті дослідження та розробки штучного інтелекту. Мало хто вірить апокаліптичному сценарію, який ви проповідуєте. Ви, Йошуа, Джефф і Стюарт – єдині винятки.
Як і багато людей, я є великим прихильником відкритих платформ штучного інтелекту, тому що вірю в поєднання сил: народної творчості, демократії, ринкових сил і регулювання продуктів. Я також знаю, що можна виробляти системи штучного інтелекту, які будуть безпечними та під нашим контролем. Я вже вносив конкретні пропозиції щодо цього. Все це буде мотивувати людей чинити правильно.
Ви пишете так, ніби штучний інтелект був створений на рівному місці, що це природне явище, яке ми не можемо контролювати. Але це не так. Вона прогресує завдяки всім, кого ми з вами знаємо. І ми, і вони маємо владу побудувати «правильні речі». Вимога регулювання НДДКР (на відміну від розгортання продуктів) передбачає припущення, що ці люди та організації, які вони обслуговують, є некомпетентними, безрозсудними, саморуйнівними або злими. Але це не так.
Я вигадав багато аргументів, щоб довести, що апокаліптичний сценарій, якого ви боїтеся, смішний. Я не буду тут вдаватися в подробиці. Але головний момент полягає в тому, що якщо сильна система штучного інтелекту керується цілями, включаючи огорожі, то вони безпечні та контрольовані, оскільки вони встановлюють ці огорожі та цілі. (Поточні авторегресійні LLM не є цілеспрямованими, тому давайте не будемо робити висновки про слабкі сторони авторегресійних LLM).
Коли справа доходить до відкритого вихідного коду, ефект від вашої діяльності буде прямо протилежним тому, до чого ви прагнете. У майбутньому системи штучного інтелекту стануть скарбницею всіх людських знань і культури, і нам потрібна безкоштовна платформа з відкритим вихідним кодом, щоб кожен міг зробити свій внесок у неї. Відкритість – це єдиний спосіб для платформ штучного інтелекту відображати весь спектр людських знань і культури. Це вимагає, щоб внесок на ці платформи був краудсорсинговим, подібно до Вікіпедії. Якщо платформа не відкрита, це не спрацює.
Якщо платформи штучного інтелекту з відкритим вихідним кодом будуть регулюватися, то обов'язково станеться інший сценарій, який полягає в тому, що кілька компаній контролюватимуть платформу штучного інтелекту і, як наслідок, повну цифрову залежність людей. Що це означає для демократії? Що це означає для культурного розмаїття? Це те, що не дає мені спати ночами».
Під довгим твітом Лекуна також є багато людей, які «підтримують» його погляди.
Ірина Ріш, професор кафедри комп'ютерних наук та дослідження операцій Монреальського університету, також є ключовим членом Інституту штучного інтелекту Mila - Quebec. Вона сказала, що, можливо, дослідники, які підтримують штучний інтелект з відкритим вихідним кодом, повинні припинити мовчати і повинні бути лідерами в розробці нового ШІ.
Модератор блогу Лекс Фрідман з нетерпінням чекає на нього в цій дискусії.