Лауреат премії Тюрінга Ян Лікунь: Єдиний спосіб зробити платформи штучного інтелекту безпечними, хорошими та практичними — це відкрити код

Джерело: The Paper

Репортер Чжан Цзін

«Є люди, які хочуть, щоб штучний інтелект загалом суворо регулювався, тому що вони бояться наслідків штучного інтелекту. Тому що вони кажуть, що якщо хтось може оволодіти штучним інтелектом, якщо він зможе робити з ним усе, що завгодно, тоді ситуація може бути дуже небезпечно, тому потрібне жорстке регулювання штучного інтелекту. Я категорично з цим не згоден».

Людям знадобилося багато часу, щоб створити поточну етику та механізми управління. Якщо штучному інтелекту дозволено розвивати свідомість і інтелект, як люди, як люди можуть відповідати вимогам етики та управління? Який механізм втручання людини в штучний інтелект?

6 липня в Шанхаї відкрилася Всесвітня конференція зі штучного інтелекту 2023 року. Янн ЛеКун, лауреат премії Тюрінга 2018 року та головний науковець із штучного інтелекту команди Meta AI Basic Artificial Intelligence Research Institute, сказав на церемонії відкриття, що він абсолютно не погоджується з тим, що «оскільки будь-хто може використовувати штучний інтелект, щоб робити що завгодно, ситуація може бути дуже небезпечним", тому штучний інтелект потребує суворого регулювання". Зрештою, єдиний спосіб зробити платформи штучного інтелекту безпечними, якісними та корисними — відкрити для них код.

Ян Лікунь розповів про те, як штучний інтелект стає розумним і керованим. «Якщо ви думаєте, що шлях до штучного інтелекту людського рівня полягає в тому, щоб зробити більшу модель авторегресії LLM (Large Language Model), а потім використовувати багатомодельне тестування даних, тоді ви можете подумати, що ці системи штучного інтелекту небезпечні. Але в Насправді я не думаю, що ця система може бути дуже розумною. Я думаю, що те, як вони стають розумними, також є способом зробити їх керованими, тобто концепцією цілеспрямованого штучного інтелекту. По суті, це дати їм цілі які повинні бути досягнуті». Ян Лікунь сказав: «Деякі з цих цілей є цілями, визначеними завданням, наприклад, чи відповіла система на запитання?» Система завела ваш автомобіль? Чи очистила система таблицю? Інші цілі діють як паркани безпеки, наприклад, щоб нікого не поранити.

Ян Лікунь вважає, що ці системи штучного інтелекту не будуть обманювати або домінувати над людьми шляхом проникнення по частинах. Люди можуть ставити цілі, які змусять ШІ бути чесними, наприклад, змусити ШІ підкоритися людям, бути обережним, щоб викликати у них цікавість, і надати їм доступ до ресурсів, яких вони не повинні мати. «Тож я думаю, що ці системи можна буде повністю контролювати та маніпулювати. Системи можна спроектувати безпечними, але це нелегко. Розробити ці цілі, зробити систему безпечною, буде важким інженерним викликом».

Але Ян Лікун сказав, що люди не повинні добре проектувати її з самого початку, але можуть почати зі створення системи, розумної, як миша.Мета людей — зробити її хорошою мишею. «Ми збираємося помістити їх у пісочницю або симуляційне середовище, і ми хочемо переконатися, що вони безпечні, що є важливим питанням, тому що є люди, які загалом хочуть, щоб штучний інтелект був жорстко зарегульований, тому що вони бояться про наслідки штучного інтелекту... Тому що вони кажуть, що якщо хтось може отримати ШІ, якщо він може робити все, що завгодно з ШІ, тоді ситуація може бути дуже небезпечною, тому потрібно суворе регулювання ШІ. Я не узагалі згоден з цим».

Навпаки, Ян Лікунь вважає, що в довгостроковій перспективі єдиний спосіб зробити платформи штучного інтелекту безпечними, хорошими та практичними — відкрити код. У майбутньому кожен буде взаємодіяти з цифровим світом через помічників зі штучним інтелектом, і вся людська інформація повинна проходити через цього помічника зі штучним інтелектом. Якщо технології контролюються кількома компаніями, це недобре. «Системи штучного інтелекту майбутнього стануть скарбницею всіх людських знань, і спосіб їхнього навчання має базуватися на численних джерелах. Тож у майбутньому ми побачимо більше LLM з відкритим кодом і систем штучного інтелекту з відкритим кодом».

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити