Понад 370 людей, у тому числі Лекун і Нг Енда, підписали спільний лист: суворий контроль над ШІ небезпечний, а відкритість – протиотрута

Першоджерело: Heart of the Machine

Джерело зображення: Створено Unbounded AI

Останніми днями дискусія про те, як контролювати ШІ, стає все більш гарячою, і великі хлопці мають дуже різні думки.

Наприклад, тріумвірат премії Тюрінга Джеффрі Хінтон, Йошуа Бенджіо та Янн Лекун мають дві точки зору. Хінтон і Бенджіо – це команда, яка наполегливо закликає до більш жорсткого регулювання ШІ, що може призвести до ризику «вимирання ШІ». LeCun не поділяє їхніх поглядів, стверджуючи, що жорстке регулювання ШІ неминуче призведе до монополії гігантів, в результаті чого лише кілька компаній контролюють НДДКР ШІ.

Для того, щоб висловити свої ідеї, багато людей підписали спільний лист, щоб донести свою точку зору, наприклад, в останні кілька днів Бенджіо, Хінтон та інші випустили спільний лист «Управління ризиками ШІ в епоху, що швидко розвивається», закликавши дослідників вжити термінових заходів управління, перш ніж розробляти системи ШІ.

Водночас наразі у соцмережах бродить відкритий лист під назвою «Спільна заява про безпеку та відкритість штучного інтелекту».

Посилання на відкритий лист:

Наразі відкритий лист підписали понад 370 осіб, серед яких Лекун, один із трьох гігантів глибинного навчання, та Ендрю Нг, професор кафедри комп'ютерних наук Стенфордського університету. Список постійно оновлюється.

«Відкритий, прозорий та широкий доступ робить програмну платформу більш безпечною та надійною. Цей відкритий лист від Mozilla Foundation, який я також підписав, наводить аргументи на користь відкритих платформ і систем штучного інтелекту».

Нижче наводиться зміст відкритого листа:

Ми перебуваємо на критичному етапі в управлінні штучним інтелектом. Щоб пом'якшити поточну та майбутню шкоду систем штучного інтелекту, нам потрібно забезпечити відкритість, прозорість та широкий доступ. Це має бути глобальним пріоритетом.
Це правда, що загальнодоступні моделі є ризикованими та вразливими – моделі штучного інтелекту можуть бути використані зловмисниками або розгорнуті погано оснащеними розробниками. Тим не менш, знову і знову ми спостерігаємо це на прикладі всіляких запатентованих технологій – розширення публічного доступу та цензура роблять технології безпечнішими, а не небезпечнішими. Ідея про те, що жорсткий і запатентований контроль над базовими моделями штучного інтелекту є єдиним способом захистити нас від масової шкоди, в кращому випадку наївна, а в гіршому – небезпечна.

Більше того, історія людського розвитку вчить нас, що швидке прийняття неправильного регулювання може призвести до концентрації влади, що може зашкодити конкуренції та інноваціям. Відкрита модель може інформувати громадськість про дискусію та покращувати розробку стратегії. Якщо нашою метою є безпека, захищеність та підзвітність, то відкритість та прозорість є важливими факторами у досягненні цієї мети.
Ми перебуваємо в розпалі динамічної дискусії про те, що означає бути «відкритим» в епоху штучного інтелекту. Цю важливу дискусію не можна сповільнювати. Скоріше, його слід прискорити, заохочуючи нас експериментувати, вчитися та розробляти нові способи використання відкритості в гонці безпеки ШІ.

Нам потрібно побудувати набір підходів до відкритого вихідного коду та відкритості, які можуть слугувати будівельними блоками для:

  1. Прискорте розуміння ризиків і небезпек можливостей штучного інтелекту за допомогою незалежних досліджень, співпраці та обміну знаннями. 2. Посилити громадський контроль і підзвітність, допомагаючи регулюючим органам впроваджувати інструменти для моніторингу великомасштабних систем штучного інтелекту. 3. Знизити бар'єр входу для нових гравців і зосередитися на створенні відповідального ШІ.
    Як підписанти цього відкритого листа, ми є різноманітною групою науковців, стратегів, інженерів, активістів, підприємців, освітян та журналістів. Ми представляємо різні точки зору на те, як керувати та публікувати штучний інтелект з відкритим вихідним кодом. Однак ми повністю згодні в одному: відкритий, підзвітний і прозорий підхід має важливе значення для забезпечення нашої безпеки в епоху штучного інтелекту.
    Коли справа доходить до безпеки штучного інтелекту, відкритість є протиотрутою, а не отрутою.

Підписано:

  • Артур Менш, співзасновник і генеральний директор французького стартапу MistralAI
  • Ендрю Нг, засновник DeepLearning.AI, засновник і генеральний директор Landing AI, професор комп'ютерних наук Стенфордського університету
  • Янн Лекун, лауреат премії Тюрінга, головний науковий співробітник зі штучного інтелекту в Meta
  • Жюльєн Шомон, технічний директор Hugging Face
  • Брайан Белендорф, член-засновник Apache, технічний директор OpenSSF Ерік фон Гіппель – американський економіст і професор Школи менеджменту Слоуна Массачусетського технологічного інституту
  • ......

Наразі цей відкритий лист, який з'явився лише кілька днів, продовжує бродити, і привернув велику увагу та обговорення в іноземній AI-спільноті, тому ви можете продовжувати звертати увагу на оновлення списку.

Якщо ви згодні з ідеєю спільного листа, ви також можете подати власний підпис.

Потрібен час, щоб відповісти, чи принесе сильне регулювання ШІ більше шкоди, ніж користі, чи переваги переважать недоліки.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити