Законодавство не дійшло до «самоконтролю» першим: гіганти штучного інтелекту обіцяють безпеку продуктів, OpenAI підтримує ліцензування та схвалення розробки систем штучного інтелекту
Джерело зображення: створено інструментом Unbounded AI
Хоча Сполучені Штати ще не запровадили спеціального законодавства, під тиском адміністрації Байдена деякі гіганти та висхідні зірки у сфері штучного інтелекту (ШІ) OpenAI виступили з ініціативою запропонувати «самоконтроль».
У четвер, 20 липня за східним часом, ЗМІ цитували інсайдерів, які заявили, що на прохання Білого дому деякі компанії, включно з Microsoft, материнською компанією Google Alphabet і OpenAI, цієї п’ятниці візьмуть публічні зобов’язання забезпечити безпечне використання технологій штучного інтелекту та відповідально розробляти та розгортати штучний інтелект.
Проект документа Білого дому показує, що обіцянки компаній залишатимуться в силі, доки Конгрес США не прийме законодавство щодо вирішення питань, пов’язаних зі штучним інтелектом. Ці обіцянки зосереджені на генеративному штучному інтелекті та найпотужніших існуючих моделях штучного інтелекту та навіть можливих майбутніх моделях. У проекті Білий дім запропонував вісім пунктів зобов'язань:
Дозвольте незалежним експертам виступати в ролі уявних ворогів, намагатися змусити моделі штучного інтелекту виробляти погану поведінку, здійснювати так зване червоне об’єднання проти синіх і синіх і покращувати захисні можливості.
Діліться інформацією про довіру та безпеку з урядами та іншими компаніями.
Використовуйте водяні знаки на аудіо- та відеовмісті, щоб допомогти ідентифікувати створений ШІ вміст.
Інвестуйте в заходи кібербезпеки.
Заохочуйте третіх сторін виявляти діри в безпеці.
Повідомте про соціальні ризики, такі як неправильне використання та упередженість.
Пріоритет дослідження соціальних ризиків ШІ.
Використовуйте найдосконалішу систему ШІ, так звану передову модель, для вирішення найсерйозніших соціальних проблем.
ЗМІ повідомляють, що до цієї п'ятниці конкретний зміст зобов'язань ще може бути змінений. Але очікується, що обіцянки відповідатимуть тим, які були зроблені на травневій зустрічі деяких провідних компаній ШІ.
Також у четвер в іншому звіті говориться, що внутрішній меморандум показує, що OpenAI підтримує впровадження системи ліцензій, тобто для розробки передових систем штучного інтелекту розробникам потрібно спочатку отримати ліцензію, видану урядом. OpenAI також натякнув на готовність бути більш відкритим щодо даних, які використовуються для навчання сканерів штучного інтелекту, таких як DALL-E, заявивши, що він прагне включити підхід на основі походження до кінця цього року.
Однак Маканджу, віце-президент із глобальних питань OpenAI, нещодавно сказав, що режим ліцензування, який підтримується OpenAI, обмежується моделями штучного інтелекту, потужнішими за GPT-4, оскільки OpenAI хоче гарантувати, що малі стартапи не зазнають надто сильного регуляторного тиску.
У коментарі зазначено, що саме добровільне зобов’язання показало, що адміністрація Байдена має обмеження в керуванні моделями ШІ, щоб уникнути зловживань. Конгрес США не зможе ухвалити законопроекти та законодавство в короткостроковій перспективі, а регулювання у сфері штучного інтелекту не можна відкладати.
Уолл-стріт зазначає, що в травні Білий дім скликав зустріч з генеральними директорами Alphabet, Microsoft і OpenAI для обговорення питань безпеки ШІ. У листі-запрошенні Байден тоді повторив, що він сподівається, що ці компанії повинні забезпечити безпеку продукції перед випуском продукції. Він також сказав, що існує занепокоєння, що технологія штучного інтелекту, яка швидко розвивається, може порушити конфіденційність і бути упередженою, поширюючи чутки та дезінформацію.
Минулого місяця Байден ще раз підтвердив необхідність забезпечення безпеки перед випуском продуктів штучного інтелекту, заявивши, що необхідно розглянути національну безпеку та економічні ризики, спричинені ШІ. Глава апарату Білого дому Джефф Зіентс заявив того місяця, що деякі провідні компанії в галузі штучного інтелекту докладають зусиль для співпраці з адміністрацією Байдена і незабаром оголосить про низку зобов’язань щодо конфіденційності та безпеки. Він також сказав, що процес регулювання може бути відносно повільним, але ми не можемо дозволити собі чекати рік чи два.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Законодавство не дійшло до «самоконтролю» першим: гіганти штучного інтелекту обіцяють безпеку продуктів, OpenAI підтримує ліцензування та схвалення розробки систем штучного інтелекту
Автор: Лі Дан
Хоча Сполучені Штати ще не запровадили спеціального законодавства, під тиском адміністрації Байдена деякі гіганти та висхідні зірки у сфері штучного інтелекту (ШІ) OpenAI виступили з ініціативою запропонувати «самоконтроль».
У четвер, 20 липня за східним часом, ЗМІ цитували інсайдерів, які заявили, що на прохання Білого дому деякі компанії, включно з Microsoft, материнською компанією Google Alphabet і OpenAI, цієї п’ятниці візьмуть публічні зобов’язання забезпечити безпечне використання технологій штучного інтелекту та відповідально розробляти та розгортати штучний інтелект.
Проект документа Білого дому показує, що обіцянки компаній залишатимуться в силі, доки Конгрес США не прийме законодавство щодо вирішення питань, пов’язаних зі штучним інтелектом. Ці обіцянки зосереджені на генеративному штучному інтелекті та найпотужніших існуючих моделях штучного інтелекту та навіть можливих майбутніх моделях. У проекті Білий дім запропонував вісім пунктів зобов'язань:
ЗМІ повідомляють, що до цієї п'ятниці конкретний зміст зобов'язань ще може бути змінений. Але очікується, що обіцянки відповідатимуть тим, які були зроблені на травневій зустрічі деяких провідних компаній ШІ.
Також у четвер в іншому звіті говориться, що внутрішній меморандум показує, що OpenAI підтримує впровадження системи ліцензій, тобто для розробки передових систем штучного інтелекту розробникам потрібно спочатку отримати ліцензію, видану урядом. OpenAI також натякнув на готовність бути більш відкритим щодо даних, які використовуються для навчання сканерів штучного інтелекту, таких як DALL-E, заявивши, що він прагне включити підхід на основі походження до кінця цього року.
Однак Маканджу, віце-президент із глобальних питань OpenAI, нещодавно сказав, що режим ліцензування, який підтримується OpenAI, обмежується моделями штучного інтелекту, потужнішими за GPT-4, оскільки OpenAI хоче гарантувати, що малі стартапи не зазнають надто сильного регуляторного тиску.
У коментарі зазначено, що саме добровільне зобов’язання показало, що адміністрація Байдена має обмеження в керуванні моделями ШІ, щоб уникнути зловживань. Конгрес США не зможе ухвалити законопроекти та законодавство в короткостроковій перспективі, а регулювання у сфері штучного інтелекту не можна відкладати.
Уолл-стріт зазначає, що в травні Білий дім скликав зустріч з генеральними директорами Alphabet, Microsoft і OpenAI для обговорення питань безпеки ШІ. У листі-запрошенні Байден тоді повторив, що він сподівається, що ці компанії повинні забезпечити безпеку продукції перед випуском продукції. Він також сказав, що існує занепокоєння, що технологія штучного інтелекту, яка швидко розвивається, може порушити конфіденційність і бути упередженою, поширюючи чутки та дезінформацію.
Минулого місяця Байден ще раз підтвердив необхідність забезпечення безпеки перед випуском продуктів штучного інтелекту, заявивши, що необхідно розглянути національну безпеку та економічні ризики, спричинені ШІ. Глава апарату Білого дому Джефф Зіентс заявив того місяця, що деякі провідні компанії в галузі штучного інтелекту докладають зусиль для співпраці з адміністрацією Байдена і незабаром оголосить про низку зобов’язань щодо конфіденційності та безпеки. Він також сказав, що процес регулювання може бути відносно повільним, але ми не можемо дозволити собі чекати рік чи два.