Джерело зображення: створено інструментом Unbounded AI
** Голова Комісії з цінних паперів і бірж США (SEC) Гері Генслер попередив у понеділок, що штучний інтелект створює ризики для фінансової стабільності. Поширення штучного інтелекту означає, що урядам, можливо, доведеться переглянути правила, щоб підтримувати глобальну фінансову стабільність, сказав Генслер. Регулятори повинні вирішувати проблеми, пов’язані з розвитком технологій. Генслер повторив, що співробітники SEC зважують необхідність нових правил. **
Генслер називає штучний інтелект «найбільш трансформаційною технологією нашого часу». Відколи він очолив SEC у 2021 році, він часто обговорював вплив штучного інтелекту на фінанси. Ці питання стали ще більш важливими з останніми досягненнями в галузі штучного інтелекту, сказав він у понеділок.
Генслер зазначив, що штучний інтелект може посилити фінансову вразливість, оскільки він може спонукати людей приймати подібні рішення, оскільки вони отримують однакові сигнали від основної моделі чи даних. **Поточні інструкції з управління ризиками моделі були написані до цієї нової хвилі аналізу даних, потребують оновлення та наразі недостатні. **
На більш мікрорівні, Генслер сказав, що компанії повинні знати, що використання ними ШІ може мати наслідки для регулювання цінних паперів. SEC приділятиме пильну увагу: використанню фінансового шахрайства, покращенню корпоративних прибутків та скеровуванню інвесторів до вибору конкретних продуктів. Генслер виділив публічні компанії, сказавши, що їм слід особливо остерігатися введення в оману інвесторів у корпоративних заявах і розкритті інформації про ризики та можливості, які може принести штучний інтелект.
**Генслер сказав, що фінансові консультанти та брокерські компанії також можуть використовувати штучний інтелект, щоб направляти клієнтів на купівлю продуктів, конфлікт інтересів, який SEC планує боротися з цим, починаючи розглядати нові правила з цих питань вже цієї осені. ** «Коли комунікація, доступність продукту та ціноутворення можуть бути ефективно орієнтовані на кожного з нас, виробникам стає легше знайти максимальну ціну, яку кожен готовий заплатити за продукт».
Генслер вважає, що слідчі з Комісії з цінних паперів і цінних паперів США можуть отримати вигоду від більш широкого використання штучного інтелекту, в тому числі для спостереження, аналізу та правоохоронної діяльності. Завдання SEC полягає в тому, щоб сприяти розвитку конкурентного та ефективного ринку для його потенційного домінування в центрі ринків капіталу. Це має бути ретельно оцінено SEC, щоб вона могла продовжувати сприяти конкуренції, прозорості та справедливому виходу на ринок.
Виступаючи публічно в травні, Генслер сказав, що наступна фінансова криза може статися через корпоративне використання штучного інтелекту, попередивши про потенційні «системні ризики», пов’язані з поширенням технології. Банки та деякі фінансові установи вже використовують штучний інтелект у різноманітних функціях, включаючи важку роботу з дотримання вимог, яка часто передбачає оцінку нових клієнтів або перевірку підозрілих транзакцій. Але, незважаючи на потенціал підвищення ефективності, ці системи повинні бути піддані ретельному розгляду, сказав Генслер. «Вам не обов’язково розуміти математику, але ви дійсно повинні розуміти, як працює управління ризиками», — він підкреслив можливість прийняття упереджених рішень.
Оскільки пожежа поширюється по всьому світу, продукти генеративного штучного інтелекту все більше стають центром уваги регуляторних органів у всьому світі. У травні адміністрація Байдена намагалася розробити національну стратегію ШІ для захисту від дезінформації та інших потенційних недоліків технології. Минулого тижня Федеральна торгова комісія США (FTC) офіційно розслідувала ChatGPT, перше офіційне розслідування регулятора США. Розслідування FTC зосереджується на тому, чи ChatGPT, чат-робот, що належить OpenAI, завдав шкоди відповідним особам, опублікувавши неправдиву інформацію.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Наближаються нові правила! Глава SEC попереджає, що ШІ створює ризики для фінансової стабільності
Автор: Хе Хао
** Голова Комісії з цінних паперів і бірж США (SEC) Гері Генслер попередив у понеділок, що штучний інтелект створює ризики для фінансової стабільності. Поширення штучного інтелекту означає, що урядам, можливо, доведеться переглянути правила, щоб підтримувати глобальну фінансову стабільність, сказав Генслер. Регулятори повинні вирішувати проблеми, пов’язані з розвитком технологій. Генслер повторив, що співробітники SEC зважують необхідність нових правил. **
Генслер називає штучний інтелект «найбільш трансформаційною технологією нашого часу». Відколи він очолив SEC у 2021 році, він часто обговорював вплив штучного інтелекту на фінанси. Ці питання стали ще більш важливими з останніми досягненнями в галузі штучного інтелекту, сказав він у понеділок.
Генслер зазначив, що штучний інтелект може посилити фінансову вразливість, оскільки він може спонукати людей приймати подібні рішення, оскільки вони отримують однакові сигнали від основної моделі чи даних. **Поточні інструкції з управління ризиками моделі були написані до цієї нової хвилі аналізу даних, потребують оновлення та наразі недостатні. **
На більш мікрорівні, Генслер сказав, що компанії повинні знати, що використання ними ШІ може мати наслідки для регулювання цінних паперів. SEC приділятиме пильну увагу: використанню фінансового шахрайства, покращенню корпоративних прибутків та скеровуванню інвесторів до вибору конкретних продуктів. Генслер виділив публічні компанії, сказавши, що їм слід особливо остерігатися введення в оману інвесторів у корпоративних заявах і розкритті інформації про ризики та можливості, які може принести штучний інтелект.
**Генслер сказав, що фінансові консультанти та брокерські компанії також можуть використовувати штучний інтелект, щоб направляти клієнтів на купівлю продуктів, конфлікт інтересів, який SEC планує боротися з цим, починаючи розглядати нові правила з цих питань вже цієї осені. ** «Коли комунікація, доступність продукту та ціноутворення можуть бути ефективно орієнтовані на кожного з нас, виробникам стає легше знайти максимальну ціну, яку кожен готовий заплатити за продукт».
Генслер вважає, що слідчі з Комісії з цінних паперів і цінних паперів США можуть отримати вигоду від більш широкого використання штучного інтелекту, в тому числі для спостереження, аналізу та правоохоронної діяльності. Завдання SEC полягає в тому, щоб сприяти розвитку конкурентного та ефективного ринку для його потенційного домінування в центрі ринків капіталу. Це має бути ретельно оцінено SEC, щоб вона могла продовжувати сприяти конкуренції, прозорості та справедливому виходу на ринок.
Виступаючи публічно в травні, Генслер сказав, що наступна фінансова криза може статися через корпоративне використання штучного інтелекту, попередивши про потенційні «системні ризики», пов’язані з поширенням технології. Банки та деякі фінансові установи вже використовують штучний інтелект у різноманітних функціях, включаючи важку роботу з дотримання вимог, яка часто передбачає оцінку нових клієнтів або перевірку підозрілих транзакцій. Але, незважаючи на потенціал підвищення ефективності, ці системи повинні бути піддані ретельному розгляду, сказав Генслер. «Вам не обов’язково розуміти математику, але ви дійсно повинні розуміти, як працює управління ризиками», — він підкреслив можливість прийняття упереджених рішень.
Оскільки пожежа поширюється по всьому світу, продукти генеративного штучного інтелекту все більше стають центром уваги регуляторних органів у всьому світі. У травні адміністрація Байдена намагалася розробити національну стратегію ШІ для захисту від дезінформації та інших потенційних недоліків технології. Минулого тижня Федеральна торгова комісія США (FTC) офіційно розслідувала ChatGPT, перше офіційне розслідування регулятора США. Розслідування FTC зосереджується на тому, чи ChatGPT, чат-робот, що належить OpenAI, завдав шкоди відповідним особам, опублікувавши неправдиву інформацію.