Перспективи та шкода штучного інтелекту є гарячими темами в наші дні. Дехто каже, що штучний інтелект врятує нас, допоможе діагностувати деякі злоякісні захворювання, подолає цифровий розрив в освіті тощо. Але є також занепокоєння щодо загрози, яку це становить для війни, безпеки, дезінформації тощо. Це стало розвагою для простих людей і забило на сполох у діловому світі.
Штучний інтелект дуже корисний, але він ще не може заглушити шум кімнати, повної балаканини. Цього тижня вчені, регулятори, урядові лідери, стартапи, великі технологічні компанії та десятки комерційних і некомерційних організацій зібралися у Великій Британії, щоб обговорити та обговорити штучний інтелект.
Чому Великобританія? Чому саме зараз? **
У середу та четвер Велика Британія прийматиме саміт з безпеки штучного інтелекту в Блетчлі-парку, перший у своєму роді у Великій Британії.
Саміт був запланований на кілька місяців, щоб вивчити деякі довгострокові проблеми та ризики, пов'язані зі штучним інтелектом. Цілі саміту ідеальні, а не конкретні: «спільне розуміння ризиків, пов'язаних з прикордонним штучним інтелектом, і необхідності дій», «далекоглядний процес міжнародного співробітництва щодо безпеки прикордонного ШІ, включаючи те, як найкраще підтримувати національні та міжнародні рамки», «організації повинні вжити відповідних заходів для підвищення безпеки прикордонного ШІ» тощо.
Це прагнення високого рівня також відображається в особистостях учасників: будуть присутні високопоставлені державні чиновники, лідери галузі та видатні мислителі в цій галузі. (Згідно з останніми повідомленнями: Ілон Маск, президент Байден, Джастін Трюдо та Олаф Шольц, серед інших, будуть присутні).
Саміт звучав по-особливому, і так воно і було: «золотий квиток» на саміт (описаний засновником і автором лондонських технологій Азімом Азхаром) був у дефіциті. Повідомляється, що саміт буде невеликим і переважно закритим. Ці заходи включають виступи в Королівському товаристві (Національна академія наук); Масштабні конференції «AI Fringe» у багатьох містах та оголошення від багатьох цільових груп.
Джина Нефф, виконавчий директор Центру технологій і демократії Мінделоу при Кембриджському університеті, сказала на вечірній панельній дискусії з питань науки та безпеки в Королівському товаристві минулого тижня: «Ми збираємося зіграти роль саміту, який ми вже провели. Іншими словами, захід у Блечлі робитиме те, що має робити, а те, що не входить до рамок заходу, стане можливістю для людей обговорити інші питання. "
Панельна дискусія Нефф стала яскравим прикладом: у переповненому залі Королівського товариства вона сиділа з представниками Human Rights Watch, державними чиновниками з великої профспілки Unite, засновником Tech Global Institute, аналітичним центром, що займається питаннями технологічної рівності на Глобальному Півдні, керівником відділу державної політики стартапу Stability AI та комп'ютерниками Кембриджського університету.
При цьому так звану зустріч AI edge, можна сказати, є лише номінальним «краєм». Оскільки саміт у Блечлі проходив у тому ж місці протягом тижня, з дуже обмеженим списком гостей і настільки ж обмеженими можливостями дізнатися про те, що обговорювалося, сесія AI Edge була швидко розширена до Блетчлі та конкретизувала порядок денний конференції. Повідомляється, що захід був організований не урядом, а PR-фірмою під назвою Milltown Partners (яка представляла такі компанії, як DeepMind, Stripe і венчурну фірму Atomico), і, що цікаво, він тривав цілий тиждень, проходив у кількох місцях по всій країні та був безкоштовним для тих, хто міг отримати квитки (багато заходів були розпродані), і багато сесій також були доступні на потокових сервісах.
Незважаючи на різноманіття, було дуже сумно бачити, що дискусія про штучний інтелект, незважаючи на свою зародковість, все ще була такою розділеною: одна була зустріччю сил влади (більша частина якої була відкрита лише для запрошених гостей), а інша була зустріччю решти з нас.
Раніше сьогодні група зі 100 профспілок та активістів надіслала листа прем'єр-міністру, в якому заявила, що уряд «вичавлює» їхні голоси в розмові, не дозволяючи їм брати участь у Блетчлі-парку. (Можливо, вони не отримали квитків, але їхній спосіб протистояти їм був абсолютно розумним: група оприлюднила його, поділившись листом з найелітнішими економічними виданнями країни, такими як Financial Times).
Не тільки звичайні люди залишаються на морозі. Карісса Веліс, викладач кафедри філософії Оксфордського університету, сказала на сьогоднішньому заході AI Edge: «Ніхто з людей, яких я знаю, не був запрошений. "
Дехто вважає, що впорядкування має свої переваги.
Вчений-дослідник штучного інтелекту Маріус Хоббхан є співзасновником і керівником компанії Apollo Research, яка займається розробкою інструментів безпеки штучного інтелекту. Він вважає, що менша кількість людей також може привернути більше уваги: «Чим більше людей у залі, тим важче зробити якісь висновки чи провести ефективну дискусію», — сказав він.
У ширшому сенсі саміт – це лише «цеглина» і частина ширшої розмови, яка зараз триває. Минулого тижня прем'єр-міністр Великої Британії Ріші Сунак заявив, що має намір створити новий інститут безпеки штучного інтелекту та дослідницьку мережу у Великій Британії, щоб витрачати більше часу та зусиль на вивчення впливу штучного інтелекту; Група видатних вчених на чолі з Йошуа Бенджіо та Джеффрі Хінтоном колективно занурилася в цю сферу зі статтею під назвою «Управління ризиками штучного інтелекту в епоху швидкого прогресу»; Організація Об'єднаних Націй також оголосила про створення власної цільової групи для вивчення впливу штучного інтелекту. Нещодавно президент США Джо Байден також видав власний указ США про встановлення стандартів безпеки ШІ.
"Екзистенційний ризик"
Одна з найбільших дискусій полягає в тому, чи є ідея про те, що ШІ становить «екзистенційний ризик», перебільшеною або навіть навмисною, щоб усунути контроль за більш прямою діяльністю ШІ.
Метт Келлі, професор системної математики в Кембриджському університеті, зазначає, що однією з найбільш часто цитованих сфер є дезінформація.
«Дезінформація не є новою. Це навіть не щось нове в цьому столітті чи минулому", - сказав він в інтерв'ю минулого тижня. «Але це одна зі сфер, де, на нашу думку, існують потенційні ризики для ШІ в короткостроковій і середньостроковій перспективі. І ці ризики розвиваються повільно з часом. Келлі, член Королівського товариства науки, сказав, що товариство також провело червоно-сині командні вправи спеціально для дезінформації в науці під час підготовки до саміту, щоб побачити, як поводитимуться великі мовні моделі, намагаючись конкурувати одна з одною. Це спроба краще зрозуміти, які ризики є зараз».
Уряд Великої Британії, схоже, дотримується дволикого підходу до цих дебатів, причому небезпека очевидніша, ніж назва заходу, який він організовує, Саміт з безпеки штучного інтелекту.
У своїй промові минулого тижня Сунак сказав: «Зараз у нас немає спільного розуміння ризиків, з якими ми стикаємося. «Без цього консенсусу ми не можемо розраховувати на спільне вирішення цих ризиків». Ось чому ми будемо робити сильний поштовх для першої міжнародної заяви про природу цих ризиків».
Але, організовуючи саміт, Велика Британія спочатку позиціонувала себе як центрального гравця у визначенні порядку денного «про те, про що ми говоримо, коли говоримо про штучний інтелект», і вона, безумовно, має економічну перспективу.
"Зробивши Велику Британію світовим лідером у галузі безпечного штучного інтелекту, ми залучимо більше нових робочих місць та інвестицій від цієї хвилі нових технологій", - зазначив Сунак. (Записка також була отримана іншими відомствами: міністр внутрішніх справ сьогодні провів захід з Internet Watch Foundation і низкою великих компаній-розробників споживчих додатків, таких як TikTok і Snap, щоб боротися з поширенням зображень сексуального насильства, створених штучним інтелектом).
Може здатися, що залучення Big Tech певним чином допомагає, але критики схильні розглядати це також як проблему. «Регуляторне захоплення», коли більші впливові гравці галузі вживають активних заходів для обговорення та розробки ризиків і захисту, було ще однією важливою темою в чудовому новому світі штучного інтелекту, і саміт цього тижня не є винятком.
«Остерігайтеся лідерів штучного інтелекту, які піднімають руки і кажуть: «Я, я». Найджел Тун, генеральний директор виробника мікросхем штучного інтелекту Graphcore, проникливо зазначив у статті, яку він написав про майбутній саміт цього тижня: «Уряди, швидше за все, втрутяться і повірять на слово». (Однак він не зовсім маргінальний: він сам буде присутній на саміті.)
У той же час багато людей все ще сперечаються, чи є нинішній так званий екзистенційний ризик корисною вправою в мисленні.
«Я думаю, що риторика кордонів і штучного інтелекту поставила нас у стан страху перед технологіями за останній рік», — сказав Бен Брукс, керівник відділу державної політики Stability AI, на панельній дискусії в Королівському товаристві, навівши уявний експеримент «Максанти» — коли ШІ може знищити світ, створюючи скріпки без урахування людських потреб чи безпеки — як приклад цього навмисно обмежувального підходу. «Вони не думають про обставини, за яких ШІ може бути розгорнутий. Але ви можете сміливо розвивати його. Ми хочемо, щоб усі надихнулися цим і зрозуміли, що штучний інтелект досяжний і безпечний. "
Інші менш впевнені.
Хоббхан з Apollo Research сказав: «Чесно кажучи, я не думаю, що екзистенційний ризик є точним. «Назвемо це катастрофічним ризиком». Враховуючи темпи розвитку в останні роки, генеративні програми штучного інтелекту вивели великі мовні моделі в мейнстрім, і він вважає, що найбільшим занепокоєнням залишаться погані суб'єкти, які використовують ШІ, а не сам штучний інтелект у бунті: використання його для біологічної війни, ситуації з національною безпекою та дезінформації, яка може змінити демократичний процес. За його словами, все це сфери, де, на його думку, штучний інтелект, ймовірно, відіграватиме катастрофічну роль.
"Лауреати премії Тюрінга відкрито стурбовані виживанням і катастрофічними ризиками... Ми дійсно повинні думати про це", - додав він.
Перспективи бізнесу
Хоча існують серйозні ризики, Велика Британія також хоче зробити країну природним домом для компаній, що займаються штучним інтелектом, проводячи великі дискусії про штучний інтелект. Однак деякі аналітики вважають, що шлях до інвестування в ШІ може бути не таким гладким, як деякі прогнозують.
«Я думаю, що починає з'являтися реальність, що компанії починають розуміти, скільки часу та грошей їм потрібно виділити на генеративні проєкти штучного інтелекту, щоб отримати надійні результати, які дійсно можуть підвищити продуктивність і дохід», — сказав Авіва Літан, корпоративний віце-президент-аналітик Gartner. «Незважаючи на те, що вони вносять ітеративні корективи та інженерні роботи над проектом, вони все одно потребують ручного нагляду за операціями та результатами. Коротше кажучи, вихід GenAI недостатньо надійний і вимагає багато ресурсів, щоб зробити його надійним. Звичайно, модель весь час вдосконалюється, але такий поточний стан ринку. Але в той же час ми бачимо, що все більше і більше проектів виходять на стадію виробництва. "
Вона вважає, що інвестиції в ШІ «безумовно сповільнять зростання бізнесу та державних організацій, які використовують ШІ». Постачальники просувають свої програми та продукти штучного інтелекту, але компанії не можуть впровадити їх так швидко, як їх просувають. Крім того, існує багато ризиків, пов'язаних із програмами GenAI, наприклад, демократизація легкого доступу до конфіденційної інформації навіть всередині організації. "
Подібно до того, як «цифрова трансформація» в реальності є скоріше концепцією, що повільно горить, інвестиційна стратегія підприємства в галузі штучного інтелекту також потребує більше часу. «Компаніям потрібен час, щоб заблокувати свої структуровані та неструктуровані набори даних і правильно та ефективно встановити дозволи. На підприємстві занадто багато надмірного обміну, який до того часу не мав особливого значення. Літан додає: «Тепер будь-хто може отримати доступ до будь-якого файлу, який інші не захищені належним чином, за допомогою простої команди рідною мовою, наприклад, англійською». "
Той факт, що те, як збалансувати комерційні інтереси штучного інтелекту з питаннями безпеки та ризиків, які обговорюватиме Блетчлі-Парк, багато говорить про майбутнє завдання, але також підкреслює напруженість ситуації. Пізніше під час конференції організатори Блетчлі, як повідомляється, працювали над тим, щоб розширити дискусію за межі занепокоєння високого рівня безпеки до сфер, де дійсно можуть виникнути ризики, таких як охорона здоров'я, хоча ця зміна не деталізована в оголошеному порядку денному.
«Буде круглий стіл за участю близько 100 експертів, що не мало. Я критик, але це не звучить як погана ідея», — каже Нефф, професор Кембриджського університету. «Тепер глобальне регулювання буде темою для обговорення? Категорично ні. Чи збираємося ми нормалізувати відносини між Сходом і Заходом? Скоріш за все, ні. Але ми підходимо до нашого саміту. Я думаю, що на цьому етапі можуть бути дуже цікаві можливості. "
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Попередній перегляд саміту з безпеки штучного інтелекту у Великій Британії: чому саме зараз, чому Великобританія
Слова: Інгрід Лунден
Джерело: TechCrunch
Перспективи та шкода штучного інтелекту є гарячими темами в наші дні. Дехто каже, що штучний інтелект врятує нас, допоможе діагностувати деякі злоякісні захворювання, подолає цифровий розрив в освіті тощо. Але є також занепокоєння щодо загрози, яку це становить для війни, безпеки, дезінформації тощо. Це стало розвагою для простих людей і забило на сполох у діловому світі.
Штучний інтелект дуже корисний, але він ще не може заглушити шум кімнати, повної балаканини. Цього тижня вчені, регулятори, урядові лідери, стартапи, великі технологічні компанії та десятки комерційних і некомерційних організацій зібралися у Великій Британії, щоб обговорити та обговорити штучний інтелект.
Чому Великобританія? Чому саме зараз? **
У середу та четвер Велика Британія прийматиме саміт з безпеки штучного інтелекту в Блетчлі-парку, перший у своєму роді у Великій Британії.
Саміт був запланований на кілька місяців, щоб вивчити деякі довгострокові проблеми та ризики, пов'язані зі штучним інтелектом. Цілі саміту ідеальні, а не конкретні: «спільне розуміння ризиків, пов'язаних з прикордонним штучним інтелектом, і необхідності дій», «далекоглядний процес міжнародного співробітництва щодо безпеки прикордонного ШІ, включаючи те, як найкраще підтримувати національні та міжнародні рамки», «організації повинні вжити відповідних заходів для підвищення безпеки прикордонного ШІ» тощо.
Це прагнення високого рівня також відображається в особистостях учасників: будуть присутні високопоставлені державні чиновники, лідери галузі та видатні мислителі в цій галузі. (Згідно з останніми повідомленнями: Ілон Маск, президент Байден, Джастін Трюдо та Олаф Шольц, серед інших, будуть присутні).
Саміт звучав по-особливому, і так воно і було: «золотий квиток» на саміт (описаний засновником і автором лондонських технологій Азімом Азхаром) був у дефіциті. Повідомляється, що саміт буде невеликим і переважно закритим. Ці заходи включають виступи в Королівському товаристві (Національна академія наук); Масштабні конференції «AI Fringe» у багатьох містах та оголошення від багатьох цільових груп.
Джина Нефф, виконавчий директор Центру технологій і демократії Мінделоу при Кембриджському університеті, сказала на вечірній панельній дискусії з питань науки та безпеки в Королівському товаристві минулого тижня: «Ми збираємося зіграти роль саміту, який ми вже провели. Іншими словами, захід у Блечлі робитиме те, що має робити, а те, що не входить до рамок заходу, стане можливістю для людей обговорити інші питання. "
Панельна дискусія Нефф стала яскравим прикладом: у переповненому залі Королівського товариства вона сиділа з представниками Human Rights Watch, державними чиновниками з великої профспілки Unite, засновником Tech Global Institute, аналітичним центром, що займається питаннями технологічної рівності на Глобальному Півдні, керівником відділу державної політики стартапу Stability AI та комп'ютерниками Кембриджського університету.
При цьому так звану зустріч AI edge, можна сказати, є лише номінальним «краєм». Оскільки саміт у Блечлі проходив у тому ж місці протягом тижня, з дуже обмеженим списком гостей і настільки ж обмеженими можливостями дізнатися про те, що обговорювалося, сесія AI Edge була швидко розширена до Блетчлі та конкретизувала порядок денний конференції. Повідомляється, що захід був організований не урядом, а PR-фірмою під назвою Milltown Partners (яка представляла такі компанії, як DeepMind, Stripe і венчурну фірму Atomico), і, що цікаво, він тривав цілий тиждень, проходив у кількох місцях по всій країні та був безкоштовним для тих, хто міг отримати квитки (багато заходів були розпродані), і багато сесій також були доступні на потокових сервісах.
Незважаючи на різноманіття, було дуже сумно бачити, що дискусія про штучний інтелект, незважаючи на свою зародковість, все ще була такою розділеною: одна була зустріччю сил влади (більша частина якої була відкрита лише для запрошених гостей), а інша була зустріччю решти з нас.
Раніше сьогодні група зі 100 профспілок та активістів надіслала листа прем'єр-міністру, в якому заявила, що уряд «вичавлює» їхні голоси в розмові, не дозволяючи їм брати участь у Блетчлі-парку. (Можливо, вони не отримали квитків, але їхній спосіб протистояти їм був абсолютно розумним: група оприлюднила його, поділившись листом з найелітнішими економічними виданнями країни, такими як Financial Times).
Не тільки звичайні люди залишаються на морозі. Карісса Веліс, викладач кафедри філософії Оксфордського університету, сказала на сьогоднішньому заході AI Edge: «Ніхто з людей, яких я знаю, не був запрошений. "
Дехто вважає, що впорядкування має свої переваги.
Вчений-дослідник штучного інтелекту Маріус Хоббхан є співзасновником і керівником компанії Apollo Research, яка займається розробкою інструментів безпеки штучного інтелекту. Він вважає, що менша кількість людей також може привернути більше уваги: «Чим більше людей у залі, тим важче зробити якісь висновки чи провести ефективну дискусію», — сказав він.
У ширшому сенсі саміт – це лише «цеглина» і частина ширшої розмови, яка зараз триває. Минулого тижня прем'єр-міністр Великої Британії Ріші Сунак заявив, що має намір створити новий інститут безпеки штучного інтелекту та дослідницьку мережу у Великій Британії, щоб витрачати більше часу та зусиль на вивчення впливу штучного інтелекту; Група видатних вчених на чолі з Йошуа Бенджіо та Джеффрі Хінтоном колективно занурилася в цю сферу зі статтею під назвою «Управління ризиками штучного інтелекту в епоху швидкого прогресу»; Організація Об'єднаних Націй також оголосила про створення власної цільової групи для вивчення впливу штучного інтелекту. Нещодавно президент США Джо Байден також видав власний указ США про встановлення стандартів безпеки ШІ.
"Екзистенційний ризик"
Одна з найбільших дискусій полягає в тому, чи є ідея про те, що ШІ становить «екзистенційний ризик», перебільшеною або навіть навмисною, щоб усунути контроль за більш прямою діяльністю ШІ.
Метт Келлі, професор системної математики в Кембриджському університеті, зазначає, що однією з найбільш часто цитованих сфер є дезінформація.
«Дезінформація не є новою. Це навіть не щось нове в цьому столітті чи минулому", - сказав він в інтерв'ю минулого тижня. «Але це одна зі сфер, де, на нашу думку, існують потенційні ризики для ШІ в короткостроковій і середньостроковій перспективі. І ці ризики розвиваються повільно з часом. Келлі, член Королівського товариства науки, сказав, що товариство також провело червоно-сині командні вправи спеціально для дезінформації в науці під час підготовки до саміту, щоб побачити, як поводитимуться великі мовні моделі, намагаючись конкурувати одна з одною. Це спроба краще зрозуміти, які ризики є зараз».
Уряд Великої Британії, схоже, дотримується дволикого підходу до цих дебатів, причому небезпека очевидніша, ніж назва заходу, який він організовує, Саміт з безпеки штучного інтелекту.
У своїй промові минулого тижня Сунак сказав: «Зараз у нас немає спільного розуміння ризиків, з якими ми стикаємося. «Без цього консенсусу ми не можемо розраховувати на спільне вирішення цих ризиків». Ось чому ми будемо робити сильний поштовх для першої міжнародної заяви про природу цих ризиків».
Але, організовуючи саміт, Велика Британія спочатку позиціонувала себе як центрального гравця у визначенні порядку денного «про те, про що ми говоримо, коли говоримо про штучний інтелект», і вона, безумовно, має економічну перспективу.
"Зробивши Велику Британію світовим лідером у галузі безпечного штучного інтелекту, ми залучимо більше нових робочих місць та інвестицій від цієї хвилі нових технологій", - зазначив Сунак. (Записка також була отримана іншими відомствами: міністр внутрішніх справ сьогодні провів захід з Internet Watch Foundation і низкою великих компаній-розробників споживчих додатків, таких як TikTok і Snap, щоб боротися з поширенням зображень сексуального насильства, створених штучним інтелектом).
Може здатися, що залучення Big Tech певним чином допомагає, але критики схильні розглядати це також як проблему. «Регуляторне захоплення», коли більші впливові гравці галузі вживають активних заходів для обговорення та розробки ризиків і захисту, було ще однією важливою темою в чудовому новому світі штучного інтелекту, і саміт цього тижня не є винятком.
«Остерігайтеся лідерів штучного інтелекту, які піднімають руки і кажуть: «Я, я». Найджел Тун, генеральний директор виробника мікросхем штучного інтелекту Graphcore, проникливо зазначив у статті, яку він написав про майбутній саміт цього тижня: «Уряди, швидше за все, втрутяться і повірять на слово». (Однак він не зовсім маргінальний: він сам буде присутній на саміті.)
У той же час багато людей все ще сперечаються, чи є нинішній так званий екзистенційний ризик корисною вправою в мисленні.
«Я думаю, що риторика кордонів і штучного інтелекту поставила нас у стан страху перед технологіями за останній рік», — сказав Бен Брукс, керівник відділу державної політики Stability AI, на панельній дискусії в Королівському товаристві, навівши уявний експеримент «Максанти» — коли ШІ може знищити світ, створюючи скріпки без урахування людських потреб чи безпеки — як приклад цього навмисно обмежувального підходу. «Вони не думають про обставини, за яких ШІ може бути розгорнутий. Але ви можете сміливо розвивати його. Ми хочемо, щоб усі надихнулися цим і зрозуміли, що штучний інтелект досяжний і безпечний. "
Інші менш впевнені.
Хоббхан з Apollo Research сказав: «Чесно кажучи, я не думаю, що екзистенційний ризик є точним. «Назвемо це катастрофічним ризиком». Враховуючи темпи розвитку в останні роки, генеративні програми штучного інтелекту вивели великі мовні моделі в мейнстрім, і він вважає, що найбільшим занепокоєнням залишаться погані суб'єкти, які використовують ШІ, а не сам штучний інтелект у бунті: використання його для біологічної війни, ситуації з національною безпекою та дезінформації, яка може змінити демократичний процес. За його словами, все це сфери, де, на його думку, штучний інтелект, ймовірно, відіграватиме катастрофічну роль.
"Лауреати премії Тюрінга відкрито стурбовані виживанням і катастрофічними ризиками... Ми дійсно повинні думати про це", - додав він.
Перспективи бізнесу
Хоча існують серйозні ризики, Велика Британія також хоче зробити країну природним домом для компаній, що займаються штучним інтелектом, проводячи великі дискусії про штучний інтелект. Однак деякі аналітики вважають, що шлях до інвестування в ШІ може бути не таким гладким, як деякі прогнозують.
«Я думаю, що починає з'являтися реальність, що компанії починають розуміти, скільки часу та грошей їм потрібно виділити на генеративні проєкти штучного інтелекту, щоб отримати надійні результати, які дійсно можуть підвищити продуктивність і дохід», — сказав Авіва Літан, корпоративний віце-президент-аналітик Gartner. «Незважаючи на те, що вони вносять ітеративні корективи та інженерні роботи над проектом, вони все одно потребують ручного нагляду за операціями та результатами. Коротше кажучи, вихід GenAI недостатньо надійний і вимагає багато ресурсів, щоб зробити його надійним. Звичайно, модель весь час вдосконалюється, але такий поточний стан ринку. Але в той же час ми бачимо, що все більше і більше проектів виходять на стадію виробництва. "
Вона вважає, що інвестиції в ШІ «безумовно сповільнять зростання бізнесу та державних організацій, які використовують ШІ». Постачальники просувають свої програми та продукти штучного інтелекту, але компанії не можуть впровадити їх так швидко, як їх просувають. Крім того, існує багато ризиків, пов'язаних із програмами GenAI, наприклад, демократизація легкого доступу до конфіденційної інформації навіть всередині організації. "
Подібно до того, як «цифрова трансформація» в реальності є скоріше концепцією, що повільно горить, інвестиційна стратегія підприємства в галузі штучного інтелекту також потребує більше часу. «Компаніям потрібен час, щоб заблокувати свої структуровані та неструктуровані набори даних і правильно та ефективно встановити дозволи. На підприємстві занадто багато надмірного обміну, який до того часу не мав особливого значення. Літан додає: «Тепер будь-хто може отримати доступ до будь-якого файлу, який інші не захищені належним чином, за допомогою простої команди рідною мовою, наприклад, англійською». "
Той факт, що те, як збалансувати комерційні інтереси штучного інтелекту з питаннями безпеки та ризиків, які обговорюватиме Блетчлі-Парк, багато говорить про майбутнє завдання, але також підкреслює напруженість ситуації. Пізніше під час конференції організатори Блетчлі, як повідомляється, працювали над тим, щоб розширити дискусію за межі занепокоєння високого рівня безпеки до сфер, де дійсно можуть виникнути ризики, таких як охорона здоров'я, хоча ця зміна не деталізована в оголошеному порядку денному.
«Буде круглий стіл за участю близько 100 експертів, що не мало. Я критик, але це не звучить як погана ідея», — каже Нефф, професор Кембриджського університету. «Тепер глобальне регулювання буде темою для обговорення? Категорично ні. Чи збираємося ми нормалізувати відносини між Сходом і Заходом? Скоріш за все, ні. Але ми підходимо до нашого саміту. Я думаю, що на цьому етапі можуть бути дуже цікаві можливості. "