Управління технологіями, які можуть знищити суспільство.
Джерело зображення: створено інструментом Unbounded AI
Режисер Крістофер Нолан сказав, що він спілкувався з вченими штучного інтелекту, які переживають «момент Оппенгеймера» і стурбовані потенційною руйнівністю своїх творінь. «Я розповідаю історію Оппенгеймера, — сказав він про свій біографічний фільм про Оппенгеймера, — тому що я вважаю, що це важлива історія і, безумовно, застереження». Насправді, деякі люди порівнюють Ультрамена Сема з OpenAI з батьком атомна бомба.
Його біографи називали Оппенгеймера «Американським Прометеєм» за розшифровку від богів таємниць ядерного вогню, який розщеплює матерію, вивільняючи жахливу енергію, яка, як він боявся, може спопелити людську цивілізацію.
І Альтман також цікавився, чи використовував він ChatGPT для сприяння розвитку генеративного штучного інтелекту, чи це теж «дуже погана річ». На слуханнях у Сенаті він сказав: «Якщо з цією технологією щось піде не так, це може спричинити катастрофу».Грегорі Хінтон, відомий як хрещений батько штучного інтелекту, пішов із Google у травні цього року, заявивши, що не впевнений у своєму житті. працювати -- робити машини розумнішими за людей -- частково вибачте. «Буде важко перешкодити зловмисникам використовувати штучний інтелект для поганих вчинків», — попередив він.Крім того, інші його колеги говорили про «ризик зникнення штучного інтелекту», протиставляючи його іншим екзистенційним загрозам, таким як ядерна війна, зміна клімату , та пандемії.
За словами Ювала Ноя Харарі (автора «Короткої історії людства»), руйнівна сила генеративного штучного інтелекту для суспільства може бути не меншою, ніж сила атомних бомб. За словами цитати Оппенгеймера з «Багавад Гіти», це »світ «Руйнівник». Цього разу Homo sapiens стали богами, і неорганічні нащадки, які вони породили, одного дня могли б замінити їхніх предків. У виступі кілька років тому Харарі сказав це так: «Історія людства починається, коли люди створюють богів. Коли люди стають богами, історія людства закінчується».
Харарі та співавтори Трістан Харріс і Аза Раскін пояснюють у нещодавній статті: «Спочатку це була мова. Мова є операційною системою людської культури. З мови виникли міф і закон, боги і гроші, мистецтво і наука, дружба, Держави та комп’ютерний код. Нове володіння мовою ШІ означає, що тепер він може зламувати операційні системи цивілізації та маніпулювати ними. Опановуючи мову, ШІ захоплює головний ключ цивілізації, від банківських сховищ до Гробу Господнього».
Вони продовжували:
Тисячі років ми, люди, жили мріями інших людей. Ми поклоняємося богам, прагнемо прекрасних ідеалів і присвячуємо своє життя справам, які походять з уяви пророків, поетів чи державних діячів. Незабаром ми також опинимося в ілюзії недолюдського розуму...
Невдовзі ми нарешті зіткнемося з демонами Декарта, печерами Платона та буддійськими майями. Завіса галюцинацій може нависати над людством, і ми ніколи не зможемо підняти завісу — або навіть знати про її існування.
Перспектива того, що нелюди будуть писати наші оповіді, настільки стривожила ізраїльського історика та філософа, що він терміново порадив Homo sapiens зупинитися, перш ніж передати контроль над нашим царством технологіям, які ми надаємо. Спустіться та подумайте двічі.
"Ми повинні знати про ШІ, перш ніж наша політика, економіка та повсякденне життя стануть залежними від нього, - попередили вони. - Якщо ми чекатимемо, поки настане хаос, щоб вжити заходів, буде надто пізно".
Ймовірність сценарію «Термінатор» низька
Віце-президент Google Блез Агуера І Аркас і його колеги з Квебецького інституту штучного інтелекту написали в журналі Noema, що вони не думають, що голлівудська сцена "Термінатора" з'явиться найближчим часом. Натомість вони стурбовані тим, що зосередження на «екзистенціальних загрозах» далекому майбутньому відволікатиме людей від пом’якшення очевидної небезпеки, яку ШІ становить для суспільства сьогодні.
Перш ніж штучний інтелект стане суперінтелектом, їхні найгірші страхи вже тут: масове стеження, дезінформація та маніпуляції, зловживання штучним інтелектом у військових цілях і масове переміщення з роботи.
Для цієї групи вчених і технологів "вимирання через шахрайський штучний інтелект є надзвичайно малоймовірним сценарієм, який ґрунтується на сумнівних припущеннях щодо довгострокової еволюції життя, інтелекту, технологій і суспільства. Це також малоймовірний сценарій". -надто вірогідний сценарій, оскільки надрозумній системі штучного інтелекту потрібно буде подолати багато фізичних обмежень і обмежень, перш ніж вона зможе «повстати» таким чином. Існує кілька природних контрольних точок, які дослідники можуть допомогти пом’якшити, вирішуючи відчутні та нагальні проблеми. ШІ ризики, не роблячи чітко екзистенціальні ризики глобальним пріоритетом».
На їхню думку, "є три способи викликати вимирання: конкуренція за ресурси, полювання та надмірне споживання, або зміна клімату або його екологічної ніші, що призводить до екологічних умов, які призводять до його загибелі. Жоден із цих трьох сценаріїв не застосовується до поточного штучного інтелекту ".
Найголовніше: «На даний момент ШІ залежить від нас, і суперрозум, імовірно, визнає цей факт і намагатиметься захистити людство, оскільки ми настільки ж важливі для існування ШІ, як рослини, що виробляють кисень, для нашого існування. Ось чому еволюція взаємозалежності між штучний інтелект і люди набагато більш вірогідні, ніж результат конкуренції».
Платити «нескінченну ціну» за «малоймовірний результат» вимирання — це все одно, що присвятити всю нашу технологічну доблесть, щоб протистояти ймовірності одного з мільйона, що метеор вдарить Землю, і зробити це головним пріоритетом планети. Простіше кажучи, «екзистенціальні ризики, створені надрозумним штучним інтелектом, не заслуговують на те, щоб їх ставили до глобальних пріоритетів поряд зі зміною клімату, ядерною війною та запобіганням пандемії».
Ще один момент Оппенгеймера
Будь-яка небезпека, близька чи віддалена, яка може виникнути внаслідок конкуренції між людьми та надрозумом, що починає розвиватися, лише посилиться конкуренцією між національними державами.
У пізні роки життя Оппенгеймера переслідували, ізолювали, і Комісія з атомної енергії США відкликала його дозвіл безпеки, оскільки маккартистський запал початку холодної війни вважав його товаришем по комуністу. Його злочин: виступ проти розміщення водневих бомб і заклик до співпраці з іншими країнами для контролю за використанням ядерної зброї.
Альтман також закликав до співпраці щодо того, як керувати використанням штучного інтелекту, у своїй промові перед науковцями зі штучного інтелекту в Пекіні в червні цього року. «Китай має найкращі таланти в галузі штучного інтелекту у світі», — сказав він. Керування передовими системами штучного інтелекту «потрібні найкращі уми з усього світу. З появою все більш потужних систем штучного інтелекту ставки на глобальну співпрацю ніколи не були такими високими».
Не можна не запитувати, скільки часу знадобиться, щоб загальне почуття наукової відповідальності Альтмана потрапило в нинішню істерію маккартістів проти Китаю у Вашингтоні, як у Оппенгеймера.
Серед очевидних і існуючих небезпек, які створює штучний інтелект, перш за все це те, як його можна використовувати як зброю. Як попереджає Харарі, час впоратися з цією загрозою настав зараз, а не тільки тоді, коли вона стає реальністю і вже занадто пізно. Відповідальні учасники повинні використовувати мудрість, яку не можуть передати машини, і працювати разом, щоб зменшити ризики. Якщо Ультрамен постраждає ще один момент Оппенгеймера, екзистенціальні ризики стануть ще ближчими.
У вітальному листі держсекретар США Ентоні Блінкен і міністр торгівлі Джина Раймондо визнали, що «жодна країна чи компанія не може самостійно сформувати майбутнє штучного інтелекту... Тільки завдяки спільній увазі, мудрості та співпраці міжнародної спільноти ми можемо повністю та безпечно повністю використовувати потенціал штучного інтелекту».
Однак їхні ініціативи поки що були життєво важливими, але були обмежені стратегічною конкуренцією. Для країн у всьому світі найсерйознішим викликом є те, як спілкуватися безпосередньо, поки гонка озброєнь штучного інтелекту не вийде з-під контролю, і запобігти погіршенню ситуації.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
«Оппенгеймер» вийде в кінотеатри, Сем Альтман буде наступним?
Автор: Натан Гарделс
Походження: Ноема
Режисер Крістофер Нолан сказав, що він спілкувався з вченими штучного інтелекту, які переживають «момент Оппенгеймера» і стурбовані потенційною руйнівністю своїх творінь. «Я розповідаю історію Оппенгеймера, — сказав він про свій біографічний фільм про Оппенгеймера, — тому що я вважаю, що це важлива історія і, безумовно, застереження». Насправді, деякі люди порівнюють Ультрамена Сема з OpenAI з батьком атомна бомба.
Його біографи називали Оппенгеймера «Американським Прометеєм» за розшифровку від богів таємниць ядерного вогню, який розщеплює матерію, вивільняючи жахливу енергію, яка, як він боявся, може спопелити людську цивілізацію.
І Альтман також цікавився, чи використовував він ChatGPT для сприяння розвитку генеративного штучного інтелекту, чи це теж «дуже погана річ». На слуханнях у Сенаті він сказав: «Якщо з цією технологією щось піде не так, це може спричинити катастрофу».Грегорі Хінтон, відомий як хрещений батько штучного інтелекту, пішов із Google у травні цього року, заявивши, що не впевнений у своєму житті. працювати -- робити машини розумнішими за людей -- частково вибачте. «Буде важко перешкодити зловмисникам використовувати штучний інтелект для поганих вчинків», — попередив він.Крім того, інші його колеги говорили про «ризик зникнення штучного інтелекту», протиставляючи його іншим екзистенційним загрозам, таким як ядерна війна, зміна клімату , та пандемії.
За словами Ювала Ноя Харарі (автора «Короткої історії людства»), руйнівна сила генеративного штучного інтелекту для суспільства може бути не меншою, ніж сила атомних бомб. За словами цитати Оппенгеймера з «Багавад Гіти», це »світ «Руйнівник». Цього разу Homo sapiens стали богами, і неорганічні нащадки, які вони породили, одного дня могли б замінити їхніх предків. У виступі кілька років тому Харарі сказав це так: «Історія людства починається, коли люди створюють богів. Коли люди стають богами, історія людства закінчується».
Харарі та співавтори Трістан Харріс і Аза Раскін пояснюють у нещодавній статті: «Спочатку це була мова. Мова є операційною системою людської культури. З мови виникли міф і закон, боги і гроші, мистецтво і наука, дружба, Держави та комп’ютерний код. Нове володіння мовою ШІ означає, що тепер він може зламувати операційні системи цивілізації та маніпулювати ними. Опановуючи мову, ШІ захоплює головний ключ цивілізації, від банківських сховищ до Гробу Господнього».
Вони продовжували:
Перспектива того, що нелюди будуть писати наші оповіді, настільки стривожила ізраїльського історика та філософа, що він терміново порадив Homo sapiens зупинитися, перш ніж передати контроль над нашим царством технологіям, які ми надаємо. Спустіться та подумайте двічі.
"Ми повинні знати про ШІ, перш ніж наша політика, економіка та повсякденне життя стануть залежними від нього, - попередили вони. - Якщо ми чекатимемо, поки настане хаос, щоб вжити заходів, буде надто пізно".
Ймовірність сценарію «Термінатор» низька
Віце-президент Google Блез Агуера І Аркас і його колеги з Квебецького інституту штучного інтелекту написали в журналі Noema, що вони не думають, що голлівудська сцена "Термінатора" з'явиться найближчим часом. Натомість вони стурбовані тим, що зосередження на «екзистенціальних загрозах» далекому майбутньому відволікатиме людей від пом’якшення очевидної небезпеки, яку ШІ становить для суспільства сьогодні.
Перш ніж штучний інтелект стане суперінтелектом, їхні найгірші страхи вже тут: масове стеження, дезінформація та маніпуляції, зловживання штучним інтелектом у військових цілях і масове переміщення з роботи.
Для цієї групи вчених і технологів "вимирання через шахрайський штучний інтелект є надзвичайно малоймовірним сценарієм, який ґрунтується на сумнівних припущеннях щодо довгострокової еволюції життя, інтелекту, технологій і суспільства. Це також малоймовірний сценарій". -надто вірогідний сценарій, оскільки надрозумній системі штучного інтелекту потрібно буде подолати багато фізичних обмежень і обмежень, перш ніж вона зможе «повстати» таким чином. Існує кілька природних контрольних точок, які дослідники можуть допомогти пом’якшити, вирішуючи відчутні та нагальні проблеми. ШІ ризики, не роблячи чітко екзистенціальні ризики глобальним пріоритетом».
На їхню думку, "є три способи викликати вимирання: конкуренція за ресурси, полювання та надмірне споживання, або зміна клімату або його екологічної ніші, що призводить до екологічних умов, які призводять до його загибелі. Жоден із цих трьох сценаріїв не застосовується до поточного штучного інтелекту ".
Найголовніше: «На даний момент ШІ залежить від нас, і суперрозум, імовірно, визнає цей факт і намагатиметься захистити людство, оскільки ми настільки ж важливі для існування ШІ, як рослини, що виробляють кисень, для нашого існування. Ось чому еволюція взаємозалежності між штучний інтелект і люди набагато більш вірогідні, ніж результат конкуренції».
Платити «нескінченну ціну» за «малоймовірний результат» вимирання — це все одно, що присвятити всю нашу технологічну доблесть, щоб протистояти ймовірності одного з мільйона, що метеор вдарить Землю, і зробити це головним пріоритетом планети. Простіше кажучи, «екзистенціальні ризики, створені надрозумним штучним інтелектом, не заслуговують на те, щоб їх ставили до глобальних пріоритетів поряд зі зміною клімату, ядерною війною та запобіганням пандемії».
Ще один момент Оппенгеймера
Будь-яка небезпека, близька чи віддалена, яка може виникнути внаслідок конкуренції між людьми та надрозумом, що починає розвиватися, лише посилиться конкуренцією між національними державами.
У пізні роки життя Оппенгеймера переслідували, ізолювали, і Комісія з атомної енергії США відкликала його дозвіл безпеки, оскільки маккартистський запал початку холодної війни вважав його товаришем по комуністу. Його злочин: виступ проти розміщення водневих бомб і заклик до співпраці з іншими країнами для контролю за використанням ядерної зброї.
Альтман також закликав до співпраці щодо того, як керувати використанням штучного інтелекту, у своїй промові перед науковцями зі штучного інтелекту в Пекіні в червні цього року. «Китай має найкращі таланти в галузі штучного інтелекту у світі», — сказав він. Керування передовими системами штучного інтелекту «потрібні найкращі уми з усього світу. З появою все більш потужних систем штучного інтелекту ставки на глобальну співпрацю ніколи не були такими високими».
Не можна не запитувати, скільки часу знадобиться, щоб загальне почуття наукової відповідальності Альтмана потрапило в нинішню істерію маккартістів проти Китаю у Вашингтоні, як у Оппенгеймера.
Серед очевидних і існуючих небезпек, які створює штучний інтелект, перш за все це те, як його можна використовувати як зброю. Як попереджає Харарі, час впоратися з цією загрозою настав зараз, а не тільки тоді, коли вона стає реальністю і вже занадто пізно. Відповідальні учасники повинні використовувати мудрість, яку не можуть передати машини, і працювати разом, щоб зменшити ризики. Якщо Ультрамен постраждає ще один момент Оппенгеймера, екзистенціальні ризики стануть ще ближчими.
У вітальному листі держсекретар США Ентоні Блінкен і міністр торгівлі Джина Раймондо визнали, що «жодна країна чи компанія не може самостійно сформувати майбутнє штучного інтелекту... Тільки завдяки спільній увазі, мудрості та співпраці міжнародної спільноти ми можемо повністю та безпечно повністю використовувати потенціал штучного інтелекту».
Однак їхні ініціативи поки що були життєво важливими, але були обмежені стратегічною конкуренцією. Для країн у всьому світі найсерйознішим викликом є те, як спілкуватися безпосередньо, поки гонка озброєнь штучного інтелекту не вийде з-під контролю, і запобігти погіршенню ситуації.