Ця стаття була вперше опублікована в додатку Titanium Media
Ендрю Нг, засновник Google Brain і професор Стенфордського університету, зазначив, що регулювання ШІ знищує інновації. Маск же вважає, що ШІ небезпечніший за ядерну зброю (ядерні бомби).
У зв'язку з тим, що уряд США випустив нові правила щодо штучного інтелекту, останнім часом відродилися суперечки щодо регулювання великих моделей штучного інтелекту.
Рано вранці 2 листопада за пекінським часом, коли Сем Альтман, «батько ChatGPT» і генеральний директор OpenAI, брав участь у заході в Кембриджі, Англія, він зіткнувся з рішучим опором з боку активістів, які виступають проти ШІ, і був «розбитий» на його очах у глядацькій залі, а кілька протестувальників вимагали припинити змагання зі штучного інтелекту.
Деякі протестувальники навіть розвішували банери та скидали листівки на балкони, і деякий час у сцені панував хаос. Звичайно, Ультрамен був дуже спокійний і спокійно завершив захід.
У своїй промові Альтман сказав, що навіть якщо моделі ШІ будуть досить потужними в майбутньому, для їх роботи знадобляться величезні обчислювальні потужності. Якщо поріг обчислювальної потужності буде підвищено, ризик навмисного злочину можна знизити, а також покращити підзвітність. Раніше співзасновник OpenAI Ілля Суцкевер прямо заявив, що ChatGPT може бути свідомим, а ШІ матиме потенційні ризики.
У той же час Янн Лекун, головний науковий співробітник Meta AI і лауреат премії Тюрінга 2018 року, останнім часом неодноразово критикував Альтмана, генерального директора DeepMind Деміса Хассабіса, генерального директора Anthropic та інших на соціальних платформах за «масштабне корпоративне лобіювання» уряду США, яке в кінцевому підсумку може призвести до того, що лише кілька великих технологічних гігантів зможуть контролювати технологію штучного інтелекту.
Ян Лікун зазначив, що ці люди поширюють страх. «Якщо вони досягнуть успіху, ми з вами неминуче призведемо до катастрофи – кілька компаній візьмуть під контроль штучний інтелект».
Згодом Хассабіс відповів: «Я категорично не згоден з більшістю зауважень Ян Лікуня. Він зазначив, що Google DeepMind не намагається досягти «нормативного захоплення» під час обговорення того, як найкраще використовувати ШІ, і важливіше почати обговорювати, як регулювати потенційний суперштучний інтелект вже зараз.
У той час, коли конкуренція за великі моделі ШІ стає все більш жорсткою, індустрія вступила в «рукопашний бій», і всі ведуть запеклі баталії навколо теми гігантів, які контролюють ІІ.
Штучний інтелект є найбільшою загрозою для людства? Маск: ШІ буде розумнішим за людей
За останні 12 місяців ChatGPT захопив світ, а генеративний штучний інтелект повністю став центральною темою у світі технологій цього року.
Тепер Apple також використовує штучний інтелект.
На конференції з прибутків за четвертий квартал вранці 3 листопада, за пекінським часом, генеральний директор Apple Тім Кук заявив, що Apple провела різні роботи в галузі генеративного ШІ і інвестує багато грошей, щоб зробити це відповідально. «З часом ви побачите, що продукти Apple, в основі яких лежать ці технології, будуть розвиватися».
Раніше Bloomberg повідомляв, що Apple непомітно наздоганяє конкурентів у сфері ШІ, з одного боку, вона збільшила рекрутинг, пов'язаний зі штучним інтелектом, з іншого боку, вона прискорила зрілість і впровадження технології ШІ шляхом злиття та поглинання стартапів, а також почала розробляти великі мовні моделі всередині компанії, внутрішньо відомі як AppleGPT.
У той же час команда xAI, створена Ілоном Маском, найбагатшою людиною у світі в галузі технологій і генеральним директором Tesla, зі статком у 220 мільярдів доларів, також, за чутками, має першу партію інформації про продукт, включаючи Grok, пов'язану з пошуком інформації штучного інтелекту, IDE робочої станції з підказковими словами тощо. Крім того, такі технологічні гіганти, як Google, Microsoft та Amazon, також беруть участь у хвилі штучного інтелекту.
Однак лідери галузі, включаючи Ілона Маска та Ультрамена, останнім часом щотижня говорять про потенційну летальність ШІ та ризики ШІ. Схоже, що це стало «консенсусом малого кола».
2 листопада Маск заявив під час Британського саміту зі штучного інтелекту, що ШІ є однією з найбільших загроз людству, а ШІ стане найбільш руйнівною силою в історії та буде розумнішим за людей. Він вважає, що одного дня штучний інтелект змусить усіх втратити роботу.
«Штучний інтелект здатний робити все, що завгодно, і я не знаю, чи змусить це людей почуватися комфортно чи некомфортно. Якщо ви хочете чарівного ельфа, ШІ виконає всі ваші бажання, і немає межі, і не буде обмежень лише 3 бажання, які можуть бути хорошими чи поганими, і викликом у майбутньому буде те, як ми знайдемо сенс життя. – сказав Маск.
Маск неодноразово попереджав, що ШІ небезпечніший за ядерну зброю (ядерні бомби).
Ультрамен також неодноразово заявляв, що уряд контролює його. Через 10 років у світі може з'явитися потужна система штучного інтелекту (ШІ), але зараз людству потрібно бути готовим до цього.
Уряд США також почав регулювати безпеку ШІ. 30 жовтня президент США Джо Байден підписав новий указ про штучний інтелект, який вжив найбільш комплексних заходів у напрямку стандартів безпеки ШІ, захисту приватного життя американців, сприяння справедливості та громадянських прав, захисту інтересів споживачів та працівників, сприяння інноваціям та конкуренції, а також просування лідерства США за кордоном, серед іншого, для управління потенційними ризиками ШІ.
Варто зазначити, що в новому розпорядженні посилено підтримку гігантів штучного інтелекту, наприклад, підтримку досліджень у галузі штучного інтелекту через фінансування досліджень та іншими способами, залучення іноземних талантів тощо.
Один камінь збурює тисячу хвиль.
Згодом академічні експерти зі штучного інтелекту, такі як «трійка Тюрінга», провели бурхливу дискусію щодо нагляду за ШІ, яка в основному була розділена на дві фракції: люди в особі Ян Лікуна та Нг Енда вважали, що автомобіль хоче загальмувати до того, як він буде побудований, а ШІ не досяг стадії нагляду; Однак такі люди, як Ілон Маск, Альтман і Джеффрі Хінтон, «батько глибокого навчання», вважають, що ШІ все ще дуже небезпечний.
Серед них Ян Лікун прямо сказав, що якщо Сполучені Штати продовжать підтримувати дослідження технологічних гігантів у галузі штучного інтелекту, це може зрештою призвести до того, що лише кілька великих технологічних гігантів зможуть контролювати ШІ, що неминуче призведе до величезного ризику та катастрофи.
«Як і багато людей, я великий прихильник відкритої платформи штучного інтелекту. Але я також вірю, що майбутнє штучного інтелекту – це поєднання творчості людей, демократії, ринкової влади та регулювання. – написав Ян Лікун на платформі X.
Ендрю Нг, засновник Google Brain і професор Стенфордського університету, також підтримує Яна. Він сказав, що це була "змова", щоб запровадити жорстке регулювання розвитку технології штучного інтелекту.
«Це знищить інновації, — зазначив Нг, — і, безумовно, є деякі великі технологічні компанії, які не бажають конкурувати зі штучним інтелектом з відкритим вихідним кодом, тому вони створюють страх, що штучний інтелект призведе до вимирання людства». Це завжди було законодавчою зброєю, яку шукали лобісти, але це дуже шкідливо для спільноти відкритого програмного забезпечення. З огляду на спрямованість регулювання в багатьох країнах, я думаю, що жодне регулювання не було б кращим, ніж зараз. "
Але в той же час 25 жовтня лауреат премії Тюрінга Йошуа Бенджіо, «батько глибинного навчання» Джеффрі Хінтон, Ендрю Яо, Чжан Яцинь та інші експерти ШІ-індустрії також підписали спільний лист, в якому продовжували закликати посилити нагляд за розвитком технології ШІ, і вважали, що до того, як ці системи будуть розроблені, повинні бути вжиті термінові заходи управління. а також значний зсув у бік безпечних та етичних практик у дослідженнях і розробках штучного інтелекту.
Сьогодні запекла боротьба між академічними гігантами щодо регулювання безпеки ШІ триває. Штучний інтелект зараз глибоко проникає у все, від пошукових систем до соціальних мереж і фінансів, тому експерти висловили серйозне занепокоєння щодо викликів цієї гонки озброєнь штучного інтелекту, ризиків безпеки та глибоких фейків.
Йошуа Бенджіо、Джеффрі Хінтон、Янн ЛеКун
І багато користувачів мережі стурбовані тим, чи вплине суперечка на стосунки між великими людьми. Деякий час тому Ян Лікун опублікував фото з Йошуа Бенджіо та Хінтоном, яке, схоже, добре відповідає на це питання.
3 листопада уряд США заявив, що створив Інститут безпеки штучного інтелекту, сподіваючись розробити стандарти та правила для регулювання майбутнього штучного інтелекту через законодавчу спроможність Міністерства торгівлі США та інших відомств.
Прискорення регулювання в найближчі 10 років: людство може повністю увійти в еру інтелекту
1 листопада на першому саміті з безпеки штучного інтелекту, що відбувся в Блечлі-Парку, Лондон, Великобританія, була оприлюднена «Декларація Блетчлі», в якій йдеться про те, що ШІ приносить великі можливості і має потенціал для підвищення добробуту людей, миру і процвітання, але в той же час ШІ також створює значні ризики, які необхідно вирішувати за допомогою міжнародного співробітництва.
На зустрічі декларацію підписали понад 25 країн та регіонів, включаючи США, Китай та Європейський Союз. Прем'єр-міністр Великої Британії Ріші Сунак сказав: «Це знакове досягнення, оскільки найпотужніші держави світу в галузі штучного інтелекту визнають нагальність «розуміння ризиків штучного інтелекту», щоб допомогти забезпечити довгострокове майбутнє нашого наступного покоління». Як лідери, ми несемо відповідальність за те, щоб вживати заходів для захисту людей, і це саме те, що ми робимо. "
У декларації йдеться, що штучний інтелект створює значні ризики, у тому числі у сфері повсякденного життя, і що «всі питання мають першорядне значення, і ми визнаємо необхідність і невідкладність їх вирішення». "
«Щоб досягти цього, ми стверджуємо, що штучний інтелект має бути спроектований, розроблений, розгорнутий і використовуватися безпечним, орієнтованим на людину, надійним і відповідальним способом на благо всіх». Багато ризиків, пов'язаних зі штучним інтелектом, мають міжнародний характер і найкраще вирішуються шляхом міжнародного співробітництва – виявлення ризиків безпеки ШІ, що викликають спільне занепокоєння, і підтримки міжнародної інклюзивної мережі передових наукових досліджень у галузі безпеки штучного інтелекту, йдеться в декларації.
3 листопада на «New Generation Artificial Intelligence Frontier Forum», організованому Пекінським університетом, професор Школи комп'ютерних наук Пекінського університету та декан Пекінської академії штучного інтелекту Хуан Тьєцзюнь заявив, що поточна суперечка полягає в тому, що базове розуміння ШІ у всіх різне, і багато людей, які займаються науковим мисленням, не вірять, що загальний штучний інтелект (AGI) буде реалізований, тоді як інше технічне мислення, включаючи Ян Лікуня, вважає, що розвиток ШІ можливий.
"Це два абсолютно різні способи мислення, і жоден з них не може нікого переконати. Тому за полемікою кожен дивиться на це питання з абсолютно різних позицій і по-різному мислить. – сказав у своїй промові Хуан Тьєцзюнь.
Щодо майбутнього розвитку технології великих моделей ШІ, Хуан Тьєцзюнь дав очікування на 3 роки, 10 років і 20 років.
У найближчі три роки велика модель буде розширена до загального інтелекту, такого як зір, слух, втілений інтелект і дія, а масштаб буде ставати все меншим і меншим, стаючи «мозком» втіленого інтелекту; Звичайна мова оновлюється до наукової, а штучний інтелект вирішує основні наукові проблеми.
У найближчі 10 років людство всебічно увійде в еру інтелекту (здібностей), так само, як промислова революція для вивільнення фізичної сили, так само, як революція влади для вирішення проблеми циркуляції енергії, а також побудова науки і техніки, економіки та соціальної екології з інтелектом як ядром буде завершено.
У найближчі 20 років: нинішня велика модель – це статичний інтелект, керований даними, майбутнє – динамічний інтелект, керований просторово-часовим середовищем, а інтелектуальний носій оновлюється до нейронної мережі, схожої на мозок; У 2045 році з'являться структурні імітації мозку, функціональні мозкоподібні та продуктивні супер-мозкові, фізичні AGI.
Крім того, безпеці Ал потрібно приділяти принаймні однакове значення, інакше людство наражається на великий ризик.
На думку Хуан Тьєцзюня, в найближчі 10 років вся світова економіка, суспільство, наука і техніка можуть зазнати серйозних змін, інтелект стане основним елементом соціального функціонування, так само, як сьогоднішня електрика є скрізь, світ буде формуватися. У 2045 році за допомогою технології штучного інтелекту люди зможуть отримувати інтелектуальні дані в режимі реального часу, і вони будуть ітеративно модернізовані, а також зміниться мозок і подальше прийняття рішень.
«Я думаю, що до 2045 року всі ці натхнення та інноваційні можливості, подібні до наших, з'являться на не-організмі, але якщо це станеться, це буде величезним ризиком, чи варто нам, людям, зробити цей варіант, чи це може бути трохи повільніше, це потрібно багато обговорювати». – сказав Хуан Тьєцзюнь наприкінці свого виступу.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Кембриджський виступ «батька ChatGPT» бойкотували, а академічні гіганти запекло боролися за безпеку ШІ
Джерело статті: Titanium Media
Автор: Лінь Чжицзя
Редактор: Ма Джиннань
Ця стаття була вперше опублікована в додатку Titanium Media
У зв'язку з тим, що уряд США випустив нові правила щодо штучного інтелекту, останнім часом відродилися суперечки щодо регулювання великих моделей штучного інтелекту.
Рано вранці 2 листопада за пекінським часом, коли Сем Альтман, «батько ChatGPT» і генеральний директор OpenAI, брав участь у заході в Кембриджі, Англія, він зіткнувся з рішучим опором з боку активістів, які виступають проти ШІ, і був «розбитий» на його очах у глядацькій залі, а кілька протестувальників вимагали припинити змагання зі штучного інтелекту.
У своїй промові Альтман сказав, що навіть якщо моделі ШІ будуть досить потужними в майбутньому, для їх роботи знадобляться величезні обчислювальні потужності. Якщо поріг обчислювальної потужності буде підвищено, ризик навмисного злочину можна знизити, а також покращити підзвітність. Раніше співзасновник OpenAI Ілля Суцкевер прямо заявив, що ChatGPT може бути свідомим, а ШІ матиме потенційні ризики.
У той же час Янн Лекун, головний науковий співробітник Meta AI і лауреат премії Тюрінга 2018 року, останнім часом неодноразово критикував Альтмана, генерального директора DeepMind Деміса Хассабіса, генерального директора Anthropic та інших на соціальних платформах за «масштабне корпоративне лобіювання» уряду США, яке в кінцевому підсумку може призвести до того, що лише кілька великих технологічних гігантів зможуть контролювати технологію штучного інтелекту.
Ян Лікун зазначив, що ці люди поширюють страх. «Якщо вони досягнуть успіху, ми з вами неминуче призведемо до катастрофи – кілька компаній візьмуть під контроль штучний інтелект».
У той час, коли конкуренція за великі моделі ШІ стає все більш жорсткою, індустрія вступила в «рукопашний бій», і всі ведуть запеклі баталії навколо теми гігантів, які контролюють ІІ.
Штучний інтелект є найбільшою загрозою для людства? Маск: ШІ буде розумнішим за людей
За останні 12 місяців ChatGPT захопив світ, а генеративний штучний інтелект повністю став центральною темою у світі технологій цього року.
Тепер Apple також використовує штучний інтелект.
На конференції з прибутків за четвертий квартал вранці 3 листопада, за пекінським часом, генеральний директор Apple Тім Кук заявив, що Apple провела різні роботи в галузі генеративного ШІ і інвестує багато грошей, щоб зробити це відповідально. «З часом ви побачите, що продукти Apple, в основі яких лежать ці технології, будуть розвиватися».
Раніше Bloomberg повідомляв, що Apple непомітно наздоганяє конкурентів у сфері ШІ, з одного боку, вона збільшила рекрутинг, пов'язаний зі штучним інтелектом, з іншого боку, вона прискорила зрілість і впровадження технології ШІ шляхом злиття та поглинання стартапів, а також почала розробляти великі мовні моделі всередині компанії, внутрішньо відомі як AppleGPT.
У той же час команда xAI, створена Ілоном Маском, найбагатшою людиною у світі в галузі технологій і генеральним директором Tesla, зі статком у 220 мільярдів доларів, також, за чутками, має першу партію інформації про продукт, включаючи Grok, пов'язану з пошуком інформації штучного інтелекту, IDE робочої станції з підказковими словами тощо. Крім того, такі технологічні гіганти, як Google, Microsoft та Amazon, також беруть участь у хвилі штучного інтелекту.
Однак лідери галузі, включаючи Ілона Маска та Ультрамена, останнім часом щотижня говорять про потенційну летальність ШІ та ризики ШІ. Схоже, що це стало «консенсусом малого кола».
2 листопада Маск заявив під час Британського саміту зі штучного інтелекту, що ШІ є однією з найбільших загроз людству, а ШІ стане найбільш руйнівною силою в історії та буде розумнішим за людей. Він вважає, що одного дня штучний інтелект змусить усіх втратити роботу.
Маск неодноразово попереджав, що ШІ небезпечніший за ядерну зброю (ядерні бомби).
Ультрамен також неодноразово заявляв, що уряд контролює його. Через 10 років у світі може з'явитися потужна система штучного інтелекту (ШІ), але зараз людству потрібно бути готовим до цього.
Уряд США також почав регулювати безпеку ШІ. 30 жовтня президент США Джо Байден підписав новий указ про штучний інтелект, який вжив найбільш комплексних заходів у напрямку стандартів безпеки ШІ, захисту приватного життя американців, сприяння справедливості та громадянських прав, захисту інтересів споживачів та працівників, сприяння інноваціям та конкуренції, а також просування лідерства США за кордоном, серед іншого, для управління потенційними ризиками ШІ.
Варто зазначити, що в новому розпорядженні посилено підтримку гігантів штучного інтелекту, наприклад, підтримку досліджень у галузі штучного інтелекту через фінансування досліджень та іншими способами, залучення іноземних талантів тощо.
Один камінь збурює тисячу хвиль.
Згодом академічні експерти зі штучного інтелекту, такі як «трійка Тюрінга», провели бурхливу дискусію щодо нагляду за ШІ, яка в основному була розділена на дві фракції: люди в особі Ян Лікуна та Нг Енда вважали, що автомобіль хоче загальмувати до того, як він буде побудований, а ШІ не досяг стадії нагляду; Однак такі люди, як Ілон Маск, Альтман і Джеффрі Хінтон, «батько глибокого навчання», вважають, що ШІ все ще дуже небезпечний.
Серед них Ян Лікун прямо сказав, що якщо Сполучені Штати продовжать підтримувати дослідження технологічних гігантів у галузі штучного інтелекту, це може зрештою призвести до того, що лише кілька великих технологічних гігантів зможуть контролювати ШІ, що неминуче призведе до величезного ризику та катастрофи.
«Як і багато людей, я великий прихильник відкритої платформи штучного інтелекту. Але я також вірю, що майбутнє штучного інтелекту – це поєднання творчості людей, демократії, ринкової влади та регулювання. – написав Ян Лікун на платформі X.
Ендрю Нг, засновник Google Brain і професор Стенфордського університету, також підтримує Яна. Він сказав, що це була "змова", щоб запровадити жорстке регулювання розвитку технології штучного інтелекту.
«Це знищить інновації, — зазначив Нг, — і, безумовно, є деякі великі технологічні компанії, які не бажають конкурувати зі штучним інтелектом з відкритим вихідним кодом, тому вони створюють страх, що штучний інтелект призведе до вимирання людства». Це завжди було законодавчою зброєю, яку шукали лобісти, але це дуже шкідливо для спільноти відкритого програмного забезпечення. З огляду на спрямованість регулювання в багатьох країнах, я думаю, що жодне регулювання не було б кращим, ніж зараз. "
Але в той же час 25 жовтня лауреат премії Тюрінга Йошуа Бенджіо, «батько глибинного навчання» Джеффрі Хінтон, Ендрю Яо, Чжан Яцинь та інші експерти ШІ-індустрії також підписали спільний лист, в якому продовжували закликати посилити нагляд за розвитком технології ШІ, і вважали, що до того, як ці системи будуть розроблені, повинні бути вжиті термінові заходи управління. а також значний зсув у бік безпечних та етичних практик у дослідженнях і розробках штучного інтелекту.
Сьогодні запекла боротьба між академічними гігантами щодо регулювання безпеки ШІ триває. Штучний інтелект зараз глибоко проникає у все, від пошукових систем до соціальних мереж і фінансів, тому експерти висловили серйозне занепокоєння щодо викликів цієї гонки озброєнь штучного інтелекту, ризиків безпеки та глибоких фейків.
І багато користувачів мережі стурбовані тим, чи вплине суперечка на стосунки між великими людьми. Деякий час тому Ян Лікун опублікував фото з Йошуа Бенджіо та Хінтоном, яке, схоже, добре відповідає на це питання.
3 листопада уряд США заявив, що створив Інститут безпеки штучного інтелекту, сподіваючись розробити стандарти та правила для регулювання майбутнього штучного інтелекту через законодавчу спроможність Міністерства торгівлі США та інших відомств.
Прискорення регулювання в найближчі 10 років: людство може повністю увійти в еру інтелекту
1 листопада на першому саміті з безпеки штучного інтелекту, що відбувся в Блечлі-Парку, Лондон, Великобританія, була оприлюднена «Декларація Блетчлі», в якій йдеться про те, що ШІ приносить великі можливості і має потенціал для підвищення добробуту людей, миру і процвітання, але в той же час ШІ також створює значні ризики, які необхідно вирішувати за допомогою міжнародного співробітництва.
На зустрічі декларацію підписали понад 25 країн та регіонів, включаючи США, Китай та Європейський Союз. Прем'єр-міністр Великої Британії Ріші Сунак сказав: «Це знакове досягнення, оскільки найпотужніші держави світу в галузі штучного інтелекту визнають нагальність «розуміння ризиків штучного інтелекту», щоб допомогти забезпечити довгострокове майбутнє нашого наступного покоління». Як лідери, ми несемо відповідальність за те, щоб вживати заходів для захисту людей, і це саме те, що ми робимо. "
У декларації йдеться, що штучний інтелект створює значні ризики, у тому числі у сфері повсякденного життя, і що «всі питання мають першорядне значення, і ми визнаємо необхідність і невідкладність їх вирішення». "
«Щоб досягти цього, ми стверджуємо, що штучний інтелект має бути спроектований, розроблений, розгорнутий і використовуватися безпечним, орієнтованим на людину, надійним і відповідальним способом на благо всіх». Багато ризиків, пов'язаних зі штучним інтелектом, мають міжнародний характер і найкраще вирішуються шляхом міжнародного співробітництва – виявлення ризиків безпеки ШІ, що викликають спільне занепокоєння, і підтримки міжнародної інклюзивної мережі передових наукових досліджень у галузі безпеки штучного інтелекту, йдеться в декларації.
3 листопада на «New Generation Artificial Intelligence Frontier Forum», організованому Пекінським університетом, професор Школи комп'ютерних наук Пекінського університету та декан Пекінської академії штучного інтелекту Хуан Тьєцзюнь заявив, що поточна суперечка полягає в тому, що базове розуміння ШІ у всіх різне, і багато людей, які займаються науковим мисленням, не вірять, що загальний штучний інтелект (AGI) буде реалізований, тоді як інше технічне мислення, включаючи Ян Лікуня, вважає, що розвиток ШІ можливий.
"Це два абсолютно різні способи мислення, і жоден з них не може нікого переконати. Тому за полемікою кожен дивиться на це питання з абсолютно різних позицій і по-різному мислить. – сказав у своїй промові Хуан Тьєцзюнь.
На думку Хуан Тьєцзюня, в найближчі 10 років вся світова економіка, суспільство, наука і техніка можуть зазнати серйозних змін, інтелект стане основним елементом соціального функціонування, так само, як сьогоднішня електрика є скрізь, світ буде формуватися. У 2045 році за допомогою технології штучного інтелекту люди зможуть отримувати інтелектуальні дані в режимі реального часу, і вони будуть ітеративно модернізовані, а також зміниться мозок і подальше прийняття рішень.
«Я думаю, що до 2045 року всі ці натхнення та інноваційні можливості, подібні до наших, з'являться на не-організмі, але якщо це станеться, це буде величезним ризиком, чи варто нам, людям, зробити цей варіант, чи це може бути трохи повільніше, це потрібно багато обговорювати». – сказав Хуан Тьєцзюнь наприкінці свого виступу.