З початку 2023 року ChatGPT занурив світ у божевілля ШІ. З дебютом GPT4 його нові потужні можливості змушують людей відчувати, що всього за кілька років ШІ стане всемогутнім існуванням.
Але де верхня межа ШІ, заснованого на парадигмі трансформатора великої мовної моделі? Чи справді воно повністю замінить нас? На ці запитання було багато відповідей. Деякі люди вважають, що велика мовна модель принесе нову еру, яка дуже близька до штучного інтелекту, який може завершити всю людську роботу; але деякі люди вважають, що це просто випадковий папуга, який взагалі не може зрозуміти світ. На даний момент, з якої б точки зору не було достатньої інтерпретації та чітко сформованої системи.
Щоб дозволити людям краще зрозуміти це питання, Джозеф Хіфакіс, іноземний академік Академії наук Китаю, написав книгу «Розуміти та змінити світ», виклавши своє десятирічне розуміння штучного інтелекту, що привело до AGI з точки зору когнітивні принципи мислення про потенційні шляхи. Джозеф Шиффакіс отримав премію Тюрінга на десять років раніше, ніж Хінтон та інші. Цього разу він дуже чітко виклав з точки зору когнітивних принципів свою «можливість і неспроможність штучного інтелекту» та «шлях, що веде до AGI». Потенційні шляхи та ризики. ” десятиліття роздумів.
丨Фокус
Люди та штучний інтелект доповнюють один одного, а не замінюють один одного. Люди володіють знаннями здорового глузду та абстрактною здатністю формувати моделі, чого не можна досягти за допомогою поточної парадигми штучного інтелекту, тому вони не можуть створювати принципові інновації. Штучний інтелект може передбачати складні речі, які можуть мати велику кількість змінних, без оволодіння принципами. Це те, чого люди не можуть досягти через обмеження когнітивних здібностей. Гіппакіс назвав це «оракулом ШІ», і це може принести «нову науку». 2. Найбільша загроза, яку принесе штучний інтелект, полягає в тому, що залежність людей від нього може змусити нас відмовитися від власних суджень на невизначений термін, втратити владу приймати рішення та зрештою стати «рабами рабів». Щоб уникнути цього, люди повинні мати можливість опанувати всі процеси розробки та застосування знань, гарантуючи, що ці машини не прийматимуть за нас ключові рішення самостійно. 3. Відповідно до ситуації взаємодоповнювальних можливостей, для людей найкращим майбутнім сценарієм є гармонійна співпраця між машинами та людьми, і завдяки цій співпраці можна досягти нового процвітання. У цьому процесі суспільство має розвивати та застосовувати технології з метою покращення життя людини.
01 Поточний AI далекий від AGI
**Технологія Tencent: що означає поява ChatGPT для штучного інтелекту? Чи це нова парадигма, чи більш конкретне застосування існуючої парадигми? **
Джозеф Шиффакіс: Я вважаю, що поява ChatGPT та інших мовних моделей є важливим кроком у розвитку штучного інтелекту. **Насправді ми зазнали такої зміни парадигми, що фактично можна відповісти на будь-який запит природною мовою, часто з дуже актуальною відповіддю на запитання. Великі мовні моделі вирішують давні проблеми обробки природної мови. **Це область, де дослідники десятиліттями не досягали успіху, до неї традиційно підходила символістська школа думки, яка розділяє синтаксис і семантику мови для побудови правил для штучного інтелекту.
Тепер великі мовні моделі використовують інший підхід, і вони вважають, що значення слова визначається всіма контекстами, в яких воно використовується. Вони використовують машинне навчання для виконання розрахунків розподілу ймовірностей. Для слів цей розподіл ймовірностей використовується для прогнозування найбільш ймовірного наступного слова в реченні. Це дуже простий, але ефективний метод. Це трохи наївно, але для конспектування тексту виявляється чудово. Звичайно, природа використовуваного рішення також визначає його обмеження. Мовні моделі чудово підходять для створення коротких викладів певного тексту або навіть написання віршів. Якщо ви зробите це коротким викладом історії Китаю 20-го століття, це може зробити справді хорошу роботу. Але з іншого боку, якщо ви ставите дуже точні запитання або вирішуєте дуже прості логічні задачі, це може піти не так. Ми можемо це зрозуміти, оскільки цей тип запитань є контекстно-незалежною моделлю, тому ми не можемо перевірити зв’язність тексту та відповіді, які він надає.
**Технологія Tencent: зараз існує багато нових технологій, таких як логічні дерева (LOT), які можуть допомогти машинам самостійно керуватися для розуміння логічних процесів. Зараз великі мовні моделі навчаються розвивати більш специфічні або складні логічні процеси. У нейронної мережі багато рівнів, і чим вищий рівень, тим абстрактніше розуміння. Чи можливо, що в цих нейронах вищого рівня може бути щось на зразок моделі чи структурного розуміння світу? **
Джозеф Шиффакіс: У своїй книзі я пояснюю, що люди й машини розвивають і застосовують різні типи знань. Ці знання дозволяють людям і машинам вирішувати різні типи проблем, залежно від того, наскільки вони обґрунтовані та загальні. **Важлива відмінність між «науково-технічними знаннями» та «тактовними досвідними знаннями, отриманими в процесі навчання». Наприклад, коли я говорю, коли я ходжу, мій мозок насправді вирішує дуже складні проблеми, але я не розумію, як вони працюють, і нейронні мережі генерують ті самі неявні емпіричні знання, що дозволяє нам вирішувати проблеми, не розуміючи як вони працюють. **
Це те, що ми називаємо знаннями, заснованими на даних. Навпаки, дуже важливо, щоб найкращі науково-технічні знання базувалися на використанні математичних моделей, які забезпечують глибоке розуміння фізичних явищ об’єктів і компонентів. Наприклад, коли ви будуєте міст, ви можете бути впевнені (за його принципами), що міст не зруйнується протягом століть. Проте за допомогою нейронних мереж ми можемо робити певні прогнози, але ми не розуміємо, як вони працюють, і неможливо побудувати теорію, яка пояснює поведінку нейронних мереж. **Ця властивість робить великі мовні моделі суворо обмеженими у критичних програмах без участі людини.
Питання в тому, чи можуть ці системи GPT-LM досягти рівня інтелекту людини. Це проблема. Я думаю, що існує багато плутанини щодо того, що таке інтелект і як його досягти. Тому що, якщо ми не маємо чіткого поняття інтелекту, ми не можемо розробити теорії про те, як він працює, і ми не можемо чітко визначити інтелект.
А сьогодні багато плутанини. Нещодавно я написав статтю про це питання. Насправді, якщо ви відкриєте словник, наприклад Оксфордський словник, ви побачите, що **інтелект визначається як здатність вивчати, розуміти і думати про світ, а також досягати цілей і діяти з метою. **
**Машини можуть робити вражаючі речі. Вони можуть перевершити людей в іграх. Вони здатні виконувати різні завдання. Останнім часом також були досягнуті великі досягнення. Вони можуть виконувати завдання, пов’язані з сенсорними здібностями, наприклад візуальне розпізнавання. Однак машини не можуть перевершити людей, коли йдеться про обізнаність про ситуацію, адаптацію до змін навколишнього середовища та творче мислення. **Просто кажучи, GPT дуже добре перекладає природну мову, але не може керувати автомобілем. Ви не можете використовувати GPT для керування автомобілем. Між ними ще велика прірва. Думаю, у нас ще попереду довгий шлях. **Сьогодні ми маємо лише слабкий штучний інтелект, у нас є лише деякі компоненти загального інтелекту. Нам потрібно щось більше. **
Я думаю, що важливим кроком до загального інтелекту стануть автономні системи. Тепер концепція зрозуміла: автономні системи виникають через необхідність подальшої автоматизації існуючих організацій шляхом заміни людей автономними агентами, що також передбачено Інтернетом речей. Насправді ми говоримо про безпілотні автомобілі, розумні мережі, розумні фабрики, розумні ферми, розумніші телекомунікаційні мережі. **Ці системи дуже відрізняються від вузького штучного інтелекту тим, що вони складаються з агентів, які обмежені в режимі реального часу та мають мати справу з багатьма різними цілями. Ці цілі передбачають зміни в діях і діях у багатьох різних сферах, і GPT не дуже добре в цьому, він хороший у роботі з природною мовою та трансформацією документів. **Крім того, нам потрібні системи, які можуть гармонійно працювати з людьми. Усе це неможливо з іншими мовними моделями. Отже, ми ще досить далекі від загального штучного інтелекту. Звичайно, все зводиться до того, що саме ми вважаємо інтелектом, тому що якщо інтелект визначити як просто розмови та ігри, то ми досягли загального штучного інтелекту, але я не згоден з таким визначенням.
**Технологія Tencent: стандартним тестом інтелекту в минулому був тест Тюрінга. Очевидно, GPT пройшов тест Тюрінга з точки зору діалогу, але це не автономний інтелект. Як у цьому випадку ми можемо судити про інтелект ШІ? **
Джозеф Шиффакіс: Нещодавно я написав статтю, в якій стверджував, що тесту Тюрінга недостатньо. **Я пропоную інший тест, який я називаю тестом заміни. Фактично, ідея полягає в тому, що якби я міг замінити машину іншим агентом, який виконує завдання, я б сказав, що цей агент такий же розумний, як і агент, який виконує завдання. **Якби я міг замінити людину машиною, щоб водити машину, навчати людину чи бути хорошим хірургом, тоді я б сказав, що машина така ж розумна, як і людина.
Отже, якщо ви візьмете це визначення, замість тестування, ви подумаєте, що людський інтелект насправді є комбінацією навичок. Отже, ви розумієте, наскільки ми далекі від загального інтелекту? У цьому альтернативному тесті деякі дії може виконувати машина, наприклад робот. Якщо ви хочете займатися садівництвом, вам для цього потрібен робот. GPT — це лише мовна модель, вона не містить цих частин робота.
**Технологія Tencent: згідно з вашим визначенням, ми побачимо, як розрив між штучним інтелектом і людським інтелектом зникне лише тоді, коли обчислення та системи зможуть автоматично виконувати великі обсяги тексту та адаптуватися до мінливого середовища. І тепер такі програми, як AutoGPT або Baby AGI, можуть розділити завдання на різні етапи та намагатися досягти мети завдання за допомогою різних процесів. Певним чином це досить автоматизовано. Як ви думаєте, чи наближається він у процесі до AGI? **
Джозеф Шіффакіс: Тут є багато питань, у тому числі питання системної інженерії. **Недостатньо мати суперінтелектуального агента, тому що ви також повинні гарантувати, що його поведінку можна пояснити. **Цю проблему я також широко обговорюю у своїй дисертації, а саме проблему пояснюваного штучного інтелекту або безпечного штучного інтелекту, про яку всі говорять.
Люди не розуміють, що **за допомогою нейронних мереж ми не можемо зрозуміти їх поведінку. Очевидно, ви не можете пояснити, чому він робить такий вихід, тому що ви не можете мати математичної моделі для опису їх поведінки. Звичайно, ми чудово розуміємо, як розраховуються математичні функції кожного вузла нейронної мережі. **Це просто лінійна комбінація вхідних даних плюс деякі нелінійні функції, тому ми можемо зрозуміти поведінку кожного вузла. **Але коли ми намагаємося зрозуміти емерджентні властивості всієї нейронної мережі, ми впадаємо у відчай. **Але це не проблема ШІ, це загальна проблема науки.
Ви не можете зробити висновок про властивості води лише за властивостями атомів кисню та водню. Навіть якщо ви це повністю розумієте, існує проблема масштабу та складності. Це точка відчаю. **Ми не можемо використовувати логіку поєднання технологій або редукціонізму, щоб зрозуміти загальну поведінку нейронної мережі через поведінку її елементів. Тож єдиний спосіб застосувати це до нейронної мережі – це протестувати її, оскільки ми не можемо перевірити її поведінку та не можемо міркувати про це. **Але якщо застосовуються лише тести, це означає, що ви використовуєте виключно експериментальний підхід, а не теоретичне розуміння. Таким чином, тип вмісту, який ви можете перевірити, дуже різниться: наприклад, ви не можете перевірити цілісні проблеми безпеки, оскільки не можете проаналізувати загальну поведінку. Але ви можете проводити тестування безпеки для захисту.
Ми завжди проводили тестування апаратного та програмного забезпечення. Але для того, щоб тестувати, ви повинні мати критерії, як довго має тривати тест. Для апаратного та програмного забезпечення у нас є моделі та стандарти покриття. Але для нейронних мереж у нас немає такого стандарту. Я не кажу, що це дуже складна для вирішення проблема, **Для нейронних мереж у нас є деякі альтернативні можливості, такі як змагальні приклади. Але ці маніпуляції порушують певну стійкість у їхній поведінці. ** Отже, бачиш, якщо я задам тобі запитання, ти даси відповідь. Якщо я трохи зміню ваше запитання, ви б дали кілька подібних відповідей, якби ви були людиною. Але ми знаємо, що коли ми трохи змінюємо вхідні дані для нейрона, відповідь може бути дуже різною. Тож це теж варто враховувати.
02 Виникнення ніколи не можна зрозуміти
**Tencent Technology: чи вважаєте ви, що поява цієї концепції, тобто перехід від базових можливостей до розширеніших можливостей, є незрозумілою? **
Джозеф Шиффакіс: Так. Ви берете такий предмет, як фізика. Фізика – дуже зрілий предмет. Фізики намагаються встановити логічний зв’язок між теорією елементарних частинок, квантовою теорією чи загальною теорією відносності, і я не думаю, що їм це коли-небудь вдасться, тому що існує проблема масштабу. Я думаю, що подібні проблеми існують у будь-якій системі.
**Tencent Technology: Отже, на вашу думку, через цей незрозумілий феномен ми не можемо передбачити, що може зробити велика мовна модель? **
Джозеф Шиффакіс: Очевидно, що ми не можемо побудувати модель, щоб передбачити, що вона може зробити. Ми не можемо будувати моделі, я маю на увазі математичні моделі. Тут співтовариство ШІ використовує слово модель для позначення нейронної мережі, що є джерелом плутанини.
Я думаю, що нам слід застосувати інший цілісний підхід. Оскільки ми не можемо сформувати відповідну модель, **можливо, ми зможемо створити теорію на основі тестів та емпіричних спостережень. Це має бути теорія перевірки статистичних властивостей. **Але, як я розумію, у нас є деякі потреби, які технічно важко задовольнити в сучасних нейронних мережах.
**Технологія Tencent: так. Отже, щоб зрозуміти ці здібності, які випливають із них, нам потрібно створити таку дисципліну, як психологія, щоб зрозуміти це? **
Джозеф Шиффакіс: Саме так. Це гарне запитання. Але використовувати сам GPT для встановлення такого розуміння буде трохи проблематично. Тому що насправді деякі люди зараз кажуть, що GPT успішно складає іспит на юриста чи лікаря, то чому такий GPT не може стати лікарем чи юристом?
Я думаю, що це дуже цікавий аргумент, але він стосується проблеми надійності, про яку я згадував раніше. Крім того, складаючи іспит, здатність між людьми та нейронними мережами дуже відрізняється.
Питання стійкості полягає в тому, що якщо ви попросите здорову людину відповісти на запитання, якщо ви трохи зміните запитання, відповідь буде схожою. GPT не гарантує однаковість відповідей. Інша проблема полягає в тому, що люди можуть покладатися на логіку, щоб контролювати те, що вони роблять і що вони повинні говорити. Але оскільки нейронна мережа, як правило, як ChatGPT, не має семантичного контролю над тим, що вона робить, вона може робити речі, які явно неправильні. Жодна розумна людина не зробить такої помилки. Таким чином, висновок усієї аргументації полягає в тому, що якщо GPT може логічно контролювати узгодженість того, що він говорить, і він відповідно є надійним, тоді дозволити GPT бути юристом було б чудово. Але насправді ми ще далекі від такого рівня штучного інтелекту. **
**Технологія Tencent: чому так важко контролювати ChatGPT? Це тому, що це функція розподіленого обчислення комп’ютера? **
Джозеф Шиффакіс: GPT — це інший тип комп’ютера. Це природний комп'ютер. Це не комп’ютер, який виконує програми, поки ви їх пишете, ви маєте абсолютний контроль над тим, що система може, а що ні. Коли ви тренуєте нейронну мережу, ви втрачаєте контроль. Ці системи можуть бути творчими в певному сенсі, оскільки вони мають ступені свободи.
Тепер, якщо ми зможемо контролювати ці ступені свободи і зрозуміти, як вони поводяться, у нас все буде добре. **Проблема в тому, що ми не можемо контролювати цей величезний ступінь свободи нейронних мереж, і практично неможливо контролювати це теоретично. **Ви можете зробити приблизну оцінку їхньої поведінки, але ви не матимете точних результатів. Якщо у вас є традиційна комп’ютерна програма, навіть якщо це довга програма, ви все одно можете витягнути семантичну модель і зрозуміти, що в ній відбувається. Це дуже важлива відмінність.
**Tencent Technology: чи можете ви докладніше розповісти про концепцію природних машин? **
Джозеф Шиффакіс: **Природні машини — це інтелект, який використовує природні явища. Наприклад, нейронна мережа — це природна машина, схожа на квантовий комп’ютер або інші комп’ютери. Раніше, коли я був студентом, у нас також було багато комп’ютерів. У створенні цієї природної машини ми будемо використовувати деякі принципи у фізичних явищах, оскільки будь-яке фізичне явище містить певний інформаційний вміст. Наприклад, коли я кидаю камінь, камінь схожий на комп’ютер, він обчислює параболу, яка формує алгоритм. Ви можете спостерігати будь-яке явище, і ви можете використовувати природні явища для створення комп’ютерів. Але ці комп’ютери не запрограмовані заздалегідь. Вони використовують певні закони фізики чи математики. Це у випадку з нейронними мережами. **
**Tencent Technology: Давайте поговоримо про інший вміст вашої книги. Ви обговорювали деякі питання досліджень та інновацій. Ми всі знаємо, що хоча багато ідей нейронних мереж походять з Європи чи Японії, компанії, які використовують їх і виробляють продукти, такі як OpenAI і Deepmind, усі знаходяться в Сполучених Штатах. Як ви думаєте, у чому причина цього? **
Джозеф Шиффакіс: Є різниця між увагою та інноваціями. **Оскільки інновація — це здатність застосовувати дослідження для розробки нових продуктів або послуг для досягнення технологічного прориву. **
Я вважаю, що це дуже сильна перевага США, вони чудово впоралися з інноваціями. Це почалося в Каліфорнії, де є те, що я називаю інноваційною екосистемою. **Інноваційна екосистема об’єднує дуже хороші академічні установи, великі технологічні компанії, стартапи, а також венчурний і капітал. Ця узгодженість забезпечує ефективний і ефективний переклад нових результатів і застосувань. Інші країни також перейняли цю модель. Ідея інноваційної екосистеми є загальною, і менші країни, такі як Ізраїль та Швейцарія, досягли великого успіху. ** Отже, підсумовуючи, я вважаю, що для досягнення інновацій вам слід поєднати великі університети з великими галузями. Це залежить не лише від матеріальних ресурсів, а й від культурних факторів, освіта та установи повинні визнавати індивідуальну творчість і підприємливість.
03 Нейронна мережа Oracle: нова наука, яку неможливо зрозуміти
**Технологія Tencent: Ви щойно згадали, що нейронні мережі — це процес моделювання біологічного мозку та фізичного світу. Як можливе таке моделювання, коли наше розуміння біологічного мозку все ще дуже обмежене? Як далеко ця нейронна мережа від нашого біологічного мозку? **
Джозеф Шиффакіс: Це гарне запитання. Я тільки що сказав, що нейронні мережі — це свого роду природний комп’ютер, який приймає парадигму, відмінну від традиційних комп’ютерів. Зокрема, нейронні мережі надихають нейронні роботи нашого мозку. Він імітує деякі природні процеси, за допомогою яких працюють нерви. **Однак нейронні мережі лише імітують принципи обчислення мозку, який є більш складним, оскільки має різні структури та функції в різних регіонах. І ці різні функції створені на основі більш складної архітектури, яку ми все ще намагаємося зрозуміти. **І нейронна мережа мозку є режимом паралельних обчислень. Нейронні мережі також сильно відрізняються від нього в цьому плані.
Слід також розуміти, що **якщо ми вивчаємо мозок лише на біологічному рівні, я не думаю, що ми зможемо повністю охопити всі людські наміри. **Як приклад, використовуйте свій ноутбук для запуску програмного забезпечення. Тоді я дам тобі електронні прилади, щоб за допомогою вимірювань дослідити, як працює це обладнання. Якщо ви зібрали програму, всі знання присутні у вигляді електричних сигналів на апаратному рівні. Але лише за допомогою аналізу цього електричного сигналу неможливо знайти вихідний код проблемного програмного забезпечення, тому що у вас проблема масштабу. **Я думаю, що це ключ до розуміння людського інтелекту, ми повинні вивчати мозок, але не тільки мозок. Тому обчислювальний феномен мозку є поєднанням електричних сигналів, фізико-хімічних явищ і психологічних явищ. **
** І проблема сьогодні полягає в тому, як пов’язати психічні явища з обчисленнями мозку. На мою думку, це серйозний виклик. Якщо нам це не вдасться, я не думаю, що ми коли-небудь зможемо зрозуміти людський інтелект. **
**Технологія Tencent: Ви згадали, що штучний інтелект відкриває новий шлях для розвитку людських знань, долаючи обмеження людського мозку при вирішенні складних проблем. Як ви думаєте, у чому ШІ може повністю перевершити людей? **
Джозеф Шиффакіс: Так. У своїй книзі я пояснюю, що **машини можуть допомогти нам подолати деякі обмеження нашого мислення. **Це підтверджено психологами. Обмеження тут включають обмеженість людського розуму когнітивною складністю. **Ми, люди, не можемо зрозуміти зв’язок між більш ніж п’ятьма незалежними параметрами. Ось чому теорії, які ми розробляємо, дуже прості. У нас немає теорії з 1000 сформованих незалежних параметрів. **
**Я думаю, що зараз можна розробити теорію з тисячами параметрів. Я думаю, що сьогодні ми можемо побудувати те, що я називаю «оракулом нейронної мережі», за допомогою суперкомп’ютерів і штучного інтелекту. Оракул нейронної мережі — це нейронна мережа, навчена розуміти й аналізувати складні явища чи складні системи. Ці складні явища можуть залежати від тисяч параметрів. ** На прикладі фізичних явищ зараз є кілька цікавих проектів, таких як навчання нейронних мереж передбаченню землетрусів. Учасникам цих проектів не обов’язково володіти великими науковими знаннями, потрібно лише наповнити модель базою даних. У них є дані про землетруси з усього світу. Вони опублікували статтю, в якій пояснюють, що за допомогою дуже простої процедури навчання вони можуть робити кращі прогнози, ніж вони могли б використовувати існуючі складні теорії. **
**Тож я вважаю, що це дуже важливий напрямок у майбутньому. У нас буде більше «оракулів», які допоможуть нам передбачити розвиток складних явищ або складних систем. ** Наприклад, у нас будуть інтелектуальні цифрові двійникові системи, які допоможуть нам робити прогнози, але не розумітимуть (логіку прогнозів). Тож ** у нас буде новий вид науки. **Я думаю, що це цікаво мати можливість використовувати цей вид науки, але нам також потрібно контролювати якість отриманих знань. **Вам варто подумати про це, тому що люди більше не матимуть єдиного привілею виробляти знання. Тепер людині доводиться конкурувати з машинами. **
Отже, важливе питання для нашого суспільства полягає в тому, чи можемо ми співпрацювати з машинами та оволодівати розвитком і еволюцією знань, розроблених машинами. **Або ми створимо ситуацію, коли наука, керована людьми, і наука, керована машинами, співіснуватимуть. **Це був би цікавий сценарій, якби у нас була паралельна наука на основі цих машин.
**Технологія Tencent: Ви згадали, що людський розум також є обчислювальною системою. Обидві системи дуже схожі за своїми компонентами порівняно з автоматами. Отже, які унікальні можливості людини порівняно з сильним штучним інтелектом? **
Джозеф Шиффакіс: Це дуже гарне запитання. Оскільки я працював над автономними системами, я спробував розробити самокеровані автомобілі. Для безпілотного автомобіля у вас будуть такі функції, як сприйняття, перетворення сенсорної інформації в концепції. У вас буде рефлексивна функція, яка моделює зовнішній світ і приймає рішення. Прийняття рішень означає досягнення багатьох різних цілей. Для досягнення цих цілей потрібне планування тощо. Між автономними системами та людським розумом справді багато спільного.
Проте є деякі важливі відмінності між людьми та автономними системами. **Одна дуже важлива відмінність полягає в тому, що люди володіють тим, що я б назвав здоровим глуздом. Знання здорового глузду – це мережа знань, яку ми розвиваємо від народження. У нас є механізм, ми не знаємо, як він працює. Але завдяки щоденному досвіду ви збагачуєте цю мережу й отримуєте знання здорового глузду, щоб зрозуміти світ. ** Для людини, коли вона мислить, вона пов’язує чуттєву інформацію з цією концептуальною моделлю здорового глузду. Потім результати аналізу повертаються з концептуальної моделі до сенсорної інформації. Це дуже відрізняється від нейронних мереж. Наведу вам приклад: я показую вам знак «стоп», частково засніжений, і ви одразу кажете, що це, безсумнівно, знак «стоп».
Тепер, якщо ви хочете навчити нейронну мережу розпізнавати знак зупинки, який частково вкритий снігом, це означає, що оскільки нейронна мережа не може зв’язати сенсорну інформацію з концептуальною моделлю, вам доведеться навчити нейронну мережу розуміти будь-яку погоду умови.Стан. **Ось чому дітей легше вчити, ніж нейронні мережі. Якщо ви один раз покажете дитині машину, наступного разу вона скаже, що це машина. **Оскільки вони утворюють абстрактну модель того, чим є автомобіль через спостереження. Вони можуть пов’язувати сенсорну інформацію з цією концептуальною моделлю. **Це одна з найбільших проблем, з якими сьогодні стикається штучний інтелект. **Це також важлива проблема для безпілотних автомобілів. Безпілотні автомобілі повинні мати можливість збирати сенсорну інформацію та пов’язувати цю інформацію з картами тощо. Прийняття рішень виключно на основі сенсорної інформації може бути небезпечним. Ми вже мали такі приклади.
Незрозуміло, чому люди здатні розуміти складні ситуації без аналізу та обчислень. Ми можемо зробити це, тому що ми можемо пов’язати чуттєву інформацію з певною концептуальною інформацією, абстрактною інформацією. Тож там, де ми взагалі не можемо помилитися, нейронні мережі можуть багато помилитися. Я пам’ятаю один раз, коли моя Tesla раптово зупинилася, бо подумала, що поєднання місяця та дерев – це жовте світло світлофора. Це абсолютно не трапляється з людьми, тому що люди можуть контекстуалізувати інформацію, щоб надати їй сенс. Я відразу зрозумів, що це місяць, бо світлофор не може парити в небі.
Отже, коли хтось каже, що ці системи можуть у чомусь конкурувати з людьми, можливо, так і можна. **Але людський інтелект характеризується вашою здатністю розуміти світ і цілеспрямовано ставити запитання. Штучний інтелект ще далекий від цієї мети. **
**Технологія Tencent: тому що ви вивчали автономне водіння, яке вже включає розуміння навколишнього середовища, пізнання та сприйняття. Лекун стверджує, що оскільки ми тварини, що бачать, наше розуміння світу значною мірою базується на баченні. Якщо великі мовні моделі можуть бути мультимодальними та навчатися в навколишнього середовища, чи зможуть вони зрозуміти сам світ? **
Джозеф Шиффакіс: **Я думаю, що якщо штучний інтелект не зможе поєднати конкретні знання з символічними знаннями, неможливо буде зрозуміти світ, покладаючись лише на великі мовні моделі. ШІ може зробити це, лише поєднавши конкретні знання, тобто знання в базах даних, із символічними знаннями. Якщо не зможе, то людський інтелект перевершить машини. Я в цьому впевнений. **Я знаю, що багато людей зі мною не погодяться, тому що обчислювальний інтелект може аналізувати та отримувати дані за допомогою мільйонів параметрів. Люди погано це роблять. Але люди добре справляються з абстрактними проблемами.
**Людський інтелект залежить від здатності використовувати аналогії та метафори. **Навіть якщо ми не розуміємо, як працює людська творчість, я все одно можу сказати, що це дуже важливо. **Тому що в людській творчості слід розрізняти відкриття та винахід. **Машина може виявити щось із складніших і великих даних за допомогою аналізу даних. А ось винаходи - це інша справа. Винахід означає, що я винайшов теорію. Я думаю, що ми далекі від розуміння цієї частини людського інтелекту.
Але здатність відкривати також корисна, оскільки вона може допомогти людям вгадати більш загальні закономірності. Це те, чого наш власний розум не може виявити. Але я не думаю, що машини зможуть створювати нові наукові теорії чи нові машини. **Вони забезпечать синтез знань, якими володіють. Подібно до процесу дистиляції, вони містять величезну кількість знань, які потім дистилюють і представляють вам. **Це дивно. Але цього недостатньо. Щоб отримати більше можливостей, потрібні людські здібності.
У статті, яку я написав, я пояснив, що насправді існують різні типи інтелекту. Людський інтелект дуже особливий, тому що основою для розвитку людського інтелекту є особливий світ, у якому ми прагнемо жити. **Якби ми народилися в іншому світі, можливо, ми б розвинули інший інтелект. Інтелект - це здатність генерувати знання та вирішувати проблеми. **Звичайно, тепер, коли ми бачимо машини, які можуть вирішувати деякі проблеми, які ми не можемо, вони насправді володіють іншим типом інтелекту. Це чудово, у нас є якась взаємодоповнюваність. **
04 Розвиток науки і техніки має надавати пріоритет покращенню життя людини
**Tencent Technology: у нас щойно були філософські дискусії, а тепер ми обговоримо деякі питання про моральний вплив ШІ на суспільство. Перше запитання полягає в тому, що, на відміну від оптимізму, що нові технології створять достатньо нових робочих місць, ви згадуєте, що штучний інтелект спричинить серйозні проблеми з безробіттям. І чи важко ці проблеми вирішити без зміни соціально-економічної системи. Чи можете ви пояснити, чому ви так говорите? Тому що багато людей цим стурбовані. **
Джозеф Шиффакіс: Розвиток ШІ підвищить продуктивність. В економіці є кілька дуже простих законів: якщо продуктивність зростає, то для виконання тієї ж роботи потрібно все менше і менше людей. Цей момент дуже зрозумілий.
Зараз деякі люди думають, що штучний інтелект створить деякі можливості роботи, особливо для висококваліфікованих людей, він створить нові можливості роботи. **Але якщо зважити робочі місця, створені штучним інтелектом, із робочими місцями, втраченими через нього, вплив ШІ має бути негативним. **
Тепер усі погоджуються, що ШІ спричинить безробіття. Це очевидно. **Але впродовж історії людства технології підвищували продуктивність, що зрештою покращувало якість життя людей. **Протягом століть люди працювали менше годин. Ми повинні розглядати вирішення цієї проблеми шляхом відповідних економічних і соціальних реформ. Включно з реформою освіти, тому що ви повинні навчати людей адаптуватися до цієї нової епохи.
**Технологія Tencent: під час промислової революції життя людей спочатку не значно покращилося. Вони працюють на заводах і можуть працювати по 14 годин на добу. Як ви думаєте, чи стануть умови життя людей гіршими на початку технологічних інновацій? **
Джозеф Шиффакіс: Ні, я думаю, що промислова революція загалом покращила якість людського життя. Це суть справи. **Я думаю, що проблема сучасного суспільства полягає в тому, що воно не сприймає цю мету серйозно, вони вважають, що технічний прогрес має бути пріоритетом. Але я вважаю, що найвищим пріоритетом є те, як покращити життя людини, що має бути першочерговим. Принаймні я гуманітарій. **
**Tencent Technology: я також гуманітарій і розумію, наскільки серйозна ця проблема. Як ви вважаєте, чи може ШІ мати серйозні наслідки, крім безробіття? **
Джозеф Шиффакіс: Це можливо. Але проблема в тому, що деякі люди кажуть, що штучний інтелект становитиме загрозу для людей, і навіть ми можемо стати рабами машин. Мені не подобається ця заява. У своїй книзі я кажу, що технології нейтральні. У вас є атомна енергія, ви можете використовувати атомну енергію для виробництва електроенергії, ви можете використовувати її для виготовлення бомб і вбивства людей. Це ваше рішення. Якщо подумати, всі ці люди, які кажуть, що штучний інтелект є загрозою для людей, абсолютно дурні. Оскільки використання технологій – це відповідальність людини. **
**Я думаю, що ці люди говорять це лише тому, що вони також хочуть зменшити людську відповідальність за це. **Тому що вони хочуть, щоб люди прийняли ШІ, що дуже погано. Люди повинні відповідати за можливі проблеми. Я не знаю, що відбувається в Китаї, але, на жаль, у західному світі люди не надто чутливі до цього. Вони вважають, що технологія (негативний вплив) наперед визначена, що дуже погано. Я також сказав у своїй книзі, що найбільший ризик полягає не в тому, що людьми керують машини, а в тому, що люди визнають, що машини приймають усі ключові рішення. Якби у мене був раб, який міг би робити все, що я хочу, як у тих арабських міфах, то я б у підсумку став рабом свого раба. **Тож небезпека походить від людей. Я також бачив це у французьких школах, якщо дитина має доступ до чат-бота, вона стає нездатною писати, упорядковувати свої думки і в кінцевому підсумку стає залежною від машини. Це не райдужний сценарій для людства.
**Tencent Technology: Кілька днів тому багато відомих діячів у сфері штучного інтелекту, включаючи Сема Альтмана, підписали заяву про загрозу зникнення штучного інтелекту. У своїй книзі ви сказали, що поточні медіа та інсайдери галузі перебільшення можливостей і загроз ШІ. Одна з них? Як ви вважаєте, чи може нинішня парадигма ШІ спричинити кризу людської цивілізації? **
Джозеф Шиффакіс: **Небезпека, яку представляє штучний інтелект, очевидна і може походити в основному від його неправильного використання. **На жаль, сьогодні ми не маємо відповідних нормативних актів проти цієї небезпеки. Оскільки уряд не знає, як ці речі розвиваються, відсутність прозорості означає, що нормативні акти не можуть застосовуватися. Це дуже погано для суспільства. Дуже ймовірно, що штучний інтелект буде використаний не за призначенням, тому я також підписав петицію на підтримку розслідування компанії.
Техніка – це дуже добре, і я нічого не маю проти техніки. Це чудово, що у нас є чат-боти, і ми повинні прогресувати в цьому напрямку. **Штучний інтелект, включаючи загальний штучний інтелект, це добре, і я не маю нічого проти. Я проти неправильного використання цих технологій. Різні країни та міжнародні інституції повинні забезпечувати дотримання правил, хоча є певні труднощі, оскільки самій великій мовній моделі бракує інтерпретації. Але ми все одно можемо вимагати певної прозорості від компаній-розробників, наприклад, як створюються набори даних і як навчаються ці механізми. **
**Технології Tencent: нещодавно Конгрес США провів слухання щодо штучного інтелекту та стандартних людей. У тому числі Сем Альтман, Маркус брав участь, і відповідні законопроекти приймаються в Європі. Як ви вважаєте, це хороший початок? **
Джозеф Шиффакіс: Але проблема в тому, що **коли люди говорять про безпечний штучний інтелект, вони часто не говорять про одне й те саме. **Як для інженера, для мене безпека має дуже чітке визначення. Інші можуть подумати, що безпечний ШІ означає довіряти ШІ так само, як і людям. Основна логіка цієї ідеї полягає в тому, щоб ставитися до штучного інтелекту як до людини, а не машини. Є багато інших документів, які стверджують, що не має значення, що робить ШІ, важливим є намір ШІ, тому ви повинні вміти відокремити намір від результату тощо. Тому є багато дискусій. **Я сподіваюся, що вся ця дискусія призведе до якогось серйозного регулювання, а не просто списку бажань. **
**Технологія Tencent: давайте поговоримо про кращі можливості. Яким чином він може змінити наше життя, якщо не зловживати штучним інтелектом? **
Джозеф Шиффакіс: Якщо ми не зловживатимемо штучним інтелектом, майбутнє буде досить багатообіцяючим. Це величезна революція. Він має величезний потенціал для розвитку знань для вирішення деяких грандіозних проблем, з якими сьогодні стикається людство, таких як зміна клімату, управління ресурсами, проблеми населення, пандемії тощо.
Раніше я казав, що існує явна взаємодоповнюваність між людьми та машинами. ** Для людей найкращим сценарієм є гармонійна співпраця між машинами та людьми. І в цьому процесі люди зможуть оволодіти всіма процесами розробки та застосування знань, гарантуючи, що ці машини не прийматимуть ключові рішення за нас самі. **
Перед нами стоїть завдання знайти правильний баланс, знайти правильний баланс ролей між людьми та машинами. Я сподіваюся, що ми зможемо зробити це успішно.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Діалог із лауреатом премії Тьюрінга Гіппакісом: найбільша загроза, яку несе штучний інтелект, — це перетворити людей на «рабів рабів»
Джерело: Tencent Technology
З початку 2023 року ChatGPT занурив світ у божевілля ШІ. З дебютом GPT4 його нові потужні можливості змушують людей відчувати, що всього за кілька років ШІ стане всемогутнім існуванням.
Але де верхня межа ШІ, заснованого на парадигмі трансформатора великої мовної моделі? Чи справді воно повністю замінить нас? На ці запитання було багато відповідей. Деякі люди вважають, що велика мовна модель принесе нову еру, яка дуже близька до штучного інтелекту, який може завершити всю людську роботу; але деякі люди вважають, що це просто випадковий папуга, який взагалі не може зрозуміти світ. На даний момент, з якої б точки зору не було достатньої інтерпретації та чітко сформованої системи.
Щоб дозволити людям краще зрозуміти це питання, Джозеф Хіфакіс, іноземний академік Академії наук Китаю, написав книгу «Розуміти та змінити світ», виклавши своє десятирічне розуміння штучного інтелекту, що привело до AGI з точки зору когнітивні принципи мислення про потенційні шляхи. Джозеф Шиффакіс отримав премію Тюрінга на десять років раніше, ніж Хінтон та інші. Цього разу він дуже чітко виклав з точки зору когнітивних принципів свою «можливість і неспроможність штучного інтелекту» та «шлях, що веде до AGI». Потенційні шляхи та ризики. ” десятиліття роздумів.
丨Фокус
01 Поточний AI далекий від AGI
**Технологія Tencent: що означає поява ChatGPT для штучного інтелекту? Чи це нова парадигма, чи більш конкретне застосування існуючої парадигми? **
Джозеф Шиффакіс: Я вважаю, що поява ChatGPT та інших мовних моделей є важливим кроком у розвитку штучного інтелекту. **Насправді ми зазнали такої зміни парадигми, що фактично можна відповісти на будь-який запит природною мовою, часто з дуже актуальною відповіддю на запитання. Великі мовні моделі вирішують давні проблеми обробки природної мови. **Це область, де дослідники десятиліттями не досягали успіху, до неї традиційно підходила символістська школа думки, яка розділяє синтаксис і семантику мови для побудови правил для штучного інтелекту.
Тепер великі мовні моделі використовують інший підхід, і вони вважають, що значення слова визначається всіма контекстами, в яких воно використовується. Вони використовують машинне навчання для виконання розрахунків розподілу ймовірностей. Для слів цей розподіл ймовірностей використовується для прогнозування найбільш ймовірного наступного слова в реченні. Це дуже простий, але ефективний метод. Це трохи наївно, але для конспектування тексту виявляється чудово. Звичайно, природа використовуваного рішення також визначає його обмеження. Мовні моделі чудово підходять для створення коротких викладів певного тексту або навіть написання віршів. Якщо ви зробите це коротким викладом історії Китаю 20-го століття, це може зробити справді хорошу роботу. Але з іншого боку, якщо ви ставите дуже точні запитання або вирішуєте дуже прості логічні задачі, це може піти не так. Ми можемо це зрозуміти, оскільки цей тип запитань є контекстно-незалежною моделлю, тому ми не можемо перевірити зв’язність тексту та відповіді, які він надає.
**Технологія Tencent: зараз існує багато нових технологій, таких як логічні дерева (LOT), які можуть допомогти машинам самостійно керуватися для розуміння логічних процесів. Зараз великі мовні моделі навчаються розвивати більш специфічні або складні логічні процеси. У нейронної мережі багато рівнів, і чим вищий рівень, тим абстрактніше розуміння. Чи можливо, що в цих нейронах вищого рівня може бути щось на зразок моделі чи структурного розуміння світу? **
Джозеф Шиффакіс: У своїй книзі я пояснюю, що люди й машини розвивають і застосовують різні типи знань. Ці знання дозволяють людям і машинам вирішувати різні типи проблем, залежно від того, наскільки вони обґрунтовані та загальні. **Важлива відмінність між «науково-технічними знаннями» та «тактовними досвідними знаннями, отриманими в процесі навчання». Наприклад, коли я говорю, коли я ходжу, мій мозок насправді вирішує дуже складні проблеми, але я не розумію, як вони працюють, і нейронні мережі генерують ті самі неявні емпіричні знання, що дозволяє нам вирішувати проблеми, не розуміючи як вони працюють. **
Це те, що ми називаємо знаннями, заснованими на даних. Навпаки, дуже важливо, щоб найкращі науково-технічні знання базувалися на використанні математичних моделей, які забезпечують глибоке розуміння фізичних явищ об’єктів і компонентів. Наприклад, коли ви будуєте міст, ви можете бути впевнені (за його принципами), що міст не зруйнується протягом століть. Проте за допомогою нейронних мереж ми можемо робити певні прогнози, але ми не розуміємо, як вони працюють, і неможливо побудувати теорію, яка пояснює поведінку нейронних мереж. **Ця властивість робить великі мовні моделі суворо обмеженими у критичних програмах без участі людини.
Питання в тому, чи можуть ці системи GPT-LM досягти рівня інтелекту людини. Це проблема. Я думаю, що існує багато плутанини щодо того, що таке інтелект і як його досягти. Тому що, якщо ми не маємо чіткого поняття інтелекту, ми не можемо розробити теорії про те, як він працює, і ми не можемо чітко визначити інтелект.
А сьогодні багато плутанини. Нещодавно я написав статтю про це питання. Насправді, якщо ви відкриєте словник, наприклад Оксфордський словник, ви побачите, що **інтелект визначається як здатність вивчати, розуміти і думати про світ, а також досягати цілей і діяти з метою. **
**Машини можуть робити вражаючі речі. Вони можуть перевершити людей в іграх. Вони здатні виконувати різні завдання. Останнім часом також були досягнуті великі досягнення. Вони можуть виконувати завдання, пов’язані з сенсорними здібностями, наприклад візуальне розпізнавання. Однак машини не можуть перевершити людей, коли йдеться про обізнаність про ситуацію, адаптацію до змін навколишнього середовища та творче мислення. **Просто кажучи, GPT дуже добре перекладає природну мову, але не може керувати автомобілем. Ви не можете використовувати GPT для керування автомобілем. Між ними ще велика прірва. Думаю, у нас ще попереду довгий шлях. **Сьогодні ми маємо лише слабкий штучний інтелект, у нас є лише деякі компоненти загального інтелекту. Нам потрібно щось більше. **
Я думаю, що важливим кроком до загального інтелекту стануть автономні системи. Тепер концепція зрозуміла: автономні системи виникають через необхідність подальшої автоматизації існуючих організацій шляхом заміни людей автономними агентами, що також передбачено Інтернетом речей. Насправді ми говоримо про безпілотні автомобілі, розумні мережі, розумні фабрики, розумні ферми, розумніші телекомунікаційні мережі. **Ці системи дуже відрізняються від вузького штучного інтелекту тим, що вони складаються з агентів, які обмежені в режимі реального часу та мають мати справу з багатьма різними цілями. Ці цілі передбачають зміни в діях і діях у багатьох різних сферах, і GPT не дуже добре в цьому, він хороший у роботі з природною мовою та трансформацією документів. **Крім того, нам потрібні системи, які можуть гармонійно працювати з людьми. Усе це неможливо з іншими мовними моделями. Отже, ми ще досить далекі від загального штучного інтелекту. Звичайно, все зводиться до того, що саме ми вважаємо інтелектом, тому що якщо інтелект визначити як просто розмови та ігри, то ми досягли загального штучного інтелекту, але я не згоден з таким визначенням.
**Технологія Tencent: стандартним тестом інтелекту в минулому був тест Тюрінга. Очевидно, GPT пройшов тест Тюрінга з точки зору діалогу, але це не автономний інтелект. Як у цьому випадку ми можемо судити про інтелект ШІ? **
Джозеф Шиффакіс: Нещодавно я написав статтю, в якій стверджував, що тесту Тюрінга недостатньо. **Я пропоную інший тест, який я називаю тестом заміни. Фактично, ідея полягає в тому, що якби я міг замінити машину іншим агентом, який виконує завдання, я б сказав, що цей агент такий же розумний, як і агент, який виконує завдання. **Якби я міг замінити людину машиною, щоб водити машину, навчати людину чи бути хорошим хірургом, тоді я б сказав, що машина така ж розумна, як і людина.
Отже, якщо ви візьмете це визначення, замість тестування, ви подумаєте, що людський інтелект насправді є комбінацією навичок. Отже, ви розумієте, наскільки ми далекі від загального інтелекту? У цьому альтернативному тесті деякі дії може виконувати машина, наприклад робот. Якщо ви хочете займатися садівництвом, вам для цього потрібен робот. GPT — це лише мовна модель, вона не містить цих частин робота.
**Технологія Tencent: згідно з вашим визначенням, ми побачимо, як розрив між штучним інтелектом і людським інтелектом зникне лише тоді, коли обчислення та системи зможуть автоматично виконувати великі обсяги тексту та адаптуватися до мінливого середовища. І тепер такі програми, як AutoGPT або Baby AGI, можуть розділити завдання на різні етапи та намагатися досягти мети завдання за допомогою різних процесів. Певним чином це досить автоматизовано. Як ви думаєте, чи наближається він у процесі до AGI? **
Джозеф Шіффакіс: Тут є багато питань, у тому числі питання системної інженерії. **Недостатньо мати суперінтелектуального агента, тому що ви також повинні гарантувати, що його поведінку можна пояснити. **Цю проблему я також широко обговорюю у своїй дисертації, а саме проблему пояснюваного штучного інтелекту або безпечного штучного інтелекту, про яку всі говорять.
Люди не розуміють, що **за допомогою нейронних мереж ми не можемо зрозуміти їх поведінку. Очевидно, ви не можете пояснити, чому він робить такий вихід, тому що ви не можете мати математичної моделі для опису їх поведінки. Звичайно, ми чудово розуміємо, як розраховуються математичні функції кожного вузла нейронної мережі. **Це просто лінійна комбінація вхідних даних плюс деякі нелінійні функції, тому ми можемо зрозуміти поведінку кожного вузла. **Але коли ми намагаємося зрозуміти емерджентні властивості всієї нейронної мережі, ми впадаємо у відчай. **Але це не проблема ШІ, це загальна проблема науки.
Ви не можете зробити висновок про властивості води лише за властивостями атомів кисню та водню. Навіть якщо ви це повністю розумієте, існує проблема масштабу та складності. Це точка відчаю. **Ми не можемо використовувати логіку поєднання технологій або редукціонізму, щоб зрозуміти загальну поведінку нейронної мережі через поведінку її елементів. Тож єдиний спосіб застосувати це до нейронної мережі – це протестувати її, оскільки ми не можемо перевірити її поведінку та не можемо міркувати про це. **Але якщо застосовуються лише тести, це означає, що ви використовуєте виключно експериментальний підхід, а не теоретичне розуміння. Таким чином, тип вмісту, який ви можете перевірити, дуже різниться: наприклад, ви не можете перевірити цілісні проблеми безпеки, оскільки не можете проаналізувати загальну поведінку. Але ви можете проводити тестування безпеки для захисту.
Ми завжди проводили тестування апаратного та програмного забезпечення. Але для того, щоб тестувати, ви повинні мати критерії, як довго має тривати тест. Для апаратного та програмного забезпечення у нас є моделі та стандарти покриття. Але для нейронних мереж у нас немає такого стандарту. Я не кажу, що це дуже складна для вирішення проблема, **Для нейронних мереж у нас є деякі альтернативні можливості, такі як змагальні приклади. Але ці маніпуляції порушують певну стійкість у їхній поведінці. ** Отже, бачиш, якщо я задам тобі запитання, ти даси відповідь. Якщо я трохи зміню ваше запитання, ви б дали кілька подібних відповідей, якби ви були людиною. Але ми знаємо, що коли ми трохи змінюємо вхідні дані для нейрона, відповідь може бути дуже різною. Тож це теж варто враховувати.
02 Виникнення ніколи не можна зрозуміти
**Tencent Technology: чи вважаєте ви, що поява цієї концепції, тобто перехід від базових можливостей до розширеніших можливостей, є незрозумілою? **
Джозеф Шиффакіс: Так. Ви берете такий предмет, як фізика. Фізика – дуже зрілий предмет. Фізики намагаються встановити логічний зв’язок між теорією елементарних частинок, квантовою теорією чи загальною теорією відносності, і я не думаю, що їм це коли-небудь вдасться, тому що існує проблема масштабу. Я думаю, що подібні проблеми існують у будь-якій системі.
**Tencent Technology: Отже, на вашу думку, через цей незрозумілий феномен ми не можемо передбачити, що може зробити велика мовна модель? **
Джозеф Шиффакіс: Очевидно, що ми не можемо побудувати модель, щоб передбачити, що вона може зробити. Ми не можемо будувати моделі, я маю на увазі математичні моделі. Тут співтовариство ШІ використовує слово модель для позначення нейронної мережі, що є джерелом плутанини.
Я думаю, що нам слід застосувати інший цілісний підхід. Оскільки ми не можемо сформувати відповідну модель, **можливо, ми зможемо створити теорію на основі тестів та емпіричних спостережень. Це має бути теорія перевірки статистичних властивостей. **Але, як я розумію, у нас є деякі потреби, які технічно важко задовольнити в сучасних нейронних мережах.
**Технологія Tencent: так. Отже, щоб зрозуміти ці здібності, які випливають із них, нам потрібно створити таку дисципліну, як психологія, щоб зрозуміти це? **
Джозеф Шиффакіс: Саме так. Це гарне запитання. Але використовувати сам GPT для встановлення такого розуміння буде трохи проблематично. Тому що насправді деякі люди зараз кажуть, що GPT успішно складає іспит на юриста чи лікаря, то чому такий GPT не може стати лікарем чи юристом?
Я думаю, що це дуже цікавий аргумент, але він стосується проблеми надійності, про яку я згадував раніше. Крім того, складаючи іспит, здатність між людьми та нейронними мережами дуже відрізняється.
Питання стійкості полягає в тому, що якщо ви попросите здорову людину відповісти на запитання, якщо ви трохи зміните запитання, відповідь буде схожою. GPT не гарантує однаковість відповідей. Інша проблема полягає в тому, що люди можуть покладатися на логіку, щоб контролювати те, що вони роблять і що вони повинні говорити. Але оскільки нейронна мережа, як правило, як ChatGPT, не має семантичного контролю над тим, що вона робить, вона може робити речі, які явно неправильні. Жодна розумна людина не зробить такої помилки. Таким чином, висновок усієї аргументації полягає в тому, що якщо GPT може логічно контролювати узгодженість того, що він говорить, і він відповідно є надійним, тоді дозволити GPT бути юристом було б чудово. Але насправді ми ще далекі від такого рівня штучного інтелекту. **
**Технологія Tencent: чому так важко контролювати ChatGPT? Це тому, що це функція розподіленого обчислення комп’ютера? **
Джозеф Шиффакіс: GPT — це інший тип комп’ютера. Це природний комп'ютер. Це не комп’ютер, який виконує програми, поки ви їх пишете, ви маєте абсолютний контроль над тим, що система може, а що ні. Коли ви тренуєте нейронну мережу, ви втрачаєте контроль. Ці системи можуть бути творчими в певному сенсі, оскільки вони мають ступені свободи.
Тепер, якщо ми зможемо контролювати ці ступені свободи і зрозуміти, як вони поводяться, у нас все буде добре. **Проблема в тому, що ми не можемо контролювати цей величезний ступінь свободи нейронних мереж, і практично неможливо контролювати це теоретично. **Ви можете зробити приблизну оцінку їхньої поведінки, але ви не матимете точних результатів. Якщо у вас є традиційна комп’ютерна програма, навіть якщо це довга програма, ви все одно можете витягнути семантичну модель і зрозуміти, що в ній відбувається. Це дуже важлива відмінність.
**Tencent Technology: чи можете ви докладніше розповісти про концепцію природних машин? **
Джозеф Шиффакіс: **Природні машини — це інтелект, який використовує природні явища. Наприклад, нейронна мережа — це природна машина, схожа на квантовий комп’ютер або інші комп’ютери. Раніше, коли я був студентом, у нас також було багато комп’ютерів. У створенні цієї природної машини ми будемо використовувати деякі принципи у фізичних явищах, оскільки будь-яке фізичне явище містить певний інформаційний вміст. Наприклад, коли я кидаю камінь, камінь схожий на комп’ютер, він обчислює параболу, яка формує алгоритм. Ви можете спостерігати будь-яке явище, і ви можете використовувати природні явища для створення комп’ютерів. Але ці комп’ютери не запрограмовані заздалегідь. Вони використовують певні закони фізики чи математики. Це у випадку з нейронними мережами. **
**Tencent Technology: Давайте поговоримо про інший вміст вашої книги. Ви обговорювали деякі питання досліджень та інновацій. Ми всі знаємо, що хоча багато ідей нейронних мереж походять з Європи чи Японії, компанії, які використовують їх і виробляють продукти, такі як OpenAI і Deepmind, усі знаходяться в Сполучених Штатах. Як ви думаєте, у чому причина цього? **
Джозеф Шиффакіс: Є різниця між увагою та інноваціями. **Оскільки інновація — це здатність застосовувати дослідження для розробки нових продуктів або послуг для досягнення технологічного прориву. **
Я вважаю, що це дуже сильна перевага США, вони чудово впоралися з інноваціями. Це почалося в Каліфорнії, де є те, що я називаю інноваційною екосистемою. **Інноваційна екосистема об’єднує дуже хороші академічні установи, великі технологічні компанії, стартапи, а також венчурний і капітал. Ця узгодженість забезпечує ефективний і ефективний переклад нових результатів і застосувань. Інші країни також перейняли цю модель. Ідея інноваційної екосистеми є загальною, і менші країни, такі як Ізраїль та Швейцарія, досягли великого успіху. ** Отже, підсумовуючи, я вважаю, що для досягнення інновацій вам слід поєднати великі університети з великими галузями. Це залежить не лише від матеріальних ресурсів, а й від культурних факторів, освіта та установи повинні визнавати індивідуальну творчість і підприємливість.
03 Нейронна мережа Oracle: нова наука, яку неможливо зрозуміти
**Технологія Tencent: Ви щойно згадали, що нейронні мережі — це процес моделювання біологічного мозку та фізичного світу. Як можливе таке моделювання, коли наше розуміння біологічного мозку все ще дуже обмежене? Як далеко ця нейронна мережа від нашого біологічного мозку? **
Джозеф Шиффакіс: Це гарне запитання. Я тільки що сказав, що нейронні мережі — це свого роду природний комп’ютер, який приймає парадигму, відмінну від традиційних комп’ютерів. Зокрема, нейронні мережі надихають нейронні роботи нашого мозку. Він імітує деякі природні процеси, за допомогою яких працюють нерви. **Однак нейронні мережі лише імітують принципи обчислення мозку, який є більш складним, оскільки має різні структури та функції в різних регіонах. І ці різні функції створені на основі більш складної архітектури, яку ми все ще намагаємося зрозуміти. **І нейронна мережа мозку є режимом паралельних обчислень. Нейронні мережі також сильно відрізняються від нього в цьому плані.
Слід також розуміти, що **якщо ми вивчаємо мозок лише на біологічному рівні, я не думаю, що ми зможемо повністю охопити всі людські наміри. **Як приклад, використовуйте свій ноутбук для запуску програмного забезпечення. Тоді я дам тобі електронні прилади, щоб за допомогою вимірювань дослідити, як працює це обладнання. Якщо ви зібрали програму, всі знання присутні у вигляді електричних сигналів на апаратному рівні. Але лише за допомогою аналізу цього електричного сигналу неможливо знайти вихідний код проблемного програмного забезпечення, тому що у вас проблема масштабу. **Я думаю, що це ключ до розуміння людського інтелекту, ми повинні вивчати мозок, але не тільки мозок. Тому обчислювальний феномен мозку є поєднанням електричних сигналів, фізико-хімічних явищ і психологічних явищ. **
** І проблема сьогодні полягає в тому, як пов’язати психічні явища з обчисленнями мозку. На мою думку, це серйозний виклик. Якщо нам це не вдасться, я не думаю, що ми коли-небудь зможемо зрозуміти людський інтелект. **
**Технологія Tencent: Ви згадали, що штучний інтелект відкриває новий шлях для розвитку людських знань, долаючи обмеження людського мозку при вирішенні складних проблем. Як ви думаєте, у чому ШІ може повністю перевершити людей? **
Джозеф Шиффакіс: Так. У своїй книзі я пояснюю, що **машини можуть допомогти нам подолати деякі обмеження нашого мислення. **Це підтверджено психологами. Обмеження тут включають обмеженість людського розуму когнітивною складністю. **Ми, люди, не можемо зрозуміти зв’язок між більш ніж п’ятьма незалежними параметрами. Ось чому теорії, які ми розробляємо, дуже прості. У нас немає теорії з 1000 сформованих незалежних параметрів. **
**Тож я вважаю, що це дуже важливий напрямок у майбутньому. У нас буде більше «оракулів», які допоможуть нам передбачити розвиток складних явищ або складних систем. ** Наприклад, у нас будуть інтелектуальні цифрові двійникові системи, які допоможуть нам робити прогнози, але не розумітимуть (логіку прогнозів). Тож ** у нас буде новий вид науки. **Я думаю, що це цікаво мати можливість використовувати цей вид науки, але нам також потрібно контролювати якість отриманих знань. **Вам варто подумати про це, тому що люди більше не матимуть єдиного привілею виробляти знання. Тепер людині доводиться конкурувати з машинами. **
Отже, важливе питання для нашого суспільства полягає в тому, чи можемо ми співпрацювати з машинами та оволодівати розвитком і еволюцією знань, розроблених машинами. **Або ми створимо ситуацію, коли наука, керована людьми, і наука, керована машинами, співіснуватимуть. **Це був би цікавий сценарій, якби у нас була паралельна наука на основі цих машин.
**Технологія Tencent: Ви згадали, що людський розум також є обчислювальною системою. Обидві системи дуже схожі за своїми компонентами порівняно з автоматами. Отже, які унікальні можливості людини порівняно з сильним штучним інтелектом? **
Джозеф Шиффакіс: Це дуже гарне запитання. Оскільки я працював над автономними системами, я спробував розробити самокеровані автомобілі. Для безпілотного автомобіля у вас будуть такі функції, як сприйняття, перетворення сенсорної інформації в концепції. У вас буде рефлексивна функція, яка моделює зовнішній світ і приймає рішення. Прийняття рішень означає досягнення багатьох різних цілей. Для досягнення цих цілей потрібне планування тощо. Між автономними системами та людським розумом справді багато спільного.
Проте є деякі важливі відмінності між людьми та автономними системами. **Одна дуже важлива відмінність полягає в тому, що люди володіють тим, що я б назвав здоровим глуздом. Знання здорового глузду – це мережа знань, яку ми розвиваємо від народження. У нас є механізм, ми не знаємо, як він працює. Але завдяки щоденному досвіду ви збагачуєте цю мережу й отримуєте знання здорового глузду, щоб зрозуміти світ. ** Для людини, коли вона мислить, вона пов’язує чуттєву інформацію з цією концептуальною моделлю здорового глузду. Потім результати аналізу повертаються з концептуальної моделі до сенсорної інформації. Це дуже відрізняється від нейронних мереж. Наведу вам приклад: я показую вам знак «стоп», частково засніжений, і ви одразу кажете, що це, безсумнівно, знак «стоп».
Тепер, якщо ви хочете навчити нейронну мережу розпізнавати знак зупинки, який частково вкритий снігом, це означає, що оскільки нейронна мережа не може зв’язати сенсорну інформацію з концептуальною моделлю, вам доведеться навчити нейронну мережу розуміти будь-яку погоду умови.Стан. **Ось чому дітей легше вчити, ніж нейронні мережі. Якщо ви один раз покажете дитині машину, наступного разу вона скаже, що це машина. **Оскільки вони утворюють абстрактну модель того, чим є автомобіль через спостереження. Вони можуть пов’язувати сенсорну інформацію з цією концептуальною моделлю. **Це одна з найбільших проблем, з якими сьогодні стикається штучний інтелект. **Це також важлива проблема для безпілотних автомобілів. Безпілотні автомобілі повинні мати можливість збирати сенсорну інформацію та пов’язувати цю інформацію з картами тощо. Прийняття рішень виключно на основі сенсорної інформації може бути небезпечним. Ми вже мали такі приклади.
Незрозуміло, чому люди здатні розуміти складні ситуації без аналізу та обчислень. Ми можемо зробити це, тому що ми можемо пов’язати чуттєву інформацію з певною концептуальною інформацією, абстрактною інформацією. Тож там, де ми взагалі не можемо помилитися, нейронні мережі можуть багато помилитися. Я пам’ятаю один раз, коли моя Tesla раптово зупинилася, бо подумала, що поєднання місяця та дерев – це жовте світло світлофора. Це абсолютно не трапляється з людьми, тому що люди можуть контекстуалізувати інформацію, щоб надати їй сенс. Я відразу зрозумів, що це місяць, бо світлофор не може парити в небі.
Отже, коли хтось каже, що ці системи можуть у чомусь конкурувати з людьми, можливо, так і можна. **Але людський інтелект характеризується вашою здатністю розуміти світ і цілеспрямовано ставити запитання. Штучний інтелект ще далекий від цієї мети. **
**Технологія Tencent: тому що ви вивчали автономне водіння, яке вже включає розуміння навколишнього середовища, пізнання та сприйняття. Лекун стверджує, що оскільки ми тварини, що бачать, наше розуміння світу значною мірою базується на баченні. Якщо великі мовні моделі можуть бути мультимодальними та навчатися в навколишнього середовища, чи зможуть вони зрозуміти сам світ? **
Джозеф Шиффакіс: **Я думаю, що якщо штучний інтелект не зможе поєднати конкретні знання з символічними знаннями, неможливо буде зрозуміти світ, покладаючись лише на великі мовні моделі. ШІ може зробити це, лише поєднавши конкретні знання, тобто знання в базах даних, із символічними знаннями. Якщо не зможе, то людський інтелект перевершить машини. Я в цьому впевнений. **Я знаю, що багато людей зі мною не погодяться, тому що обчислювальний інтелект може аналізувати та отримувати дані за допомогою мільйонів параметрів. Люди погано це роблять. Але люди добре справляються з абстрактними проблемами.
**Людський інтелект залежить від здатності використовувати аналогії та метафори. **Навіть якщо ми не розуміємо, як працює людська творчість, я все одно можу сказати, що це дуже важливо. **Тому що в людській творчості слід розрізняти відкриття та винахід. **Машина може виявити щось із складніших і великих даних за допомогою аналізу даних. А ось винаходи - це інша справа. Винахід означає, що я винайшов теорію. Я думаю, що ми далекі від розуміння цієї частини людського інтелекту.
Але здатність відкривати також корисна, оскільки вона може допомогти людям вгадати більш загальні закономірності. Це те, чого наш власний розум не може виявити. Але я не думаю, що машини зможуть створювати нові наукові теорії чи нові машини. **Вони забезпечать синтез знань, якими володіють. Подібно до процесу дистиляції, вони містять величезну кількість знань, які потім дистилюють і представляють вам. **Це дивно. Але цього недостатньо. Щоб отримати більше можливостей, потрібні людські здібності.
У статті, яку я написав, я пояснив, що насправді існують різні типи інтелекту. Людський інтелект дуже особливий, тому що основою для розвитку людського інтелекту є особливий світ, у якому ми прагнемо жити. **Якби ми народилися в іншому світі, можливо, ми б розвинули інший інтелект. Інтелект - це здатність генерувати знання та вирішувати проблеми. **Звичайно, тепер, коли ми бачимо машини, які можуть вирішувати деякі проблеми, які ми не можемо, вони насправді володіють іншим типом інтелекту. Це чудово, у нас є якась взаємодоповнюваність. **
04 Розвиток науки і техніки має надавати пріоритет покращенню життя людини
**Tencent Technology: у нас щойно були філософські дискусії, а тепер ми обговоримо деякі питання про моральний вплив ШІ на суспільство. Перше запитання полягає в тому, що, на відміну від оптимізму, що нові технології створять достатньо нових робочих місць, ви згадуєте, що штучний інтелект спричинить серйозні проблеми з безробіттям. І чи важко ці проблеми вирішити без зміни соціально-економічної системи. Чи можете ви пояснити, чому ви так говорите? Тому що багато людей цим стурбовані. **
Джозеф Шиффакіс: Розвиток ШІ підвищить продуктивність. В економіці є кілька дуже простих законів: якщо продуктивність зростає, то для виконання тієї ж роботи потрібно все менше і менше людей. Цей момент дуже зрозумілий.
Зараз деякі люди думають, що штучний інтелект створить деякі можливості роботи, особливо для висококваліфікованих людей, він створить нові можливості роботи. **Але якщо зважити робочі місця, створені штучним інтелектом, із робочими місцями, втраченими через нього, вплив ШІ має бути негативним. **
Тепер усі погоджуються, що ШІ спричинить безробіття. Це очевидно. **Але впродовж історії людства технології підвищували продуктивність, що зрештою покращувало якість життя людей. **Протягом століть люди працювали менше годин. Ми повинні розглядати вирішення цієї проблеми шляхом відповідних економічних і соціальних реформ. Включно з реформою освіти, тому що ви повинні навчати людей адаптуватися до цієї нової епохи.
**Технологія Tencent: під час промислової революції життя людей спочатку не значно покращилося. Вони працюють на заводах і можуть працювати по 14 годин на добу. Як ви думаєте, чи стануть умови життя людей гіршими на початку технологічних інновацій? **
Джозеф Шиффакіс: Ні, я думаю, що промислова революція загалом покращила якість людського життя. Це суть справи. **Я думаю, що проблема сучасного суспільства полягає в тому, що воно не сприймає цю мету серйозно, вони вважають, що технічний прогрес має бути пріоритетом. Але я вважаю, що найвищим пріоритетом є те, як покращити життя людини, що має бути першочерговим. Принаймні я гуманітарій. **
**Tencent Technology: я також гуманітарій і розумію, наскільки серйозна ця проблема. Як ви вважаєте, чи може ШІ мати серйозні наслідки, крім безробіття? **
Джозеф Шиффакіс: Це можливо. Але проблема в тому, що деякі люди кажуть, що штучний інтелект становитиме загрозу для людей, і навіть ми можемо стати рабами машин. Мені не подобається ця заява. У своїй книзі я кажу, що технології нейтральні. У вас є атомна енергія, ви можете використовувати атомну енергію для виробництва електроенергії, ви можете використовувати її для виготовлення бомб і вбивства людей. Це ваше рішення. Якщо подумати, всі ці люди, які кажуть, що штучний інтелект є загрозою для людей, абсолютно дурні. Оскільки використання технологій – це відповідальність людини. **
**Я думаю, що ці люди говорять це лише тому, що вони також хочуть зменшити людську відповідальність за це. **Тому що вони хочуть, щоб люди прийняли ШІ, що дуже погано. Люди повинні відповідати за можливі проблеми. Я не знаю, що відбувається в Китаї, але, на жаль, у західному світі люди не надто чутливі до цього. Вони вважають, що технологія (негативний вплив) наперед визначена, що дуже погано. Я також сказав у своїй книзі, що найбільший ризик полягає не в тому, що людьми керують машини, а в тому, що люди визнають, що машини приймають усі ключові рішення. Якби у мене був раб, який міг би робити все, що я хочу, як у тих арабських міфах, то я б у підсумку став рабом свого раба. **Тож небезпека походить від людей. Я також бачив це у французьких школах, якщо дитина має доступ до чат-бота, вона стає нездатною писати, упорядковувати свої думки і в кінцевому підсумку стає залежною від машини. Це не райдужний сценарій для людства.
**Tencent Technology: Кілька днів тому багато відомих діячів у сфері штучного інтелекту, включаючи Сема Альтмана, підписали заяву про загрозу зникнення штучного інтелекту. У своїй книзі ви сказали, що поточні медіа та інсайдери галузі перебільшення можливостей і загроз ШІ. Одна з них? Як ви вважаєте, чи може нинішня парадигма ШІ спричинити кризу людської цивілізації? **
Джозеф Шиффакіс: **Небезпека, яку представляє штучний інтелект, очевидна і може походити в основному від його неправильного використання. **На жаль, сьогодні ми не маємо відповідних нормативних актів проти цієї небезпеки. Оскільки уряд не знає, як ці речі розвиваються, відсутність прозорості означає, що нормативні акти не можуть застосовуватися. Це дуже погано для суспільства. Дуже ймовірно, що штучний інтелект буде використаний не за призначенням, тому я також підписав петицію на підтримку розслідування компанії.
Техніка – це дуже добре, і я нічого не маю проти техніки. Це чудово, що у нас є чат-боти, і ми повинні прогресувати в цьому напрямку. **Штучний інтелект, включаючи загальний штучний інтелект, це добре, і я не маю нічого проти. Я проти неправильного використання цих технологій. Різні країни та міжнародні інституції повинні забезпечувати дотримання правил, хоча є певні труднощі, оскільки самій великій мовній моделі бракує інтерпретації. Але ми все одно можемо вимагати певної прозорості від компаній-розробників, наприклад, як створюються набори даних і як навчаються ці механізми. **
**Технології Tencent: нещодавно Конгрес США провів слухання щодо штучного інтелекту та стандартних людей. У тому числі Сем Альтман, Маркус брав участь, і відповідні законопроекти приймаються в Європі. Як ви вважаєте, це хороший початок? **
Джозеф Шиффакіс: Але проблема в тому, що **коли люди говорять про безпечний штучний інтелект, вони часто не говорять про одне й те саме. **Як для інженера, для мене безпека має дуже чітке визначення. Інші можуть подумати, що безпечний ШІ означає довіряти ШІ так само, як і людям. Основна логіка цієї ідеї полягає в тому, щоб ставитися до штучного інтелекту як до людини, а не машини. Є багато інших документів, які стверджують, що не має значення, що робить ШІ, важливим є намір ШІ, тому ви повинні вміти відокремити намір від результату тощо. Тому є багато дискусій. **Я сподіваюся, що вся ця дискусія призведе до якогось серйозного регулювання, а не просто списку бажань. **
**Технологія Tencent: давайте поговоримо про кращі можливості. Яким чином він може змінити наше життя, якщо не зловживати штучним інтелектом? **
Джозеф Шиффакіс: Якщо ми не зловживатимемо штучним інтелектом, майбутнє буде досить багатообіцяючим. Це величезна революція. Він має величезний потенціал для розвитку знань для вирішення деяких грандіозних проблем, з якими сьогодні стикається людство, таких як зміна клімату, управління ресурсами, проблеми населення, пандемії тощо.
Раніше я казав, що існує явна взаємодоповнюваність між людьми та машинами. ** Для людей найкращим сценарієм є гармонійна співпраця між машинами та людьми. І в цьому процесі люди зможуть оволодіти всіма процесами розробки та застосування знань, гарантуючи, що ці машини не прийматимуть ключові рішення за нас самі. **
Перед нами стоїть завдання знайти правильний баланс, знайти правильний баланс ролей між людьми та машинами. Я сподіваюся, що ми зможемо зробити це успішно.