Ідея штучного інтелекту, який генерує свідомість, давно була частиною наукової фантастики, нагадуючи суперкомп’ютер, який став лиходієм HAL 9000 у фільмі 1968 року «2001: Космічна одіссея». Із швидким розвитком штучного інтелекту ця можливість стає менш дивною, навіть визнається провідними діячами штучного інтелекту.
Минулого року Ілля Суцкевер, головний науковий співробітник OpenAI, компанії, що стоїть за чат-ботом ChatGPT, написав у Twitter, що деякі з найдосконаліших мереж ШІ можуть бути «****трохи свідомими» **.
Багато дослідників кажуть, що системи штучного інтелекту ще не є свідомими. Але швидкість, з якою розвивається штучний інтелект, змушує їх задуматися: як ми дізнаємося, чи є штучний інтелект свідомим?
Щоб відповісти на це запитання, команда з 19 нейробіологів, філософів і комп’ютерників склала список критеріїв, які, якщо вони будуть виконані, означатимуть, що система має високу ймовірність бути свідомою. Раніше цього тижня вони опублікували тимчасове керівництво, яке ще не було рецензовано, у сховищі препринтів arXiv.
Співавтор Роберт Лонг, філософ із Центру безпеки штучного інтелекту в Сан-Франциско, штат Каліфорнія, сказав, що вони виконали цю роботу, тому що «здається, справді бракує детальних, емпіричних, продуманих досліджень свідомості ШІ. "обговорити".
Дослідницька група каже, що нездатність визначити, чи є система штучного інтелекту свідомою, може мати значні етичні наслідки. Меган Пітерс, нейробіолог і співавтор дослідження, сказала, що якби щось було названо «свідомим», «це мало б кардинально змінити те, як ми, як люди, підходимо до цього».
Лонг додав, що, наскільки йому відомо, компанії, що створюють передові системи штучного інтелекту, недостатньо зробили для оцінки обізнаності про ці моделі та планування відповідно. Він сказав: «Хоча я чув деякі виступи керівників провідних лабораторій, вони говорили, що свідомість штучного інтелекту або сприйняття штучного інтелекту — це те, про що варто думати, але я не думаю, що цього достатньо».
Nature зв’язалася з двома основними технологічними компаніями, які ведуть розвиток штучного інтелекту — Microsoft і Google. Представник Microsoft сказав, що суть розвитку штучного інтелекту в компанії полягає в тому, щоб допомогти людям бути більш продуктивними у відповідальний спосіб, а не копіювати людський інтелект.
Прес-секретар сказав, що після запуску GPT-4, останньої версії публічного випуску ChatGPT, стало зрозуміло, що «наше прагнення реалізувати весь потенціал штучного інтелекту на благо суспільства в цілому вимагає нових способів оцінки цих штучні можливості розумної моделі». Google не відповів.
01.
*********Що таке свідомість? ***********
Однією з проблем під час вивчення свідомості штучного інтелекту є визначення того, що таке свідомість. Для цілей звіту дослідники зосередилися на «феноменальній обізнаності», або суб’єктивному досвіді, сказав Пітерс. Тобто органи чуття, які існують у людей, тварин або систем штучного інтелекту (якщо буде доведено, що одне з них є свідомим).
Існує багато нейронаукових теорій, які описують біологічну основу свідомості. Але немає єдиної думки про те, який з них «правильний». Тому автори використовують низку теорій для створення своєї основи. Вони вважають, що якщо функціональність системи штучного інтелекту відповідає багатьом аспектам цих теорій, тоді вона має більше шансів бути свідомою.
Вони стверджують, що цей спосіб оцінки свідомості кращий, ніж просто виконання поведінкових тестів, таких як запитання у ChatGPT, чи є він у свідомості, або виклик і спостереження за його відповідями. Тому що системи ШІ досягли неймовірного прогресу в наслідуванні людей.
Нейроболог Аніл Сет, директор Центру науки про свідомість Університету Сассекса у Великій Британії, вважає, що теоретично строгий підхід команди є хорошим. Проте, каже він, «потрібні більш точні, добре перевірені теорії свідомості».
02.
*Теоретичний підхід
Щоб сформулювати свої критерії, автори припускають, що свідомість пов’язана з тим, як системи обробляють інформацію, незалежно від того, чи зроблені вони з нейронів, комп’ютерних мікросхем чи інших матеріалів. Цей підхід відомий як обчислювальний функціоналізм. Вони також припустили, що нейронаукові теорії свідомості, отримані на основі сканування мозку та інших технічних досліджень людей і тварин, можуть бути застосовані до штучного інтелекту.
Грунтуючись на цих припущеннях, команда вибрала шість із цих теорій, з яких вони витягли низку показників свідомості.
Однією з них є теорія глобального робочого простору, яка стверджує, що люди та інші тварини використовують багато спеціалізованих систем (також званих модулями) для виконання когнітивних завдань, таких як зір і слух. Ці модулі працюють незалежно, але паралельно та об’єднуються в єдину систему для обміну інформацією.
За словами Лонга, «розглядаючи архітектуру системи та те, як у ній потік інформації», можна оцінити, чи демонструє конкретна система ШІ показники, отримані з теорії.
Сет був вражений пропозицією команди. "Це дуже добре продумано, це не нахабно, і в ньому чітко викладені припущення", - сказав він. Хоча я не згоден з деякими припущеннями, це цілком нормально, тому що є шанс, що я можу помилятися. "
Автори кажуть, що стаття далека від переконливих щодо того, як оцінювати свідомі системи ШІ, і вони сподіваються, що інші дослідники допоможуть удосконалити їхню методологію. Але ці стандарти вже можна застосовувати до існуючих систем штучного інтелекту.
Наприклад, у звіті оцінюються широкомасштабні мовні моделі, такі як ChatGPT, і виявляється, що такі системи, можна сказати, мають деякі показники обізнаності, пов’язані з теорією глобального робочого простору. Тим не менш, робота не свідчить про те, що будь-які існуючі системи ШІ є сильними кандидатами на свідомість, принаймні поки що.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Як вчені можуть дізнатися, чи є у штучного інтелекту автономну свідомість?
Ідея штучного інтелекту, який генерує свідомість, давно була частиною наукової фантастики, нагадуючи суперкомп’ютер, який став лиходієм HAL 9000 у фільмі 1968 року «2001: Космічна одіссея». Із швидким розвитком штучного інтелекту ця можливість стає менш дивною, навіть визнається провідними діячами штучного інтелекту.
Минулого року Ілля Суцкевер, головний науковий співробітник OpenAI, компанії, що стоїть за чат-ботом ChatGPT, написав у Twitter, що деякі з найдосконаліших мереж ШІ можуть бути «****трохи свідомими» **.
Багато дослідників кажуть, що системи штучного інтелекту ще не є свідомими. Але швидкість, з якою розвивається штучний інтелект, змушує їх задуматися: як ми дізнаємося, чи є штучний інтелект свідомим?
Щоб відповісти на це запитання, команда з 19 нейробіологів, філософів і комп’ютерників склала список критеріїв, які, якщо вони будуть виконані, означатимуть, що система має високу ймовірність бути свідомою. Раніше цього тижня вони опублікували тимчасове керівництво, яке ще не було рецензовано, у сховищі препринтів arXiv.
Співавтор Роберт Лонг, філософ із Центру безпеки штучного інтелекту в Сан-Франциско, штат Каліфорнія, сказав, що вони виконали цю роботу, тому що «здається, справді бракує детальних, емпіричних, продуманих досліджень свідомості ШІ. "обговорити".
Дослідницька група каже, що нездатність визначити, чи є система штучного інтелекту свідомою, може мати значні етичні наслідки. Меган Пітерс, нейробіолог і співавтор дослідження, сказала, що якби щось було названо «свідомим», «це мало б кардинально змінити те, як ми, як люди, підходимо до цього».
Лонг додав, що, наскільки йому відомо, компанії, що створюють передові системи штучного інтелекту, недостатньо зробили для оцінки обізнаності про ці моделі та планування відповідно. Він сказав: «Хоча я чув деякі виступи керівників провідних лабораторій, вони говорили, що свідомість штучного інтелекту або сприйняття штучного інтелекту — це те, про що варто думати, але я не думаю, що цього достатньо».
Nature зв’язалася з двома основними технологічними компаніями, які ведуть розвиток штучного інтелекту — Microsoft і Google. Представник Microsoft сказав, що суть розвитку штучного інтелекту в компанії полягає в тому, щоб допомогти людям бути більш продуктивними у відповідальний спосіб, а не копіювати людський інтелект.
Прес-секретар сказав, що після запуску GPT-4, останньої версії публічного випуску ChatGPT, стало зрозуміло, що «наше прагнення реалізувати весь потенціал штучного інтелекту на благо суспільства в цілому вимагає нових способів оцінки цих штучні можливості розумної моделі». Google не відповів.
01.
*********Що таке свідомість? ***********
Однією з проблем під час вивчення свідомості штучного інтелекту є визначення того, що таке свідомість. Для цілей звіту дослідники зосередилися на «феноменальній обізнаності», або суб’єктивному досвіді, сказав Пітерс. Тобто органи чуття, які існують у людей, тварин або систем штучного інтелекту (якщо буде доведено, що одне з них є свідомим).
Існує багато нейронаукових теорій, які описують біологічну основу свідомості. Але немає єдиної думки про те, який з них «правильний». Тому автори використовують низку теорій для створення своєї основи. Вони вважають, що якщо функціональність системи штучного інтелекту відповідає багатьом аспектам цих теорій, тоді вона має більше шансів бути свідомою.
Вони стверджують, що цей спосіб оцінки свідомості кращий, ніж просто виконання поведінкових тестів, таких як запитання у ChatGPT, чи є він у свідомості, або виклик і спостереження за його відповідями. Тому що системи ШІ досягли неймовірного прогресу в наслідуванні людей.
Нейроболог Аніл Сет, директор Центру науки про свідомість Університету Сассекса у Великій Британії, вважає, що теоретично строгий підхід команди є хорошим. Проте, каже він, «потрібні більш точні, добре перевірені теорії свідомості».
02.
*Теоретичний підхід
Щоб сформулювати свої критерії, автори припускають, що свідомість пов’язана з тим, як системи обробляють інформацію, незалежно від того, чи зроблені вони з нейронів, комп’ютерних мікросхем чи інших матеріалів. Цей підхід відомий як обчислювальний функціоналізм. Вони також припустили, що нейронаукові теорії свідомості, отримані на основі сканування мозку та інших технічних досліджень людей і тварин, можуть бути застосовані до штучного інтелекту.
Грунтуючись на цих припущеннях, команда вибрала шість із цих теорій, з яких вони витягли низку показників свідомості.
Однією з них є теорія глобального робочого простору, яка стверджує, що люди та інші тварини використовують багато спеціалізованих систем (також званих модулями) для виконання когнітивних завдань, таких як зір і слух. Ці модулі працюють незалежно, але паралельно та об’єднуються в єдину систему для обміну інформацією.
За словами Лонга, «розглядаючи архітектуру системи та те, як у ній потік інформації», можна оцінити, чи демонструє конкретна система ШІ показники, отримані з теорії.
Сет був вражений пропозицією команди. "Це дуже добре продумано, це не нахабно, і в ньому чітко викладені припущення", - сказав він. Хоча я не згоден з деякими припущеннями, це цілком нормально, тому що є шанс, що я можу помилятися. "
Автори кажуть, що стаття далека від переконливих щодо того, як оцінювати свідомі системи ШІ, і вони сподіваються, що інші дослідники допоможуть удосконалити їхню методологію. Але ці стандарти вже можна застосовувати до існуючих систем штучного інтелекту.
Наприклад, у звіті оцінюються широкомасштабні мовні моделі, такі як ChatGPT, і виявляється, що такі системи, можна сказати, мають деякі показники обізнаності, пов’язані з теорією глобального робочого простору. Тим не менш, робота не свідчить про те, що будь-які існуючі системи ШІ є сильними кандидатами на свідомість, принаймні поки що.