Я вважаю, що кожен використовував це речення, щоб виправдати себе, коли він «ловить рибу» або «лежить».
Від промислової революції парової машини до цифрової революції комп'ютера, технологічний прогрес дійсно зробив людей все більш і більш плоскими в деяких аспектах.
** Технологія штучного інтелекту, яка має найбільший потенціал стати платформою наступного покоління, зробить людей «ледачими»**?
Начебто так, але це не дуже хороша новина.
Згідно з новим дослідженням, опублікованим у журналі Frontiers in Robotics and Artificial Intelligence, люди справді «ліниві», коли працюють зі штучним інтелектом та машинами.
За словами Цимека, провідного автора дослідження, «командна робота може бути як благословенням, так і прокляттям».
Отже, в епоху ШІ найбільша криза для людства полягає не в тому, щоб бути заміненим машинами, а в тому, щоб бути «лінивим вироджуватися»?
01 Машинний помічник, нехай люди "втрачають пильність"
Коли є такий потужний помічник, як машина, це змусить людину стати більш «великодушною».
Дослідники з Берлінського технічного університету в Німеччині надали 42 учасникам розмиті зображення друкованих плат і попросили їх перевірити наявність дефектів. Половині учасників сказали, що друкована плата, з якою вони мали справу, була перевірена роботом на ім'я «Панда» і що дефекти були позначені.
Експеримент: Завдання візуального пошуку контролю якості модельованих друкованих плат |
Фактично робот «Панда» виявив 94,8% дефектів під час експерименту. Всі учасники отримали однакові 320 зображень відсканованої друкованої плати, і коли дослідники уважніше вивчили рівень помилок учасників, вони виявили, що учасники, які працювали з «пандою», мали менше дефектів пізніше в завданні, тому що вони бачили, як «панда» успішно позначала багато дефектів.
Обидві групи учасників оглянули майже всю поверхню дошки, витратили час на пошуки та самостійно оцінили, що рівень їхніх зусиль був вищим. В результаті учасники, які працювали з роботом, виявили в середньому 3,3 дефекту, а ті, хто виконував завдання поодинці, знаходили в середньому 4,23 дефекту.
Середнє і стандартне відхилення дефектів, виявлених учасниками обох груп |
«Це говорить про те, що учасники можуть бути менш уважними до перевірки дошки під час роботи зі своїми друзями-роботами», — йдеться в дослідженні. Учасники нашого дослідження, схоже, продовжували докладати зусиль для перевірки друкованих плат, але, схоже, що перевірка була проведена з меншими розумовими зусиллями та увагою до інформації про вибірку».
Це означає, що якщо їм скажуть, що робот вже перевірив деталь і випробував надійність робота, вони знайдуть менше дефектів. Підсвідомо вони припускають, що «панди» рідше пропускають дефекти, що призводить до ефекту «соціальної інерції».
Наслідки цього дослідження особливо важливі для галузей, які покладаються на суворий контроль якості. Автори попереджають, що навіть короткий період розслаблення людської уваги, можливо, через надмірну залежність від точності робота, може поставити під загрозу безпеку.
Дослідник Оннаш зазначає: «Протягом тривалих змін втрата мотивації, як правило, збільшується, коли завдання стають рутинними, а робоче середовище забезпечує менший моніторинг продуктивності та зворотний зв'язок. Це поширене в обробній промисловості, особливо в районах, пов'язаних з безпекою, де подвійні перевірки є звичайним явищем, що може мати негативний вплив на результати роботи».
Звичайно, є деякі обмеження в тестуванні слідчого. Наприклад, зразок недостатньо великий, і в лабораторії важко змоделювати «соціальну інерцію», тому що учасники знають, що за ними стежать. Цимек пояснює: «Основним обмеженням є лабораторне середовище. Щоб зрозуміти масштаби проблеми втрати потужності при взаємодії людини і машини, нам потрібно вийти з лабораторії і перевірити нашу гіпотезу в реальному робочому середовищі з досвідченими працівниками, які часто працюють з роботами».
02 "Криза людино-машинної співпраці" вже відбулася
Насправді, поза лабораторією «деградація», викликана співпрацею людини і машини, вже з'явилася в реальному світі.
У сфері автономного водіння існує явище, схоже на «соціальну інерцію», зване «самозаспокоєнням автоматизації», яке зазвичай відволікається на наявність автоматизованої допомоги.
У березні 2018 року в штаті Арізона, США, безпілотний автомобіль Uber з офіцером безпеки збив і вбив велосипедиста. Поліцейський аналіз встановив, що якби силовик дивився на дорогу, він міг би зупинитися за 12,8 метра перед потерпілим та уникнути трагедії.
Смертельні випадки за кермом у 2018 році в США |CNN
Tesla часто стає мішенню ЗМІ та регуляторів у Сполучених Штатах, часто через аварії, пов'язані з автономним водінням. Типовий сценарій полягає в тому, що водій Tesla спить під час використання функції автономного водіння або грає в гру та потрапляє в смертельну автомобільну аварію.
У нинішньому божевіллі штучного інтелекту прогноз про те, що машини замінять людей, стає все ближчим до реальності. Одна сторона вірить, що машини служитимуть людям, а інша – що люди випадково створять щось погане.
У медичній сфері система штучного інтелекту «Доктор Ватсон» від IBM давала небезпечні поради щодо ліків хворим на рак. Цього року в документі зазначалося, що генеративний ШІ вже пройшов три розділи іспиту з медичного ліцензування США. Схожа гіпотеза міграції полягає в тому, що якщо штучний інтелект діагностуватиме та лікуватиме людей у майбутньому, а потім лікарі-люди перевірятимуть, чи виникнуть у людських лікарів проблема «соціальної інерції» та «автоматизованого самозаспокоєння»?
Автори дослідження зазначили: «Об'єднання можливостей людей і роботів, очевидно, відкриває багато можливостей, але ми також повинні враховувати ненавмисні ефекти рою, які можуть виникати в командах людина-машина. Коли люди та роботи працюють над завданням, це може призвести до втрати мотивації для товаришів по команді та підвищити ймовірність таких ефектів, як соціальна інерція».
Також є побоювання, що ШІ може вплинути на людське мислення та творчість, а також послабити людські стосунки, відволікаючи від реальності в цілому. Зірковий стартап Inflection із Кремнієвої долини, що спеціалізується на генеративному штучному інтелекті, запустив свого чат-бота Pi, який покликаний бути доброзичливим і підтримуючим компаньйоном. За словами засновників, Пі – це інструмент, який допомагає людям справлятися з самотністю, і його можна використовувати як особистість, якій можна довіритися. Критики стверджують, що це дозволяє людям втекти від реальності, а не взаємодіяти з реальними людьми.
Тепер відносини між людьми та інструментами вийшли на новий рівень. Народження всіх інструментів фактично зробило людей ледачими, таких як підмітальні машини, які рятують людей від прибирання будинків, і мобільні телефони, завдяки яким людям більше не потрібно записувати номери телефонів.
Але різниця між технологією штучного інтелекту та попередньою технологією полягає в тому, що більша частина роботи з мислення та вибору віддається штучному інтелекту, який, по суті, є чорною скринькою, яка більше схожа на передачу автономії мислення. Коли люди повністю передають рішення щодо водіння автономному водінню та медичну діагностику системам штучного інтелекту, потенційні витрати можуть повністю відрізнятися від вартості неможливості запам'ятати телефонні номери.
Джозеф Візенбаум, вчений-комп'ютерник, який розробив перший в історії чат-бот, порівняв науку з «наркотиком, що викликає залежність» і став «хронічною отрутою» через збільшення доз, таких як впровадження комп'ютерів у складну діяльність людини, і шляху назад може не бути.
Коли люди віддають машинам здатність думати і судити як своєрідний «еталон», в ньому також може ховатися диявол «соціальної інерції» і «автоматичного самозаспокоєння», який може стати хронічною отрутою при повторенні завдань.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Де ви стояли на колінах? Чим небезпечна співпраця людей та штучного інтелекту?
Першоджерело: Geek Park
Автор: Xinxin
«Технологіями керують ледачі!»
Я вважаю, що кожен використовував це речення, щоб виправдати себе, коли він «ловить рибу» або «лежить».
Від промислової революції парової машини до цифрової революції комп'ютера, технологічний прогрес дійсно зробив людей все більш і більш плоскими в деяких аспектах.
** Технологія штучного інтелекту, яка має найбільший потенціал стати платформою наступного покоління, зробить людей «ледачими»**?
Начебто так, але це не дуже хороша новина.
Згідно з новим дослідженням, опублікованим у журналі Frontiers in Robotics and Artificial Intelligence, люди справді «ліниві», коли працюють зі штучним інтелектом та машинами.
За словами Цимека, провідного автора дослідження, «командна робота може бути як благословенням, так і прокляттям».
Отже, в епоху ШІ найбільша криза для людства полягає не в тому, щоб бути заміненим машинами, а в тому, щоб бути «лінивим вироджуватися»?
01 Машинний помічник, нехай люди "втрачають пильність"
Коли є такий потужний помічник, як машина, це змусить людину стати більш «великодушною».
Дослідники з Берлінського технічного університету в Німеччині надали 42 учасникам розмиті зображення друкованих плат і попросили їх перевірити наявність дефектів. Половині учасників сказали, що друкована плата, з якою вони мали справу, була перевірена роботом на ім'я «Панда» і що дефекти були позначені.
Фактично робот «Панда» виявив 94,8% дефектів під час експерименту. Всі учасники отримали однакові 320 зображень відсканованої друкованої плати, і коли дослідники уважніше вивчили рівень помилок учасників, вони виявили, що учасники, які працювали з «пандою», мали менше дефектів пізніше в завданні, тому що вони бачили, як «панда» успішно позначала багато дефектів.
Обидві групи учасників оглянули майже всю поверхню дошки, витратили час на пошуки та самостійно оцінили, що рівень їхніх зусиль був вищим. В результаті учасники, які працювали з роботом, виявили в середньому 3,3 дефекту, а ті, хто виконував завдання поодинці, знаходили в середньому 4,23 дефекту.
«Це говорить про те, що учасники можуть бути менш уважними до перевірки дошки під час роботи зі своїми друзями-роботами», — йдеться в дослідженні. Учасники нашого дослідження, схоже, продовжували докладати зусиль для перевірки друкованих плат, але, схоже, що перевірка була проведена з меншими розумовими зусиллями та увагою до інформації про вибірку».
Це означає, що якщо їм скажуть, що робот вже перевірив деталь і випробував надійність робота, вони знайдуть менше дефектів. Підсвідомо вони припускають, що «панди» рідше пропускають дефекти, що призводить до ефекту «соціальної інерції».
Наслідки цього дослідження особливо важливі для галузей, які покладаються на суворий контроль якості. Автори попереджають, що навіть короткий період розслаблення людської уваги, можливо, через надмірну залежність від точності робота, може поставити під загрозу безпеку.
Дослідник Оннаш зазначає: «Протягом тривалих змін втрата мотивації, як правило, збільшується, коли завдання стають рутинними, а робоче середовище забезпечує менший моніторинг продуктивності та зворотний зв'язок. Це поширене в обробній промисловості, особливо в районах, пов'язаних з безпекою, де подвійні перевірки є звичайним явищем, що може мати негативний вплив на результати роботи».
Звичайно, є деякі обмеження в тестуванні слідчого. Наприклад, зразок недостатньо великий, і в лабораторії важко змоделювати «соціальну інерцію», тому що учасники знають, що за ними стежать. Цимек пояснює: «Основним обмеженням є лабораторне середовище. Щоб зрозуміти масштаби проблеми втрати потужності при взаємодії людини і машини, нам потрібно вийти з лабораторії і перевірити нашу гіпотезу в реальному робочому середовищі з досвідченими працівниками, які часто працюють з роботами».
02 "Криза людино-машинної співпраці" вже відбулася
Насправді, поза лабораторією «деградація», викликана співпрацею людини і машини, вже з'явилася в реальному світі.
У сфері автономного водіння існує явище, схоже на «соціальну інерцію», зване «самозаспокоєнням автоматизації», яке зазвичай відволікається на наявність автоматизованої допомоги.
У березні 2018 року в штаті Арізона, США, безпілотний автомобіль Uber з офіцером безпеки збив і вбив велосипедиста. Поліцейський аналіз встановив, що якби силовик дивився на дорогу, він міг би зупинитися за 12,8 метра перед потерпілим та уникнути трагедії.
Tesla часто стає мішенню ЗМІ та регуляторів у Сполучених Штатах, часто через аварії, пов'язані з автономним водінням. Типовий сценарій полягає в тому, що водій Tesla спить під час використання функції автономного водіння або грає в гру та потрапляє в смертельну автомобільну аварію.
У нинішньому божевіллі штучного інтелекту прогноз про те, що машини замінять людей, стає все ближчим до реальності. Одна сторона вірить, що машини служитимуть людям, а інша – що люди випадково створять щось погане.
У медичній сфері система штучного інтелекту «Доктор Ватсон» від IBM давала небезпечні поради щодо ліків хворим на рак. Цього року в документі зазначалося, що генеративний ШІ вже пройшов три розділи іспиту з медичного ліцензування США. Схожа гіпотеза міграції полягає в тому, що якщо штучний інтелект діагностуватиме та лікуватиме людей у майбутньому, а потім лікарі-люди перевірятимуть, чи виникнуть у людських лікарів проблема «соціальної інерції» та «автоматизованого самозаспокоєння»?
Автори дослідження зазначили: «Об'єднання можливостей людей і роботів, очевидно, відкриває багато можливостей, але ми також повинні враховувати ненавмисні ефекти рою, які можуть виникати в командах людина-машина. Коли люди та роботи працюють над завданням, це може призвести до втрати мотивації для товаришів по команді та підвищити ймовірність таких ефектів, як соціальна інерція».
Також є побоювання, що ШІ може вплинути на людське мислення та творчість, а також послабити людські стосунки, відволікаючи від реальності в цілому. Зірковий стартап Inflection із Кремнієвої долини, що спеціалізується на генеративному штучному інтелекті, запустив свого чат-бота Pi, який покликаний бути доброзичливим і підтримуючим компаньйоном. За словами засновників, Пі – це інструмент, який допомагає людям справлятися з самотністю, і його можна використовувати як особистість, якій можна довіритися. Критики стверджують, що це дозволяє людям втекти від реальності, а не взаємодіяти з реальними людьми.
Тепер відносини між людьми та інструментами вийшли на новий рівень. Народження всіх інструментів фактично зробило людей ледачими, таких як підмітальні машини, які рятують людей від прибирання будинків, і мобільні телефони, завдяки яким людям більше не потрібно записувати номери телефонів.
Але різниця між технологією штучного інтелекту та попередньою технологією полягає в тому, що більша частина роботи з мислення та вибору віддається штучному інтелекту, який, по суті, є чорною скринькою, яка більше схожа на передачу автономії мислення. Коли люди повністю передають рішення щодо водіння автономному водінню та медичну діагностику системам штучного інтелекту, потенційні витрати можуть повністю відрізнятися від вартості неможливості запам'ятати телефонні номери.
Джозеф Візенбаум, вчений-комп'ютерник, який розробив перший в історії чат-бот, порівняв науку з «наркотиком, що викликає залежність» і став «хронічною отрутою» через збільшення доз, таких як впровадження комп'ютерів у складну діяльність людини, і шляху назад може не бути.
Коли люди віддають машинам здатність думати і судити як своєрідний «еталон», в ньому також може ховатися диявол «соціальної інерції» і «автоматичного самозаспокоєння», який може стати хронічною отрутою при повторенні завдань.