Где вы стояли на коленях? Чем опасно сотрудничество человека и ИИ?

Первоисточник: Geek Park

Автор: Xinxin

Источник изображения: Generated by Unbounded AI

«Технологиями управляют ленивые люди!»

Я думаю, что каждый использовал эту фразу, чтобы оправдать себя, когда он «ловит рыбу» или «лежит на земле».

Начиная с промышленной революции парового двигателя и заканчивая цифровой революцией компьютеров, технологический прогресс действительно сделал людей все более и более плоскими в некоторых аспектах.

Технология искусственного интеллекта, которая имеет наибольший потенциал стать платформой следующего поколения, сделает людей более «ленивыми»?

Кажется, что да, но это не очень хорошая новость.

Согласно новому исследованию, опубликованному в журнале Frontiers in Robotics and Artificial Intelligence, люди действительно «ленивы», когда работают с искусственным интеллектом и машинами.

По словам Саймека, ведущего автора исследования, «командная работа может быть как благословением, так и проклятием».

Значит, в век искусственного интеллекта самый большой кризис для человечества заключается не в том, чтобы его заменили машины, а в том, чтобы «лениться вырождаться»?

01 Машинный помощник, пусть люди «теряют бдительность»

Когда есть такой мощный помощник, как машина, она делает людей более «великодушными».

Исследователи из Технического университета Берлина в Германии предоставили 42 участникам размытые изображения печатных плат и попросили их проверить наличие дефектов. Половине участников сообщили, что печатная плата, с которой они имели дело, была проверена роботом под названием «Панда» и что дефекты были отмечены.

Эксперимент: Задача визуального поиска для контроля качества моделируемых печатных плат |

На самом деле, робот «Панда» обнаружил 94,8% дефектов в ходе эксперимента. Всем участникам были предоставлены одни и те же 320 изображений отсканированной печатной платы, и когда исследователи более внимательно изучили частоту ошибок участников, они обнаружили, что участники, которые работали с «пандой», имели меньше дефектов позже в задаче, потому что они видели, как «панда» успешно отмечала многие дефекты.

Обе группы участников осмотрели почти всю поверхность доски, потратили время на поиски и сами оценили, что их уровень усилий был выше. В результате участники, работавшие с роботом, обнаружили в среднем 3,3 дефекта, а те, кто выполнил задание в одиночку, обнаружили в среднем 4,23 дефекта.

Среднее значение и стандартное отклонение дефектов, обнаруженных участниками в обеих группах |

«Это говорит о том, что участники могут быть менее внимательны к осмотру доски при работе со своими друзьями-роботами», — говорится в исследовании. Участники нашего исследования, по-видимому, продолжали свои усилия по проверке печатных плат, но, по-видимому, проверка проводилась с меньшими умственными усилиями и вниманием к информации выборки».

Это означает, что если им скажут, что робот уже проверил деталь и испытал надежность робота, они найдут меньше дефектов. Подсознательно они предполагают, что «панды» реже пропускают дефекты, что приводит к эффекту «социальной инерции».

Результаты этого исследования особенно важны для отраслей, которые полагаются на строгий контроль качества. Авторы предупреждают, что даже короткий период расслабления человеческого внимания, возможно, из-за чрезмерной зависимости от точности робота, может поставить под угрозу безопасность.

Исследователь Оннаш отмечает: «В течение более длительных смен потеря мотивации, как правило, больше, когда задачи становятся рутинными, а рабочая среда обеспечивает меньший контроль производительности и обратную связь. Он широко распространен в обрабатывающей промышленности, особенно в областях, связанных с безопасностью, где двойные проверки являются обычным явлением, что может оказать негативное влияние на результаты работы».

Конечно, существуют некоторые ограничения в тестировании исследователя. Например, выборка недостаточно велика, и в лаборатории сложно смоделировать «социальную инерцию», потому что участники знают, что за ними наблюдают. Саймек объясняет: «Основным ограничением является лабораторная среда. Чтобы понять масштабы проблемы потери мощности при человеко-машинном взаимодействии, нам нужно выйти из лаборатории и проверить нашу гипотезу в реальной рабочей среде с опытными работниками, которые часто работают с роботами».

02 «Кризис человеко-машинного сотрудничества» уже произошел

На самом деле, за пределами лаборатории «деградация», вызванная сотрудничеством человека и машины, уже проявилась в реальном мире.

В области автономного вождения существует явление, похожее на «социальную инерцию», называемое «самоуспокоенностью автоматизации», которое, как правило, отвлекается на наличие автоматизированной помощи.

В марте 2018 года в штате Аризона, США, беспилотный автомобиль Uber с сотрудником службы безопасности сбил велосипедиста. Полицейский анализ показал, что если бы сотрудник службы безопасности смотрел на дорогу, он мог бы остановиться в 12,8 метрах перед жертвой и избежать трагедии.

Смертельные случаи с участием беспилотных автомобилей в США в 2018 году |CNN

Tesla часто становится мишенью для СМИ и регулирующих органов в Соединенных Штатах, часто из-за аварий, связанных с автономным вождением. Типичный сценарий заключается в том, что водитель Tesla спит во время использования функции автономного вождения или играет в игру и попадает в автомобильную аварию со смертельным исходом.

В нынешнем безумии искусственного интеллекта предсказание о том, что машины заменят людей, становится все ближе и ближе к реальности. Одна сторона считает, что машины будут служить людям, в то время как другая сторона считает, что люди случайно создадут что-то злое.

В области медицины система искусственного интеллекта IBM «Доктор Ватсон» дает рекомендации по небезопасным лекарствам для больных раком. В этом году в статье отмечается, что генеративный ИИ уже сдал три раздела экзамена на получение медицинской лицензии в США. Аналогичная миграционная гипотеза заключается в том, что если в будущем ИИ будет диагностировать и лечить людей, а затем врачи будут проводить проверки, возникнут ли у врачей проблемы «социальной инерции» и «автоматизированной самоуспокоенности»?

Авторы исследования отметили: «Объединение возможностей людей и роботов, очевидно, открывает множество возможностей, но мы также должны учитывать непреднамеренные эффекты роя, которые могут возникнуть в командах «человек-машина». Когда люди и роботы работают над задачей, это может привести к потере мотивации у товарищей по команде и сделать более вероятными такие эффекты, как социальная инерция».

Есть также опасения, что ИИ может влиять на человеческое мышление и творчество, а также ослаблять человеческие отношения, отвлекаясь от реальности в целом. Звездный стартап Кремниевой долины в области генеративного искусственного интеллекта Inflection запустил своего чат-бота Pi, который призван быть дружелюбным и поддерживающим компаньоном. По словам основателей, Pi — это инструмент, помогающий людям справиться с одиночеством, и его можно использовать как человека, которому можно довериться. Критики утверждают, что это позволяет людям убегать от реальности, а не взаимодействовать с реальными людьми.

Теперь отношения между людьми и инструментами вышли на новый уровень. Появление всех инструментов сделало людей ленивыми, например, подметальные машины, которые спасают людей от уборки домов, и мобильные телефоны, благодаря которым людям больше не нужно записывать номера телефонов.

Но разница между технологией ИИ и предыдущими технологиями заключается в том, что большая часть работы по обдумыванию и выбору отдана ИИ, который, по сути, является черным ящиком, который больше похож на передачу мыслительной автономии. Когда люди оставляют решения о вождении полностью автономному вождению, а медицинскую диагностику — системам искусственного интеллекта, потенциальная стоимость может полностью отличаться от стоимости неспособности запомнить телефонные номера.

Джозеф Визенбаум, специалист по информатике, разработавший первого в истории чат-бота, сравнил науку с «наркотиком, вызывающим привыкание» и превратил ее в «хронический яд» из-за увеличения доз, таких как внедрение компьютеров в сложную человеческую деятельность, и, возможно, пути назад уже не будет.

Когда люди наделяют машинами силой мышления и суждений, как своего рода «эталоном», в ней также может скрываться дьявол «социальной инерции» и «автоматического самодовольства», который может стать хроническим ядом при повторении задач.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить