Источник изображения: сгенерировано инструментом Unbounded AI
Мы многое узнали о том, как решать проблемы, связанные с прорывными инновациями.
Риски, связанные с искусственным интеллектом, могут показаться огромными. Что происходит с людьми, у которых работу отбирают умные машины? Повлияет ли искусственный интеллект на результаты выборов? Что, если будущий искусственный интеллект решит, что люди больше не нужны, и захочет избавиться от нас?
Это законные вопросы, и к вызываемым ими опасениям следует относиться серьезно. Но у нас есть веские основания полагать, что мы можем решить эти проблемы: это не первый случай, когда крупные инновации приносят новые угрозы, которые необходимо контролировать, и мы уже сталкивались с ними раньше.
Будь то появление автомобиля или появление персональных компьютеров и Интернета, люди пережили и другие моменты трансформации, которые, несмотря на многие потрясения, закончились к лучшему. Вскоре после того, как первые автомобили выехали на дороги, произошли первые аварии. Но вместо того, чтобы запретить автомобили, мы ввели ограничения скорости, стандарты безопасности, требования к водительским правам, законы о вождении в нетрезвом виде и другие правила дорожного движения.
Сейчас мы находимся на ранних стадиях другой глубокой трансформации — эпохи искусственного интеллекта. Это сродни эпохе неопределенности до ограничений скорости и ремней безопасности. ИИ меняется так быстро, что неясно, что будет дальше. Перед нами стоят серьезные вопросы о том, как работают современные технологии, как люди будут использовать их злонамеренно и как искусственный интеллект изменит общество и отдельных людей.
В такие моменты естественно чувствовать себя неловко. Но история показывает, что можно решить проблемы, связанные с новыми технологиями.
Однажды я написал статью о том, как искусственный интеллект полностью изменит нашу жизнь. Это поможет решить проблемы в области здравоохранения, образования, изменения климата и многих других, которые в прошлом казались неразрешимыми. Фонд Гейтса сделал это приоритетом, и наш генеральный директор Марк Сузман недавно поделился своими мыслями о роли ИИ в сокращении неравенства.
Я буду больше говорить о преимуществах ИИ в будущем, но в этом посте я хочу затронуть некоторые проблемы, которые я часто слышу и читаю, многие из которых я разделяю, и объяснить, как я их вижу.
Из всего, что написано о рисках ИИ, ясно одно: ни у кого нет ответов на все вопросы. Еще один очевидный момент заключается в том, что будущее искусственного интеллекта не такое мрачное, как представляют себе одни, и не такое радужное, как представляют другие. Риски реальны, но я уверен, что ими можно управлять. Обращаясь к каждой из этих проблем, я вернусь к следующим темам:
Многие проблемы, поднятые искусственным интеллектом, имеют исторические прецеденты. Например, это окажет огромное влияние на образование, но то же самое можно сказать и о карманных калькуляторах, появившихся несколько десятилетий назад, а в последнее время — о компьютерах в классах. Мы можем учиться на прошлых успехах.
Многие проблемы, вызванные искусственным интеллектом, также могут быть решены с помощью искусственного интеллекта.
Нам необходимо адаптировать старые законы и принять новые — так же, как существующие законы о борьбе с мошенничеством должны адаптироваться к онлайн-миру.
В этой статье я сосредоточусь на существующих или неизбежных рисках. Я не буду обсуждать, что происходит, когда мы разрабатываем ИИ, который может изучить любую тему или задачу, в отличие от сегодняшнего специализированного ИИ. Придем ли мы к этому моменту в следующем десятилетии или столетии, общество должно глубоко задуматься. Что, если сверхразумный ИИ ставит перед собой собственные цели? Что, если они вступят в конфликт с людьми? Должны ли мы создавать суперискусственный интеллект?
Однако размышления об этих долгосрочных рисках не должны происходить за счет более непосредственных рисков.
Магистральные фейки и дезинформация, созданные искусственным интеллектом, могут разрушить выборы и демократию
В использовании технологий для распространения лжи и дезинформации нет ничего нового. Люди делали это через книги и листовки на протяжении веков. Это стало проще с появлением текстовых процессоров, лазерных принтеров, электронной почты и социальных сетей.
Искусственный интеллект взял на себя проблему подделки текста и расширил ее, так что почти каждый может создавать поддельные аудио и видео, известные как дипфейки. Если вы получите голосовое сообщение, которое звучит так, как будто ваш ребенок говорит: «Меня похитили, пожалуйста, переведите 1000 долларов на этот банковский счет в течение следующих 10 минут и не звоните в полицию», это может оказать ужасное эмоциональное воздействие. гораздо более мощный, чем электронное письмо, в котором говорится то же самое.
В более широком масштабе дипфейки, созданные искусственным интеллектом, можно использовать для попытки повлиять на выборы. Конечно, не нужны сложные технологии, чтобы поставить под сомнение законного победителя выборов, но искусственный интеллект значительно облегчит эту задачу.
Уже появились фейковые видеоролики с фейковыми кадрами известных политиков. Представьте, что утром перед выборами видео, на котором кандидат грабит банк, становится вирусным. Это было ложью, но новостным организациям и кампании потребовались часы, чтобы доказать это. Сколько людей посмотрит это видео и изменит свой голос в последнюю минуту? Это может склонить чашу весов, особенно если гонка напряженная.
Недавно, когда соучредитель OpenAI Сэм Альтман давал показания перед комитетом Сената США, сенаторы от обеих партий говорили о влиянии ИИ на выборы и демократию. Я надеюсь, что эта тема и дальше будет у всех на повестке дня.
Мы, конечно, не решили проблему дезинформации и дипфейков. Но две вещи внушают мне осторожный оптимизм. Во-первых, люди способны научиться не принимать ничего за чистую монету. В течение многих лет пользователи электронной почты погрязли в мошенничестве, выдавая себя за нигерийских принцев, обещая поделиться номерами кредитных карт в обмен на огромные вознаграждения. Но со временем большинство людей учатся думать дважды. По мере того как обманы становились все более изощренными, многие цели становились все более изощренными. Нам нужно создать такую же возможность для дипфейков.
Еще одна вещь, которая меня обнадеживает, это то, что искусственный интеллект может помочь идентифицировать дипфейки и создавать дипфейки. Например, Intel разработала детектор дипфейков, а государственное агентство DARPA разрабатывает технологию для определения того, было ли подделано видео или аудио.
Это будет итеративный процесс: кто-то найдет способ обнаружить подделку, кто-то придумает, как с ней бороться, кто-то разработает меры противодействия и так далее. Это не будет идеально, но и мы не будем в отчаянии.
ИИ облегчит нападение на людей и правительства
Сегодня, когда хакеры надеются найти уязвимость в программном обеспечении, которую можно использовать, они делают это с помощью «грубой силы» — написания кода и атаки на потенциальные уязвимости до тех пор, пока уязвимость не будет обнаружена. Это включает в себя множество обходных путей, поэтому требует времени и терпения.
Специалисты по безопасности, которые хотят бороться с хакерами, должны делать то же самое. Каждое исправление программного обеспечения, которое вы устанавливаете на свой телефон или ноутбук, представляет собой часы поиска.
Модели ИИ ускорят этот процесс, помогая хакерам писать более эффективный код. Они также могут использовать общедоступную информацию о человеке, например, где он работает и где его друзья, для разработки более совершенных фишинговых атак, чем те, которые доступны в настоящее время.
Хорошая новость заключается в том, что ИИ — это палка о двух концах. Команды безопасности в правительстве и частном секторе должны иметь новейшие инструменты для поиска и устранения уязвимостей безопасности, прежде чем преступники воспользуются ими. Я надеюсь, что индустрия безопасности программного обеспечения расширит работу, которую они уже делают в этой области, это должно быть их заботой номер один.
Конечно, именно поэтому мы не должны пытаться временно мешать людям внедрять новые разработки в области искусственного интеллекта, как это предлагают некоторые. Киберпреступники не перестанут создавать новые инструменты. Те, кто хочет использовать искусственный интеллект для разработки ядерного оружия и биотеррористических атак, не остановятся. Усилия по их прекращению должны продолжаться в том же темпе.
Существует также связанный с этим риск на глобальном уровне: гонка вооружений в области искусственного интеллекта, который может быть использован для разработки и проведения кибератак против других государств. Правительство каждой страны хочет иметь самую мощную технологию для сдерживания атак противника. Эта мотивация «никого не оставлять первой» может спровоцировать гонку по созданию все более опасного кибероружия. Всем станет хуже.
Это пугающая идея, но у нас есть история в качестве руководства. Каким бы ущербным ни был мировой режим нераспространения ядерного оружия, он предотвратил полномасштабную ядерную войну, которой мое поколение боялось с детства. Правительствам следует рассмотреть возможность создания глобального агентства по искусственному интеллекту, аналогичного Международному агентству по атомной энергии.
ИИ отнимет у людей работу
Основное влияние искусственного интеллекта на работу в ближайшие годы будет заключаться в том, чтобы помочь людям выполнять свою работу более эффективно. Это верно независимо от того, работаете ли вы на фабрике или в офисе, обрабатывая звонки по продажам и кредиторскую задолженность. В конце концов, ИИ сможет хорошо выражать себя, составлять электронные письма и управлять вашим почтовым ящиком для вас. Просто написав запрос на английском или любом другом языке, вы можете получить желаемый PPT.
Как я утверждал в своей февральской статье, повышение производительности полезно для общества. Это дает людям больше времени для других дел на работе и дома. Никогда не исчезнет потребность в людях, которые помогают, например, в обучении, уходе за больными и уходе за пожилыми людьми. Но некоторым работникам действительно нужна поддержка и переобучение, когда мы переходим на рабочее место, управляемое ИИ. Это задача правительств и бизнеса — сделать так, чтобы рабочие не остались позади — без нарушения жизни людей, которое происходит, когда рабочие места в американской промышленности сокращаются.
Кроме того, имейте в виду, что это не первый раз, когда новые технологии приводят к значительным изменениям на рынке труда. Я не думаю, что влияние искусственного интеллекта будет таким же огромным, как промышленная революция, но оно определенно будет похоже на влияние появления персонального компьютера. Приложения для обработки текстов не устранили офисную работу, но изменили ее навсегда. Работодатели и работники должны были адаптироваться, и они это сделали. Преобразование, вызванное ИИ, будет ухабистым переходом, но есть все основания полагать, что мы можем уменьшить разрушение жизни и средств к существованию людей.
ИИ унаследует наши предубеждения и придумает их
Галлюцинации — когда ИИ уверенно делает заявления, которые просто не соответствуют действительности — обычно случаются из-за того, что машина не понимает вашего запроса. Попросите ИИ написать короткий рассказ об отпуске на Луне, и он может дать вам образный ответ. Но если вы попросите ИИ составить для вас план поездки в Танзанию, он может отправить вас в несуществующий отель.
Еще один риск искусственного интеллекта заключается в том, что он отражает или даже усиливает предрассудки людей в отношении определенных полов, рас, национальностей и т. д.
Чтобы понять, почему возникают галлюцинации и искажения, важно знать, как сегодня работают наиболее распространенные модели ИИ. По сути, это очень сложные версии кода, которые позволяют вашему почтовому приложению предугадывать следующее слово, которое вы собираетесь набрать: они сканируют огромное количество текста — в некоторых случаях почти весь текст, доступный в Интернете, — а затем анализируют его. найти закономерности в человеческом языке.
Когда вы задаете вопрос ИИ, он смотрит на слова, которые вы используете, а затем ищет фрагменты текста, которые часто связаны с этими словами. Если вы напишите «перечислите ингредиенты для блинов», ИИ может заметить, что во фразе часто встречаются такие слова, как «мука, сахар, соль, разрыхлитель, молоко и яйца». Затем, основываясь на том, что он знает о порядке, в котором эти слова обычно появляются, он генерирует ответ. (В моделях ИИ, которые работают таким образом, используются так называемые трансформеры. GPT-4 — одна из таких моделей).
Этот процесс объясняет, почему ИИ может галлюцинировать или быть предвзятым. Это не имеет никакого отношения к вопросу, который вы задали, или к тому, что вы сказали. Если вы скажете ИИ, что он допустил ошибку, он может сказать «извините, я сделал опечатку». Но это всего лишь иллюзия, на самом деле он ничего не вводит. Он говорит это потому, что отсканировал достаточно текста, чтобы понять, что «извините, я сделал опечатку» — это фраза, которую люди часто пишут после того, как кто-то их исправил.
Точно так же модели ИИ наследуют предубеждения, заложенные в тексте, на котором они обучались. Если прочитать много статей о врачах, и в статьях в основном упоминаются врачи-мужчины, то ответ будет исходить из того, что большинство врачей — мужчины.
Хотя некоторые исследователи утверждают, что галлюцинации — неотъемлемая проблема, я с этим не согласен. Я оптимистично смотрю на то, что со временем модели ИИ научатся отличать факты от вымысла. Например, OpenAI провел многообещающие исследования в этой области.
Другие группы, в том числе Институт Алана Тьюринга и Национальный институт стандартов и технологий, также работают над устранением предвзятости. Один из подходов заключается в том, чтобы встроить человеческие ценности и рассуждения более высокого уровня в ИИ. Это похоже на то, как работают самосознательные люди: может быть, вы думаете, что большинство врачей — мужчины, но вы достаточно осознаете это предположение, чтобы понимать, что вам нужно сознательно бороться с этим. Искусственный интеллект может работать аналогичным образом, особенно если модели разработаны людьми из разных слоев общества.
В конце концов, каждый, кто использует ИИ, должен знать о проблеме предвзятости и стать информированным пользователем. Документы, которые вы просите составить у ИИ, могут быть полны предвзятости и фактических ошибок. Вам нужно изучить предубеждения ИИ, а также свои собственные.
Студенты не научатся писать, потому что за них это сделает ИИ
Многие учителя опасаются, что ИИ нарушит их сотрудничество со студентами. В эпоху, когда любой, у кого есть подключение к Интернету, может использовать ИИ для написания приличного первого черновика диссертации, что может помешать студенту сдать его как свой собственный?
Уже существуют инструменты ИИ, которые могут научиться определять, написано ли эссе человеком или компьютером, поэтому учителя могут определить, когда ученики делают домашнее задание. Но некоторые учителя не пытаются отговорить учащихся от использования ИИ в своих письмах — они на самом деле поощряют его.
В январе ветеран английского языка по имени Чери Шилдс написала в Education Week о том, как она использует ChatGPT в своем классе. ChatGPT помогает своим ученикам во всем, от начала написания до составления планов, и даже предоставляет отзывы об их заданиях.
«Учителя должны воспринимать технологию искусственного интеллекта как еще один инструмент, который могут использовать ученики», — написала она. "Подобно тому, как мы когда-то учили студентов правильному поиску в Google, учителя должны разработать четкие уроки о том, как боты ChatGPT могут помочь в написании эссе. Признание существования ИИ и помощь студентам в его использовании может революционизировать то, как мы преподаем". У каждого учителя есть время, чтобы изучить и использовать новые инструменты, но такие педагоги, как Чери Шилдс, приводят хороший аргумент в пользу того, что те, у кого есть время, получат большую пользу.
Это напоминает мне 1970-е и 1980-е годы, когда стали популярны электронные калькуляторы. Некоторые учителя математики опасались, что ученики перестанут изучать основы арифметики, но другие восприняли новую технологию и сосредоточились на мышлении, лежащем в основе арифметики.
ИИ также может помочь с письмом и критическим мышлением. Особенно в первые дни, когда галлюцинации и предвзятость все еще остаются проблемой, преподаватели могут создавать эссе с помощью ИИ, а затем проверять их с учениками. Образовательные некоммерческие организации, такие как Академия Хана, которую я финансирую, и проект ООР предоставляют учителям и учащимся бесплатные онлайн-инструменты, в которых особое внимание уделяется проверке утверждений. Нет более важного навыка, чем умение отличить настоящее от подделки.
Нам действительно нужно убедиться, что образовательное программное обеспечение помогает сократить разрыв в достижениях, а не усугубляет его. Сегодняшнее программное обеспечение в первую очередь ориентировано на студентов, которые уже мотивированы учиться. Он может составить для вас план обучения, указать на хорошие ресурсы и проверить ваши знания. Однако оно еще не знает, как увлечь вас предметами, которые вас пока не интересуют. Это проблема, которую разработчикам необходимо решить, чтобы все типы учащихся могли извлечь выгоду из ИИ.
**Что дальше? **
Я считаю, что у нас тем больше оснований для оптимизма, что мы можем управлять рисками ИИ, максимально используя его преимущества. Но нам нужно действовать быстро.
Правительствам необходимо развивать экспертные знания в области ИИ, чтобы разрабатывать обоснованные законы и правила, касающиеся этой новой технологии. Им нужно бороться с дезинформацией и дипфейками, угрозами безопасности, изменениями на рынке труда и влиянием на образование. Только один пример: закон должен разъяснить, какое использование дипфейков является законным, и как дипфейки маркируются, чтобы все понимали, что то, что они видят или слышат, является фальшивкой.
Политические лидеры должны иметь возможность вести информированный, вдумчивый диалог с избирателями. Им также необходимо решить, насколько сотрудничать с другими странами по этим вопросам, а не действовать в одиночку.
В частном секторе ИИ-компании должны работать безопасно и ответственно. Это включает в себя защиту конфиденциальности людей, обеспечение того, чтобы модели ИИ отражали фундаментальные человеческие ценности, минимизацию предвзятости в интересах как можно большего числа людей и предотвращение использования технологий преступниками или террористами. Компании во многих секторах экономики должны помочь своим сотрудникам перейти на рабочее место, ориентированное на ИИ, чтобы никто не остался без внимания. Клиенты всегда должны знать, что они взаимодействуют с ИИ, а не с людьми.
Наконец, я призываю всех уделять как можно больше внимания развитию искусственного интеллекта. Это самая преобразующая инновация, которую мы увидим в нашей жизни, и здоровые общественные дебаты будут зависеть от понимания каждым этой технологии, ее преимуществ и рисков. Преимущества искусственного интеллекта будут огромными, и лучшая причина полагать, что мы можем контролировать риск, заключается в том, что мы это сделали.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Билл Гейтс: риски искусственного интеллекта реальны, но управляемы
Сценарист: Билл Гейтс
Источник: Гейтснотс
Риски, связанные с искусственным интеллектом, могут показаться огромными. Что происходит с людьми, у которых работу отбирают умные машины? Повлияет ли искусственный интеллект на результаты выборов? Что, если будущий искусственный интеллект решит, что люди больше не нужны, и захочет избавиться от нас?
Это законные вопросы, и к вызываемым ими опасениям следует относиться серьезно. Но у нас есть веские основания полагать, что мы можем решить эти проблемы: это не первый случай, когда крупные инновации приносят новые угрозы, которые необходимо контролировать, и мы уже сталкивались с ними раньше.
Будь то появление автомобиля или появление персональных компьютеров и Интернета, люди пережили и другие моменты трансформации, которые, несмотря на многие потрясения, закончились к лучшему. Вскоре после того, как первые автомобили выехали на дороги, произошли первые аварии. Но вместо того, чтобы запретить автомобили, мы ввели ограничения скорости, стандарты безопасности, требования к водительским правам, законы о вождении в нетрезвом виде и другие правила дорожного движения.
Сейчас мы находимся на ранних стадиях другой глубокой трансформации — эпохи искусственного интеллекта. Это сродни эпохе неопределенности до ограничений скорости и ремней безопасности. ИИ меняется так быстро, что неясно, что будет дальше. Перед нами стоят серьезные вопросы о том, как работают современные технологии, как люди будут использовать их злонамеренно и как искусственный интеллект изменит общество и отдельных людей.
В такие моменты естественно чувствовать себя неловко. Но история показывает, что можно решить проблемы, связанные с новыми технологиями.
Однажды я написал статью о том, как искусственный интеллект полностью изменит нашу жизнь. Это поможет решить проблемы в области здравоохранения, образования, изменения климата и многих других, которые в прошлом казались неразрешимыми. Фонд Гейтса сделал это приоритетом, и наш генеральный директор Марк Сузман недавно поделился своими мыслями о роли ИИ в сокращении неравенства.
Я буду больше говорить о преимуществах ИИ в будущем, но в этом посте я хочу затронуть некоторые проблемы, которые я часто слышу и читаю, многие из которых я разделяю, и объяснить, как я их вижу.
Из всего, что написано о рисках ИИ, ясно одно: ни у кого нет ответов на все вопросы. Еще один очевидный момент заключается в том, что будущее искусственного интеллекта не такое мрачное, как представляют себе одни, и не такое радужное, как представляют другие. Риски реальны, но я уверен, что ими можно управлять. Обращаясь к каждой из этих проблем, я вернусь к следующим темам:
В этой статье я сосредоточусь на существующих или неизбежных рисках. Я не буду обсуждать, что происходит, когда мы разрабатываем ИИ, который может изучить любую тему или задачу, в отличие от сегодняшнего специализированного ИИ. Придем ли мы к этому моменту в следующем десятилетии или столетии, общество должно глубоко задуматься. Что, если сверхразумный ИИ ставит перед собой собственные цели? Что, если они вступят в конфликт с людьми? Должны ли мы создавать суперискусственный интеллект?
Однако размышления об этих долгосрочных рисках не должны происходить за счет более непосредственных рисков.
Магистральные фейки и дезинформация, созданные искусственным интеллектом, могут разрушить выборы и демократию
В использовании технологий для распространения лжи и дезинформации нет ничего нового. Люди делали это через книги и листовки на протяжении веков. Это стало проще с появлением текстовых процессоров, лазерных принтеров, электронной почты и социальных сетей.
Искусственный интеллект взял на себя проблему подделки текста и расширил ее, так что почти каждый может создавать поддельные аудио и видео, известные как дипфейки. Если вы получите голосовое сообщение, которое звучит так, как будто ваш ребенок говорит: «Меня похитили, пожалуйста, переведите 1000 долларов на этот банковский счет в течение следующих 10 минут и не звоните в полицию», это может оказать ужасное эмоциональное воздействие. гораздо более мощный, чем электронное письмо, в котором говорится то же самое.
В более широком масштабе дипфейки, созданные искусственным интеллектом, можно использовать для попытки повлиять на выборы. Конечно, не нужны сложные технологии, чтобы поставить под сомнение законного победителя выборов, но искусственный интеллект значительно облегчит эту задачу.
Уже появились фейковые видеоролики с фейковыми кадрами известных политиков. Представьте, что утром перед выборами видео, на котором кандидат грабит банк, становится вирусным. Это было ложью, но новостным организациям и кампании потребовались часы, чтобы доказать это. Сколько людей посмотрит это видео и изменит свой голос в последнюю минуту? Это может склонить чашу весов, особенно если гонка напряженная.
Недавно, когда соучредитель OpenAI Сэм Альтман давал показания перед комитетом Сената США, сенаторы от обеих партий говорили о влиянии ИИ на выборы и демократию. Я надеюсь, что эта тема и дальше будет у всех на повестке дня.
Мы, конечно, не решили проблему дезинформации и дипфейков. Но две вещи внушают мне осторожный оптимизм. Во-первых, люди способны научиться не принимать ничего за чистую монету. В течение многих лет пользователи электронной почты погрязли в мошенничестве, выдавая себя за нигерийских принцев, обещая поделиться номерами кредитных карт в обмен на огромные вознаграждения. Но со временем большинство людей учатся думать дважды. По мере того как обманы становились все более изощренными, многие цели становились все более изощренными. Нам нужно создать такую же возможность для дипфейков.
Еще одна вещь, которая меня обнадеживает, это то, что искусственный интеллект может помочь идентифицировать дипфейки и создавать дипфейки. Например, Intel разработала детектор дипфейков, а государственное агентство DARPA разрабатывает технологию для определения того, было ли подделано видео или аудио.
Это будет итеративный процесс: кто-то найдет способ обнаружить подделку, кто-то придумает, как с ней бороться, кто-то разработает меры противодействия и так далее. Это не будет идеально, но и мы не будем в отчаянии.
ИИ облегчит нападение на людей и правительства
Сегодня, когда хакеры надеются найти уязвимость в программном обеспечении, которую можно использовать, они делают это с помощью «грубой силы» — написания кода и атаки на потенциальные уязвимости до тех пор, пока уязвимость не будет обнаружена. Это включает в себя множество обходных путей, поэтому требует времени и терпения.
Специалисты по безопасности, которые хотят бороться с хакерами, должны делать то же самое. Каждое исправление программного обеспечения, которое вы устанавливаете на свой телефон или ноутбук, представляет собой часы поиска.
Модели ИИ ускорят этот процесс, помогая хакерам писать более эффективный код. Они также могут использовать общедоступную информацию о человеке, например, где он работает и где его друзья, для разработки более совершенных фишинговых атак, чем те, которые доступны в настоящее время.
Хорошая новость заключается в том, что ИИ — это палка о двух концах. Команды безопасности в правительстве и частном секторе должны иметь новейшие инструменты для поиска и устранения уязвимостей безопасности, прежде чем преступники воспользуются ими. Я надеюсь, что индустрия безопасности программного обеспечения расширит работу, которую они уже делают в этой области, это должно быть их заботой номер один.
Конечно, именно поэтому мы не должны пытаться временно мешать людям внедрять новые разработки в области искусственного интеллекта, как это предлагают некоторые. Киберпреступники не перестанут создавать новые инструменты. Те, кто хочет использовать искусственный интеллект для разработки ядерного оружия и биотеррористических атак, не остановятся. Усилия по их прекращению должны продолжаться в том же темпе.
Существует также связанный с этим риск на глобальном уровне: гонка вооружений в области искусственного интеллекта, который может быть использован для разработки и проведения кибератак против других государств. Правительство каждой страны хочет иметь самую мощную технологию для сдерживания атак противника. Эта мотивация «никого не оставлять первой» может спровоцировать гонку по созданию все более опасного кибероружия. Всем станет хуже.
Это пугающая идея, но у нас есть история в качестве руководства. Каким бы ущербным ни был мировой режим нераспространения ядерного оружия, он предотвратил полномасштабную ядерную войну, которой мое поколение боялось с детства. Правительствам следует рассмотреть возможность создания глобального агентства по искусственному интеллекту, аналогичного Международному агентству по атомной энергии.
ИИ отнимет у людей работу
Основное влияние искусственного интеллекта на работу в ближайшие годы будет заключаться в том, чтобы помочь людям выполнять свою работу более эффективно. Это верно независимо от того, работаете ли вы на фабрике или в офисе, обрабатывая звонки по продажам и кредиторскую задолженность. В конце концов, ИИ сможет хорошо выражать себя, составлять электронные письма и управлять вашим почтовым ящиком для вас. Просто написав запрос на английском или любом другом языке, вы можете получить желаемый PPT.
Как я утверждал в своей февральской статье, повышение производительности полезно для общества. Это дает людям больше времени для других дел на работе и дома. Никогда не исчезнет потребность в людях, которые помогают, например, в обучении, уходе за больными и уходе за пожилыми людьми. Но некоторым работникам действительно нужна поддержка и переобучение, когда мы переходим на рабочее место, управляемое ИИ. Это задача правительств и бизнеса — сделать так, чтобы рабочие не остались позади — без нарушения жизни людей, которое происходит, когда рабочие места в американской промышленности сокращаются.
Кроме того, имейте в виду, что это не первый раз, когда новые технологии приводят к значительным изменениям на рынке труда. Я не думаю, что влияние искусственного интеллекта будет таким же огромным, как промышленная революция, но оно определенно будет похоже на влияние появления персонального компьютера. Приложения для обработки текстов не устранили офисную работу, но изменили ее навсегда. Работодатели и работники должны были адаптироваться, и они это сделали. Преобразование, вызванное ИИ, будет ухабистым переходом, но есть все основания полагать, что мы можем уменьшить разрушение жизни и средств к существованию людей.
ИИ унаследует наши предубеждения и придумает их
Галлюцинации — когда ИИ уверенно делает заявления, которые просто не соответствуют действительности — обычно случаются из-за того, что машина не понимает вашего запроса. Попросите ИИ написать короткий рассказ об отпуске на Луне, и он может дать вам образный ответ. Но если вы попросите ИИ составить для вас план поездки в Танзанию, он может отправить вас в несуществующий отель.
Еще один риск искусственного интеллекта заключается в том, что он отражает или даже усиливает предрассудки людей в отношении определенных полов, рас, национальностей и т. д.
Чтобы понять, почему возникают галлюцинации и искажения, важно знать, как сегодня работают наиболее распространенные модели ИИ. По сути, это очень сложные версии кода, которые позволяют вашему почтовому приложению предугадывать следующее слово, которое вы собираетесь набрать: они сканируют огромное количество текста — в некоторых случаях почти весь текст, доступный в Интернете, — а затем анализируют его. найти закономерности в человеческом языке.
Когда вы задаете вопрос ИИ, он смотрит на слова, которые вы используете, а затем ищет фрагменты текста, которые часто связаны с этими словами. Если вы напишите «перечислите ингредиенты для блинов», ИИ может заметить, что во фразе часто встречаются такие слова, как «мука, сахар, соль, разрыхлитель, молоко и яйца». Затем, основываясь на том, что он знает о порядке, в котором эти слова обычно появляются, он генерирует ответ. (В моделях ИИ, которые работают таким образом, используются так называемые трансформеры. GPT-4 — одна из таких моделей).
Этот процесс объясняет, почему ИИ может галлюцинировать или быть предвзятым. Это не имеет никакого отношения к вопросу, который вы задали, или к тому, что вы сказали. Если вы скажете ИИ, что он допустил ошибку, он может сказать «извините, я сделал опечатку». Но это всего лишь иллюзия, на самом деле он ничего не вводит. Он говорит это потому, что отсканировал достаточно текста, чтобы понять, что «извините, я сделал опечатку» — это фраза, которую люди часто пишут после того, как кто-то их исправил.
Точно так же модели ИИ наследуют предубеждения, заложенные в тексте, на котором они обучались. Если прочитать много статей о врачах, и в статьях в основном упоминаются врачи-мужчины, то ответ будет исходить из того, что большинство врачей — мужчины.
Хотя некоторые исследователи утверждают, что галлюцинации — неотъемлемая проблема, я с этим не согласен. Я оптимистично смотрю на то, что со временем модели ИИ научатся отличать факты от вымысла. Например, OpenAI провел многообещающие исследования в этой области.
Другие группы, в том числе Институт Алана Тьюринга и Национальный институт стандартов и технологий, также работают над устранением предвзятости. Один из подходов заключается в том, чтобы встроить человеческие ценности и рассуждения более высокого уровня в ИИ. Это похоже на то, как работают самосознательные люди: может быть, вы думаете, что большинство врачей — мужчины, но вы достаточно осознаете это предположение, чтобы понимать, что вам нужно сознательно бороться с этим. Искусственный интеллект может работать аналогичным образом, особенно если модели разработаны людьми из разных слоев общества.
В конце концов, каждый, кто использует ИИ, должен знать о проблеме предвзятости и стать информированным пользователем. Документы, которые вы просите составить у ИИ, могут быть полны предвзятости и фактических ошибок. Вам нужно изучить предубеждения ИИ, а также свои собственные.
Студенты не научатся писать, потому что за них это сделает ИИ
Многие учителя опасаются, что ИИ нарушит их сотрудничество со студентами. В эпоху, когда любой, у кого есть подключение к Интернету, может использовать ИИ для написания приличного первого черновика диссертации, что может помешать студенту сдать его как свой собственный?
Уже существуют инструменты ИИ, которые могут научиться определять, написано ли эссе человеком или компьютером, поэтому учителя могут определить, когда ученики делают домашнее задание. Но некоторые учителя не пытаются отговорить учащихся от использования ИИ в своих письмах — они на самом деле поощряют его.
В январе ветеран английского языка по имени Чери Шилдс написала в Education Week о том, как она использует ChatGPT в своем классе. ChatGPT помогает своим ученикам во всем, от начала написания до составления планов, и даже предоставляет отзывы об их заданиях.
«Учителя должны воспринимать технологию искусственного интеллекта как еще один инструмент, который могут использовать ученики», — написала она. "Подобно тому, как мы когда-то учили студентов правильному поиску в Google, учителя должны разработать четкие уроки о том, как боты ChatGPT могут помочь в написании эссе. Признание существования ИИ и помощь студентам в его использовании может революционизировать то, как мы преподаем". У каждого учителя есть время, чтобы изучить и использовать новые инструменты, но такие педагоги, как Чери Шилдс, приводят хороший аргумент в пользу того, что те, у кого есть время, получат большую пользу.
Это напоминает мне 1970-е и 1980-е годы, когда стали популярны электронные калькуляторы. Некоторые учителя математики опасались, что ученики перестанут изучать основы арифметики, но другие восприняли новую технологию и сосредоточились на мышлении, лежащем в основе арифметики.
ИИ также может помочь с письмом и критическим мышлением. Особенно в первые дни, когда галлюцинации и предвзятость все еще остаются проблемой, преподаватели могут создавать эссе с помощью ИИ, а затем проверять их с учениками. Образовательные некоммерческие организации, такие как Академия Хана, которую я финансирую, и проект ООР предоставляют учителям и учащимся бесплатные онлайн-инструменты, в которых особое внимание уделяется проверке утверждений. Нет более важного навыка, чем умение отличить настоящее от подделки.
Нам действительно нужно убедиться, что образовательное программное обеспечение помогает сократить разрыв в достижениях, а не усугубляет его. Сегодняшнее программное обеспечение в первую очередь ориентировано на студентов, которые уже мотивированы учиться. Он может составить для вас план обучения, указать на хорошие ресурсы и проверить ваши знания. Однако оно еще не знает, как увлечь вас предметами, которые вас пока не интересуют. Это проблема, которую разработчикам необходимо решить, чтобы все типы учащихся могли извлечь выгоду из ИИ.
**Что дальше? **
Я считаю, что у нас тем больше оснований для оптимизма, что мы можем управлять рисками ИИ, максимально используя его преимущества. Но нам нужно действовать быстро.
Правительствам необходимо развивать экспертные знания в области ИИ, чтобы разрабатывать обоснованные законы и правила, касающиеся этой новой технологии. Им нужно бороться с дезинформацией и дипфейками, угрозами безопасности, изменениями на рынке труда и влиянием на образование. Только один пример: закон должен разъяснить, какое использование дипфейков является законным, и как дипфейки маркируются, чтобы все понимали, что то, что они видят или слышат, является фальшивкой.
Политические лидеры должны иметь возможность вести информированный, вдумчивый диалог с избирателями. Им также необходимо решить, насколько сотрудничать с другими странами по этим вопросам, а не действовать в одиночку.
В частном секторе ИИ-компании должны работать безопасно и ответственно. Это включает в себя защиту конфиденциальности людей, обеспечение того, чтобы модели ИИ отражали фундаментальные человеческие ценности, минимизацию предвзятости в интересах как можно большего числа людей и предотвращение использования технологий преступниками или террористами. Компании во многих секторах экономики должны помочь своим сотрудникам перейти на рабочее место, ориентированное на ИИ, чтобы никто не остался без внимания. Клиенты всегда должны знать, что они взаимодействуют с ИИ, а не с людьми.
Наконец, я призываю всех уделять как можно больше внимания развитию искусственного интеллекта. Это самая преобразующая инновация, которую мы увидим в нашей жизни, и здоровые общественные дебаты будут зависеть от понимания каждым этой технологии, ее преимуществ и рисков. Преимущества искусственного интеллекта будут огромными, и лучшая причина полагать, что мы можем контролировать риск, заключается в том, что мы это сделали.