Последняя запись в блоге Билла Гейтса: Риски ИИ существуют, но их можно контролировать

Автор: Джин Цюн

ChatGPT популярен уже больше полугода.Помимо стремительного развития, помимо решения технических проблем, следующей большой проблемой может стать комплаенс-после того, как Конгресс вызвал в суд Сэма Альтмана, теперь FTC (Федеральная торговая комиссия) также официально проводит ChatGPT расследование.

Это перекликается с тем, что Билл Гейтс сказал несколько дней назад. В своем последнем сообщении в блоге он сказал: ИИ — это самая преобразующая инновация.Это правда, что существуют риски, но риски также поддаются контролю.

В сообщении в блоге Билл Гейтс в основном обсуждает риски и проблемы искусственного интеллекта и способы их решения, а также приводит несколько примеров и предложений.

Билл Гейтс первым выразил обеспокоенность людей по поводу ИИ сегодня — сейчас мы живем в эпоху глубоких изменений в области искусственного интеллекта, которая является эпохой неопределенности. Но он оптимистичен, что эти риски управляемы.

Во-вторых, Билл Гейтс также перечислил риски, связанные с нынешним ИИ, в том числе глубокую подделку и дезинформацию, генерируемую искусственным интеллектом, которые могут разрушить выборы и демократию, облегчить отдельным лицам и правительствам проведение атак и лишить людей работы. наследует человеческие предубеждения и выдумывает, студенты не научатся писать, потому что за них это сделает ИИ и т. д.

Наконец, Билл Гейтс также выдвинул ряд предложений по регулированию ИИ. На уровне национального правительства правительствам необходимо накопить опыт в области искусственного интеллекта, чтобы сформулировать законы и правила, касающиеся ИИ, борьбы с дезинформацией и дипфейками, угрозами безопасности, изменениями на рынке труда и влиянием на образование.

Что касается решений, лидеры правительств должны сотрудничать с другими странами, а не в одиночку, и иметь возможность вести информированный и вдумчивый диалог с людьми.

Кроме того, для предприятий компании ИИ должны иметь ответственное отношение, и должна проводиться работа по обеспечению безопасности, в том числе по защите конфиденциальности людей и так далее.

Ниже приводится полный текст, переведенный с GPT-4 под редакцией 36 Krypton:

Риски, связанные с ИИ, кажутся огромными. А как насчет тех, кто потерял работу, чтобы ее заменили умные машины? Повлияет ли ИИ на результаты выборов? Что, если искусственный интеллект будущего решит, что люди больше не нужны, и захочет избавиться от нас?

Это законные вопросы, и мы должны серьезно отнестись к вызываемым ими опасениям. Но у нас есть все основания полагать, что мы можем справиться с ними: это не первый случай, когда крупные инновации создают новые угрозы, которые необходимо сдерживать, и мы уже сталкивались с ними раньше.

Будь то появление автомобиля или появление персональных компьютеров и Интернета, люди пережили и другие моменты трансформации, которые, несмотря на многие потрясения, закончились к лучшему. Вскоре после того, как первые автомобили выехали на дороги, произошли первые аварии. Но вместо того, чтобы запретить автомобили, мы ввели ограничения скорости, стандарты безопасности, требования к водительским правам, законы о вождении в нетрезвом виде и другие правила дорожного движения.

Сейчас мы находимся на ранних стадиях другой глубокой трансформации, эпохи ИИ, похожей на эпоху неопределенности перед ограничениями скорости и ремнями безопасности. ИИ меняется так быстро, что непонятно, что будет дальше. Мы сталкиваемся с серьезными вопросами о том, как работают современные технологии, как люди используют их в злонамеренных целях и как искусственный интеллект может изменить нас как членов общества и как отдельных людей.

В такие моменты естественно чувствовать себя неловко. Но история показывает, что можно решить проблемы, связанные с новыми технологиями.

Я писал о том, как искусственный интеллект изменит нашу жизнь, помогая решать проблемы в области здравоохранения, образования, изменения климата и многих других, которые раньше казались неразрешимыми. Фонд Гейтса делает этот вопрос приоритетным, и наш генеральный директор Марк Сузман недавно поделился своими размышлениями о роли ИИ в сокращении неравенства.

Я буду больше говорить о преимуществах ИИ в будущем, но в этом посте я хочу рассказать о наиболее распространенных опасениях, которые я слышу и читаю, многими из которых я разделяю, и объясняю, как я отношусь к ним.

Из всех написанных до сих пор о рисках искусственного интеллекта ясно одно: ни у одного человека нет ответов на все вопросы. Еще один момент, который мне понятен, заключается в том, что будущее искусственного интеллекта не такое мрачное, как представляют себе одни, и не такое радужное, как представляют другие. Риски реальны, но я уверен, что ими можно управлять. По мере того, как я буду обсуждать каждый вопрос один за другим, я вернусь к нескольким темам:

  • Многие проблемы, поднятые искусственным интеллектом, имеют исторические прецеденты. Например, это окажет огромное влияние на образование, но так же, как и портативные калькуляторы несколько десятилетий назад, а в последнее время использование компьютеров в классах, мы можем извлечь уроки из прошлых успехов.
  • Многие проблемы, вызванные искусственным интеллектом, также могут быть решены с помощью искусственного интеллекта.
  • Нам необходимо адаптировать старые законы и принять новые — так же, как существующие законы о борьбе с мошенничеством должны адаптироваться к онлайн-миру.

В этой статье я сосредоточусь на существующих или неизбежных рисках. Я не собираюсь обсуждать, что произойдет, когда мы разработаем ИИ, способный изучить любой предмет или задачу. Вместо этого сегодня я говорю о специально созданном ИИ.

Дойдем ли мы до этого момента через десятилетие или столетие, обществу придется столкнуться с некоторыми глубокими вопросами. Что, если бы суперИИ устанавливал свои собственные цели? Что, если они противоречат человеческим целям? Должны ли мы создавать супер ИИ?

Однако при рассмотрении этих долгосрочных рисков не следует упускать из виду непосредственные риски. Теперь я перехожу к этим краткосрочным рискам.

Сгенерированный искусственным интеллектом поддельный контент и дезинформация могут разрушить выборы и демократию

В использовании технологий для распространения лжи и дезинформации нет ничего нового. Люди веками распространяли ложь через книги и листовки. Эта практика стала проще с появлением текстовых процессоров, лазерных принтеров, электронной почты и социальных сетей.

Искусственный интеллект усугубил проблему поддельного текста, позволив почти любому создавать поддельные аудио и видео, известные как дипфейки. Если вы получите голосовое сообщение, которое выглядит так, как будто ваш ребенок говорит: «Меня похитили, пожалуйста, переведите 1000 долларов на этот банковский счет в течение следующих 10 минут и не звоните в полицию», оно будет генерировать гораздо больше, чем тот же контент. Страшное эмоциональное воздействие почты.

В более широком масштабе дипфейки, созданные искусственным интеллектом, можно использовать, чтобы попытаться повлиять на результаты выборов. Конечно, не нужны сложные технологии, чтобы поставить под сомнение законного победителя выборов, но искусственный интеллект значительно облегчит этот процесс.

Уже появились фейковые видео, содержащие сфабрикованные кадры известных политиков. Представьте, что утром перед важными выборами видео кандидата, грабящего банк, становится вирусным. Несмотря на то, что это было ложью, новостным организациям и кампаниям потребовались часы, чтобы доказать это. Сколько людей посмотрит это видео и изменит свой голос в последнюю минуту? Это может изменить исход гонки, особенно если гонка близка.

Когда соучредитель Open AI Сэм Альтман недавно дал показания перед комитетом Сената США, сенаторы от обеих партий выразили обеспокоенность по поводу влияния AI на выборы и демократию. Надеюсь, эта тема и дальше будет интересна всем. Мы действительно не решили проблему дезинформации и дипфейков. Но две вещи внушают мне осторожный оптимизм. Во-первых, у людей есть способность научиться не доверять всему. В течение многих лет пользователи электронной почты были обмануты кем-то, кто выдавал себя за нигерийского принца, обещая огромные вознаграждения за обмен номерами кредитных карт. Но со временем большинство людей учатся перепроверять эти электронные письма. По мере того, как обман становится все более изощренным, а многие цели — более изощренными, нам необходимо создать такую же осведомленность о дипфейках.

Еще одна вещь, которая вселяет в меня надежду, это то, что ИИ может не только создавать дипфейки, но и помогать их идентифицировать. Например, Intel разработала детектор дипфейков, а правительственное агентство DARPA работает над тем, как определить, было ли видео или аудио подделано.

Это будет круговой процесс: кто-то находит способ обнаружить подделку, кто-то придумывает, как с ней бороться, кто-то разрабатывает меры противодействия и так далее. Это не будет идеальным успехом, но и мы не будем связаны.

Искусственный интеллект упрощает проведение атак людьми и правительствами

Сегодня, когда хакеры хотят найти ошибку в программном обеспечении, они пишут код методом грубой силы, атакуя потенциальные слабые места, пока не найдут ошибку. Это включает в себя множество обходных путей, поэтому требует времени и терпения.

Специалисты по безопасности, которые хотят бороться с хакерами, должны делать то же самое. Каждый программный патч, который вы устанавливаете на свой телефон или ноутбук, представляет собой много времени, потраченного на его поиск кем-то добросовестным или злонамеренным.

Модели ИИ ускорят этот процесс, помогая хакерам писать более эффективный код. Они также смогут использовать общедоступную информацию о людях, например, где они работают и кто их друзья, для разработки более совершенных фишинговых атак, чем мы наблюдаем сегодня.

Хорошая новость заключается в том, что ИИ можно использовать как в злонамеренных, так и в благих целях. Команды безопасности в правительстве и частном секторе должны иметь новейшие инструменты для поиска и устранения уязвимостей безопасности, прежде чем преступники воспользуются ими. Я надеюсь, что индустрия безопасности программного обеспечения расширит работу, которую они уже делают в этой области, это должно быть их главной заботой.

Вот почему мы не должны пытаться временно мешать людям внедрять новые разработки в области искусственного интеллекта, как это предлагают некоторые. Киберпреступники не перестанут создавать новые инструменты, как и те, кто хочет использовать ИИ для разработки ядерного оружия и биотеррористических атак, и их прекращение должно продолжаться в том же темпе.

Есть и сопутствующие риски на глобальном уровне: гонка вооружений ИИ может быть использована для разработки и проведения кибератак против других государств. Правительство каждой страны хочет иметь самую мощную технологию для сдерживания атак противника. Эта мотивация «никого не оставлять первой» может спровоцировать гонку по созданию все более опасного кибероружия. Таким образом, всем будет хуже.

Это пугающая идея, но у нас есть история как урок. Несмотря на свои недостатки, мировой режим нераспространения ядерного оружия предотвратил полномасштабную ядерную войну, которой в детстве боялось мое поколение. Правительствам следует рассмотреть возможность создания глобального агентства по искусственному интеллекту, аналогичного Международному агентству по атомной энергии.

ИИ заберет рабочие места у людей

Основное влияние искусственного интеллекта на работу в ближайшие годы будет заключаться в том, чтобы помочь людям выполнять свою работу более эффективно. Это верно независимо от того, работаете ли вы на фабрике или в офисе, обрабатывая звонки по продажам и кредиторскую задолженность. В конце концов, умение ИИ выражать мысли будет достаточно хорошим, чтобы он мог писать электронные письма и управлять вашим почтовым ящиком вместо вас. Вы сможете написать запрос на простом английском или любом другом языке и создать информативный отчет о работе.

Как я уже говорил в своей февральской статье, повышение производительности полезно для общества. Это оставляет людям больше времени для других дел, будь то на работе или дома. И потребность в полезных людях, таких как обучение, уход за больными и уход за пожилыми людьми, никогда не исчезнет.

Но некоторым работникам действительно нужна поддержка и переобучение, когда мы переходим на рабочее место, управляемое ИИ. Задача правительств и корпораций — хорошо справляться с этим, чтобы рабочие не остались без внимания, без нарушения жизни людей, которое произошло, когда рабочие места в обрабатывающей промышленности США были потеряны.

Кроме того, имейте в виду, что это не первый раз, когда новые технологии приводят к значительным изменениям на рынке труда. Я не думаю, что влияние искусственного интеллекта будет таким же огромным, как промышленная революция, но оно определенно будет таким же огромным, как появление персонального компьютера. Приложения для обработки текстов не устранили офисную работу, но изменили ее навсегда. Работодатели и работники должны были адаптироваться, и они это сделали. Преобразование, вызванное ИИ, будет ухабистым переходом, но есть все основания полагать, что мы можем уменьшить разрушение жизни и средств к существованию людей.

ИИ наследует наши предубеждения и придумывает их

Галлюцинации, когда ИИ уверенно делает какое-то утверждение, которое просто не соответствует действительности, и обычно происходит из-за того, что машина не понимает контекста вашего запроса. Если вы попросите ИИ написать короткий рассказ об отпуске на Луне, он может дать вам очень творческий ответ. Но если вы позволите ему помочь вам спланировать поездку в Танзанию, он может попытаться высадить вас в несуществующем отеле.

Еще один риск ИИ заключается в том, что он отражает или даже усугубляет существующие предубеждения в отношении определенных гендерных идентичностей, рас, этнических групп и т. д.

Чтобы понять, почему возникают такие иллюзии и предубеждения, важно понять, как работают наиболее распространенные современные модели ИИ. По сути, это очень сложные версии кода, которые позволяют вашему почтовому приложению предугадывать следующее слово, которое вы собираетесь ввести: в некоторых случаях почти весь текст, доступный в Интернете, и они сканируют огромное количество текста, анализируют его, находят закономерности в человеческом языке.

Когда вы задаете вопрос ИИ, он смотрит на слова, которые вы используете, а затем ищет текст, который часто ассоциируется с этими словами. Если вы напишете «список ингредиентов для блинов», он может заметить, что слова «мука, сахар, соль, разрыхлитель, молоко и яйца» часто появляются вместе с этой фразой. Затем, основываясь на том, что он знает о порядке, в котором эти слова обычно появляются, он генерирует ответ (модели ИИ, которые работают таким образом, используют так называемые преобразователи, и GPT-4 — одна из таких моделей).

Этот процесс объясняет, почему ИИ может галлюцинировать или быть предвзятым, без какого-либо контекстуального понимания вопросов, которые вы задаете, или того, что вы ему говорите. Если вы скажете ему, что сделали опечатку, он, вероятно, скажет: «Извините, я сделал опечатку». Но это всего лишь иллюзия, он ничего не ошибается, он говорит, что, поскольку он отсканировал достаточно текста, чтобы понять, что «извините, я опечатался» — это одна из вещей, которые люди часто пишут после исправления предложения.

Точно так же модели ИИ наследуют предубеждения, присущие тексту, на котором они обучались. Если прочитать много статей о врачах, и в статьях в основном упоминаются врачи-мужчины, то ответ будет исходить из того, что большинство врачей — мужчины.

Хотя некоторые исследователи утверждают, что галлюцинации — неотъемлемая проблема, я с этим не согласен. Я оптимистично смотрю на то, что со временем мы сможем научить модели ИИ отличать факты от вымысла. Например, Open AI проделал многообещающую работу в этом направлении.

Другие организации, в том числе Институт Алана Тьюринга и Национальный институт стандартов и технологий, борются с предвзятостью. Один из подходов заключается в том, чтобы включить в ИИ человеческие ценности и рассуждения более высокого уровня. Это похоже на то, как работают самосознательные люди: может быть, вы думаете, что большинство врачей — мужчины, но вы достаточно осознаете это предположение, чтобы понимать, что вам нужно сознательно бороться с этим. Искусственный интеллект может работать аналогичным образом, особенно если модели разработаны людьми из разных слоев общества.

В конце концов, каждый, кто использует ИИ, должен знать о проблеме предвзятости и быть информированным пользователем. Документ, который вы просите составить ИИ, может быть как предвзятым, так и фактическим. Вам нужно проверить предвзятость вашего ИИ, а также свои собственные.

Студенты не научатся писать, потому что за них это сделает ИИ

Многие учителя опасаются, что ИИ нарушит их работу со студентами. В эпоху, когда любой, у кого есть подключение к Интернету, может использовать искусственный интеллект для написания респектабельного первого черновика диссертации, что может помешать студенту сдать его как свой собственный?

Уже есть некоторые инструменты ИИ, которые учатся определять, было ли эссе написано человеком или компьютером, поэтому учителя могут определить, выполняют ли их ученики свою работу. Но вместо того, чтобы отговаривать своих учеников от использования ИИ в письменной форме, некоторые учителя на самом деле поощряют его.

В январе ветеран английского языка по имени Чери Шилдс опубликовала статью в Education Week. опубликовала статью о том, как она использует Chat GPT в своем классе. Чат GPT помогает ее ученикам от написания эссе до написания плана и даже предоставления отзывов о своих заданиях.

Она пишет: «Учителя должны воспринимать технологию искусственного интеллекта как еще один инструмент, который могут использовать учащиеся. Точно так же, как когда-то мы учили учащихся правильному поиску в Google, преподаватели должны прояснить, как боты Chat GPT могут помочь в написании эссе». Существование ИИ и помощь учащимся в его использовании могут революционизировать то, как мы преподаем». .

Это напоминает мне эпоху, когда электронные калькуляторы стали популярны в 1970-х и 1980-х годах. Некоторые учителя математики опасаются, что ученики перестанут изучать основы арифметики, но другие принимают новые технологии и сосредотачиваются на мышлении, стоящем за арифметикой.

ИИ также может помочь с письмом и критическим мышлением. Особенно в первые дни, когда галлюцинации и предвзятость все еще остаются проблемой, преподаватели могут создавать эссе с помощью ИИ, а затем проверять их с учениками. Образовательные некоммерческие организации, такие как Khan Academy и OER Project, предоставляют учителям и учащимся бесплатные онлайн-инструменты, которые уделяют большое внимание проверке утверждений, и нет более важного навыка, чем умение отличить правду от подделки.

Нам действительно нужно убедиться, что образовательное программное обеспечение помогает сократить разрыв в достижениях, а не усугубляет его. Сегодняшнее программное обеспечение в первую очередь ориентировано на студентов, которые уже мотивированы учиться. Он может составить для вас план обучения, связать вас с хорошими ресурсами и проверить ваши знания. Однако оно еще не знает, как увлечь вас предметами, которые вас пока не интересуют. Это проблема, которую разработчикам необходимо решить, чтобы все типы учащихся могли извлечь выгоду из ИИ.

**Что делать дальше? **

Я считаю, что у нас есть больше оснований для оптимизма в отношении того, что мы можем управлять рисками, связанными с ИИ, и при этом максимизировать его преимущества, но нам нужно двигаться быстро.

Правительствам необходимо развивать экспертные знания в области ИИ, чтобы разрабатывать законы и правила, касающиеся этой новой технологии. Им нужно бороться с дезинформацией и дипфейками, угрозами безопасности, изменениями на рынке труда и влиянием на образование. Только один пример: закон должен разъяснить, какое использование дипфейков является законным и как следует маркировать дипфейки, чтобы все понимали, что то, что они видят или слышат, является фальшивкой.

Политические лидеры должны иметь возможность вести информированный, вдумчивый диалог с избирателями. Им также необходимо решить, насколько сотрудничать с другими странами по этим вопросам, а не действовать в одиночку.

В частном секторе ИИ-компании должны выполнять свою работу безопасно и ответственно. Это включает в себя защиту конфиденциальности людей, обеспечение того, чтобы их модели ИИ отражали фундаментальные человеческие ценности, минимизацию предвзятости в интересах как можно большего числа людей и предотвращение использования технологий преступниками или террористами. Компании во многих секторах экономики должны будут помочь своим сотрудникам перейти на рабочее место, ориентированное на ИИ, чтобы никто не остался позади. И клиенты всегда должны знать, взаимодействуют ли они с ИИ или человеком.

Наконец, я призываю всех уделять как можно больше внимания развитию искусственного интеллекта. Это самая преобразующая инновация, которую мы увидим в нашей жизни, и здоровые общественные дебаты будут зависеть от понимания каждым самой технологии, ее преимуществ и рисков. Преимущества искусственного интеллекта будут огромными, и лучшая причина полагать, что мы можем контролировать риски, заключается в том, что мы смогли это сделать.

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить