Превью саммита по безопасности ИИ в Великобритании: почему именно сейчас, почему в Великобритании

Текст: Ингрид Лунден

Источник: TechCrunch

Источник изображения: Сгенерировано Unbounded AI

Перспективы и вред ИИ являются горячими темами в наши дни. Некоторые говорят, что искусственный интеллект спасет нас, поможет диагностировать какие-то злокачественные заболевания, преодолеть цифровой разрыв в образовании и т.д. Но есть также опасения по поводу угрозы, которую он представляет для войны, безопасности, дезинформации и многого другого. Это стало развлечением для простых людей и вызвало тревогу в деловом мире.

Искусственный интеллект очень полезен, но он пока не может заглушить шум комнаты, полной болтовни. На этой неделе ученые, регулирующие органы, правительственные лидеры, стартапы, крупные технологические компании и десятки коммерческих и некоммерческих организаций собрались в Великобритании, чтобы обсудить и обсудить ИИ.

Почему Великобритания? Почему именно сейчас? **

В среду и четверг в Великобритании пройдет саммит по безопасности искусственного интеллекта в Блетчли-парке, первый в своем роде в Великобритании.

Саммит был запланирован на несколько месяцев для изучения некоторых долгосрочных проблем и рисков, связанных с искусственным интеллектом. Цели саммита являются скорее идеальными, чем конкретными: «общее понимание рисков, связанных с передовым ИИ, и необходимости действий», «перспективный процесс международного сотрудничества в области безопасности пограничного ИИ, включая то, как наилучшим образом поддерживать национальные и международные рамочные механизмы», «организации должны принять соответствующие меры для повышения безопасности передового ИИ» и так далее.

Это желание на высоком уровне также отражено в личностях участников: будут присутствовать высокопоставленные правительственные чиновники, лидеры отрасли и выдающиеся мыслители в этой области. (По последним данным: на мероприятии будут присутствовать Илон Маск, президент Байден, Джастин Трюдо и Олаф Шольц и другие).

Саммит звучал по-особенному, и так оно и было: «золотой билет» на саммит (описанный лондонским технологическим основателем и писателем Азимом Азхаром) был в дефиците. Сообщается, что саммит будет маломасштабным и в основном закрытым. Эти мероприятия включают в себя выступления в Королевском обществе (Национальная академия наук); Масштабные конференции «AI Fringe» в нескольких городах и объявления от многих целевых групп, среди прочих.

Джина Нефф, исполнительный директор Центра технологий и демократии Минделоу при Кембриджском университете, заявила на вечерней панельной дискуссии по науке и безопасности в Королевском обществе на прошлой неделе: «Мы собираемся сыграть роль саммита, который мы уже провели. Другими словами, мероприятие в Блетчли будет делать то, что оно должно делать, а то, что не входит в рамки мероприятия, будет возможностью для людей провести мозговой штурм по другим вопросам. "

Показательным примером стала панельная дискуссия Нефф: в переполненном зале Королевского общества она сидела с представителями Human Rights Watch, государственными чиновниками из крупного профсоюза Unite, основателем Tech Global Institute, аналитического центра, занимающегося вопросами технологического равенства на Глобальном Юге, главой отдела государственной политики в стартапе Stability AI и учеными-компьютерщиками из Кембриджского университета.

В то же время, можно сказать, что так называемая встреча AI edge является лишь номинальным «ребром». Поскольку саммит в Блетчли проходил в том же месте в течение недели, с очень ограниченным списком гостей и столь же ограниченными возможностями узнать о том, что обсуждалось, сессия AI Edge была быстро расширена до Блетчли и конкретизировала повестку дня конференции. Мероприятие, как сообщается, было организовано не правительством, а PR-фирмой под названием Milltown Partners (которая представляла такие компании, как DeepMind, Stripe и венчурная фирма Atomico), и, что интересно, оно длилось целую неделю, проводилось в нескольких местах по всей стране и было бесплатным для тех, кто мог получить билеты (многие мероприятия были распроданы), и многие сессии также были доступны на потоковых сервисах.

Несмотря на разнообразие, было очень грустно видеть, что дискуссия об искусственном интеллекте, несмотря на его младенчество, все еще была разделена: одна была встречей сильных мира сего (большая часть которой была открыта только для приглашенных гостей), а другая — встречей всех остальных.

Ранее сегодня группа из 100 профсоюзов и активистов направила письмо премьер-министру, в котором говорится, что правительство «подавляет» их голоса в разговоре, не позволяя им участвовать в Блетчли-парке. (Возможно, они и не получили билеты, но их способ противостоять им был абсолютно разумным: группа обнародовала его, поделившись письмом с самыми элитными экономическими изданиями страны, такими как Financial Times).

Это не только обычные люди, которые остаются на произвол судьбы. Карисса Велиз, преподаватель кафедры философии в Оксфордском университете, сказала на сегодняшнем мероприятии AI Edge: «Никто из людей, которых я знаю, не был приглашен. "

Некоторые считают, что в рационализации есть свои преимущества.

Ученый-исследователь в области искусственного интеллекта Мариус Хоббхан является соучредителем и руководителем компании Apollo Research, которая разрабатывает инструменты безопасности на основе искусственного интеллекта. Он считает, что меньшее количество людей также может привлечь больше внимания: «Чем больше людей в комнате, тем сложнее сделать какие-либо выводы или провести эффективную дискуссию», — сказал он.

В более широком смысле саммит – это всего лишь «кирпичик» и часть более широкого разговора, который сейчас ведется. На прошлой неделе премьер-министр Великобритании Риши Сунак заявил, что намерен создать новый институт безопасности ИИ и исследовательскую сеть в Великобритании, чтобы тратить больше времени и усилий на изучение влияния ИИ; Группа видных ученых во главе с Йошуа Бенджио и Джеффри Хинтоном коллективно погрузилась в эту область, опубликовав статью под названием «Управление рисками ИИ в эпоху быстрого прогресса»; Организация Объединенных Наций также объявила о создании собственной целевой группы для изучения влияния искусственного интеллекта. Недавно президент США Джо Байден также издал собственный указ об установлении стандартов безопасности ИИ.

"Экзистенциальный риск"

Один из самых больших споров заключается в том, является ли идея о том, что ИИ представляет собой «экзистенциальный риск», преувеличенной или даже преднамеренной, чтобы устранить контроль за более непосредственной деятельностью ИИ.

Мэтт Келли, профессор системной математики в Кембриджском университете, отмечает, что одной из наиболее часто цитируемых областей является дезинформация.

«Дезинформация не является чем-то новым. Это даже не что-то новое в этом или прошлом веке», — сказал он в интервью на прошлой неделе. «Но это одна из областей, где, по нашему мнению, существуют потенциальные риски для ИИ в краткосрочной и среднесрочной перспективе. И эти риски развиваются медленно с течением времени. Келли, член Королевского научного общества, сказал, что общество также провело красно-синее командное упражнение специально для дезинформации в науке во время подготовки к саммиту, чтобы увидеть, как большие языковые модели будут вести себя при попытке конкурировать друг с другом. Это попытка лучше понять, каковы риски прямо сейчас».

Правительство Великобритании, похоже, придерживается двуличного подхода к этим дебатам, причем опасность более очевидна, чем название мероприятия, которое оно организует, — Саммит по безопасности ИИ.

В своем выступлении на прошлой неделе Сунак сказал: «Сейчас у нас нет общего понимания рисков, с которыми мы сталкиваемся. «Без этого консенсуса мы не можем рассчитывать на совместное преодоление этих рисков». Именно поэтому мы будем прилагать все усилия для принятия первого международного заявления о природе этих рисков».

Но, организуя саммит, Великобритания сначала позиционировала себя в качестве центрального игрока в определении повестки дня «о том, о чем мы говорим, когда говорим об искусственном интеллекте», и у нее, безусловно, есть экономическая перспектива.

«Сделав Великобританию мировым лидером в области безопасного ИИ, мы привлечем больше новых рабочих мест и инвестиций от этой волны новых технологий», — отметил Сунак. (Служебная записка также была получена другими ведомствами: министр внутренних дел сегодня провел мероприятие с участием Internet Watch Foundation и ряда крупных компаний-разработчиков потребительских приложений, таких как TikTok и Snap, чтобы бороться с распространением изображений сексуального насилия, сгенерированных искусственным интеллектом).

Может показаться, что вовлечение Big Tech помогает в каком-то отношении, но критики склонны видеть в этом и проблему. «Регулятивный захват», когда крупные игроки отрасли предпринимают активные шаги для обсуждения и разработки рисков и защиты, стал еще одной важной темой в дивном новом мире ИИ, и саммит на этой неделе не стал исключением.

«Остерегайтесь лидеров ИИ, которые поднимают руки и говорят: «Я, я». Найджел Тун, генеральный директор производителя чипов искусственного интеллекта Graphcore, проницательно указал в статье, которую он написал о предстоящем саммите на этой неделе: «Правительства, скорее всего, вмешаются и поверят им на слово». (Впрочем, он не совсем маргинален: он сам будет присутствовать на саммите.)

В то же время многие люди до сих пор спорят о том, является ли нынешний так называемый экзистенциальный риск полезным упражнением в мышлении.

«Я думаю, что риторика о границах и искусственном интеллекте привела нас в состояние страха перед технологиями за последний год», — сказал Бен Брукс, глава отдела государственной политики в Stability AI, на панельной дискуссии в Королевском обществе, сославшись на мысленный эксперимент «Максинг скрепок», в ходе которого ИИ мог уничтожить мир, создавая скрепки без учета человеческих потребностей или безопасности, в качестве примера этого намеренно ограничивающего подхода. «Они не думают об обстоятельствах, при которых может быть развернут ИИ. Но вы можете смело его развивать. Мы хотим, чтобы все вдохновились этим и поняли, что ИИ достижим и безопасен. "

Другие менее уверены.

Хоббхан из Apollo Research сказал: «Честно говоря, я не думаю, что экзистенциальный риск точен. «Назовем это катастрофическим риском». Учитывая темпы развития в последние годы, приложения генеративного ИИ сделали большие языковые модели мейнстримом, и он считает, что наибольшую озабоченность будут по-прежнему вызывать злоумышленники, которые используют ИИ, а не сам ИИ в беспорядках: использование его для биологической войны, ситуации с национальной безопасностью и дезинформации, которая может изменить демократический процесс. По его словам, все эти области являются областями, в которых, по его мнению, ИИ, вероятно, будет играть катастрофическую роль.

«Лауреаты премии Тьюринга открыто обеспокоены выживанием и катастрофическими рисками... Мы действительно должны подумать об этом", - добавил он.

Перспективы бизнеса

Несмотря на серьезные риски, Великобритания также хочет сделать страну естественным домом для компаний, занимающихся искусственным интеллектом, проводя большие дискуссии об искусственном интеллекте. Однако некоторые аналитики считают, что путь к инвестициям в ИИ может быть не таким гладким, как некоторые прогнозируют.

«Я думаю, что реальность начинает вырисовываться, что компании начинают понимать, сколько времени и денег им нужно выделять на проекты генеративного ИИ, чтобы получить надежные результаты, которые действительно могут повысить производительность и доходы», — сказал Авива Литан, корпоративный вице-президент, аналитик Gartner. «Несмотря на то, что они вносят итеративные корректировки и инженерные работы по проекту, им по-прежнему требуется ручной контроль за операциями и результатами. Короче говоря, выходные данные GenAI недостаточно надежны и требуют много ресурсов, чтобы сделать их надежными. Конечно, модель все время совершенствуется, но таково текущее состояние рынка. Но в то же время мы видим, что все больше и больше проектов выходят на стадию производства. "

Она считает, что инвестиции в ИИ «определенно замедлят рост предприятий и государственных организаций, использующих ИИ». Поставщики продвигают свои приложения и продукты ИИ, но компании не могут внедрить их так же быстро, как их продвигают. Кроме того, существует множество рисков, связанных с приложениями GenAI, таких как демократизация легкого доступа к конфиденциальной информации даже внутри организации. "

Точно так же, как «цифровая трансформация» в реальности является скорее медленно сгорающей концепцией, инвестиционная стратегия предприятия в области ИИ также требует больше времени. «Компаниям требуется время, чтобы заблокировать свои структурированные и неструктурированные наборы данных и правильно и эффективно установить разрешения. На предприятии слишком много избыточного совместного использования, которое до этого не имело значения. Литан добавляет: «Теперь любой может получить доступ к любому файлу, который не защищен должным образом, с помощью простой команды на родном языке, например, на английском». "

Тот факт, что вопрос о том, как сбалансировать коммерческие интересы ИИ с вопросами безопасности и рисков, который будет обсуждаться в Блетчли-парке, многое говорит о предстоящей задаче, но также подчеркивает напряженность ситуации. Позже в ходе конференции организаторы Блетчли, как сообщается, работали над тем, чтобы расширить дискуссию за пределы проблем безопасности на высоком уровне и включить в области, где действительно могут возникнуть риски, такие как здравоохранение, хотя этот сдвиг не подробно описан в объявленной в настоящее время повестке дня.

«Будет круглый стол, в котором примут участие около 100 экспертов, что немало. Я критик, но это не кажется плохой идеей», — говорит Нефф, профессор Кембриджского университета. «Теперь будет ли глобальное регулирование предметом обсуждения? Абсолютно нет. Собираемся ли мы нормализовать отношения между Востоком и Западом? Наверное, нет. Но мы приближаемся к нашему саммиту. Я думаю, что на этом этапе могут быть очень интересные возможности. "

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить