Источник: Обзор технологий Массачусетского технологического института.
Источник изображения: сгенерировано инструментом Unbounded AI
Это еще одно лето экстремальной погоды с беспрецедентной жарой, лесными пожарами и наводнениями, обрушившимися на страны по всему миру. Чтобы решить задачу точного прогнозирования такой экстремальной погоды, полупроводниковый гигант Nvidia создает «цифровых двойников» всей планеты на базе искусственного интеллекта.
Цифровой близнец под названием Земля-2 будет использовать прогнозы FourCastNet. FourCastNet — это модель искусственного интеллекта, которая использует десятки терабайт данных системы Земли для прогнозирования погоды на следующие две недели быстрее и точнее, чем современные методы прогнозирования.
Типичная система прогнозирования погоды способна генерировать около 50 прогнозов на неделю вперед. А FourCastNet может предсказывать тысячи возможностей, точно фиксируя редкие, но смертельные риски стихийных бедствий, предоставляя уязвимым группам населения драгоценное время для подготовки и эвакуации.
Долгожданная революция в моделировании климата — это только начало. С появлением искусственного интеллекта наука станет более захватывающей — и в некотором смысле ее будет труднее распознать. Последствия этого сдвига выйдут далеко за пределы лаборатории, они коснутся всех нас.
Если мы примем правильную стратегию для решения самых насущных проблем науки с помощью надежного регулирования и соответствующей поддержки инновационного использования ИИ, ИИ сможет переписать научный процесс. Мы можем построить будущее, в котором инструменты на основе ИИ не только избавят нас от бессмысленного и трудоемкого труда, но и направят нас к творческим изобретениям и открытиям, поощряя прорывы, на которые в противном случае ушли бы десятилетия.
В последние месяцы искусственный интеллект стал почти синонимом больших языковых моделей или LLM, но в науке существует множество различных архитектур моделей, которые могут иметь еще большее влияние. Большая часть научного прогресса за последнее десятилетие была достигнута за счет небольших «классических» моделей, фокусирующихся на конкретных проблемах. Эти модели привели к значительным улучшениям. Совсем недавно крупномасштабные модели глубокого обучения, которые начали включать междоменные знания и генеративный ИИ, расширили диапазон возможных возможностей.
Например, ученые из Университета Макмастера и Массачусетского технологического института использовали модели искусственного интеллекта для определения антибиотиков для борьбы с патогеном, который, по мнению Всемирной организации здравоохранения, является одной из самых опасных в мире устойчивых к антибиотикам бактерий для пациентов больниц. Кроме того, модель DeepMind от Google может управлять плазмой в реакциях ядерного синтеза, приближая нас к революции чистой энергии. А в сфере здравоохранения Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США одобрило 523 устройства, использующих искусственный интеллект, 75 процентов из которых используются в радиологии.
Переосмысление науки
По сути, научный процесс, которому мы научились в начальной школе, останется прежним: провести фоновое исследование, выявить гипотезу, проверить ее с помощью эксперимента, проанализировать собранные данные и сделать вывод. Но искусственный интеллект может революционизировать то, как эти компоненты будут выглядеть в будущем.
ИИ уже меняет то, как некоторые ученые проводят обзоры литературы. Такие инструменты, как PaperQA и Elicit, используют LLM для сканирования баз данных статей и создания кратких и точных обзоров существующей литературы, включая цитаты.
После завершения обзора литературы ученые выдвигают гипотезы для проверки. Основная задача LLM — предсказать следующее слово в предложении, вплоть до полных предложений и абзацев. Этот метод делает LLM особенно подходящими для работы с масштабами, присущими научным иерархиям, и позволяет им предсказывать следующее крупное открытие в физике или биологии.
ИИ также может быстрее расширять гипотетические поисковые сети и сокращать поисковые сети. Таким образом, инструменты ИИ могут помочь сформулировать более сильные гипотезы, такие как модели, которые предлагают более многообещающие новые кандидаты в лекарства. Моделирование теперь выполняется на порядки быстрее, чем всего несколько лет назад, что позволяет ученым опробовать больше вариантов конструкции в моделировании, прежде чем проводить эксперименты в реальном мире.
Например, ученые из Калифорнийского технологического института использовали модели искусственного интеллекта для имитации жидкости, чтобы автоматически разработать более совершенный катетер, который может предотвратить обратный поток бактерий и вызвать инфекцию. Эта возможность коренным образом изменит поэтапный процесс научных открытий, позволяя исследователям разрабатывать оптимальные решения с самого начала, в отличие от того, что мы видели в течение многих лет с инновациями в конструкции ламп накаливания.
Выйдя на экспериментальный этап, искусственный интеллект сможет проводить эксперименты быстрее, дешевле и в большем масштабе. Например, мы можем создавать машины с искусственным интеллектом, с сотнями микротрубочек, работающих день и ночь, создавая образцы со скоростью, с которой люди не могут сравниться. Вместо того, чтобы ограничиваться шестью экспериментами, ученые могут использовать инструменты ИИ для проведения тысячи экспериментов.
Ученые, беспокоящиеся о следующем гранте, публикации или процессе пребывания в должности, больше не будут привязаны к безопасному эксперименту с наивысшими шансами на успех; они будут свободны в выдвижении более смелых междисциплинарных гипотез. Например, при оценке новых молекул исследователи, как правило, выбирают кандидатов, структурно схожих с уже известными нам, но модели ИИ не обязательно должны иметь те же предубеждения и ограничения.
Со временем большая часть научных исследований будет проводиться в «автономных лабораториях» — автономных роботизированных платформах в сочетании с искусственным интеллектом. Здесь мы можем перенести возможности искусственного интеллекта из цифровой сферы в физический мир. Такие автоматизированные лаборатории уже появляются в таких компаниях, как Emerald Cloud Lab и Artificial, и даже в Аргоннской национальной лаборатории.
Наконец, на этапе анализа и обобщения автоматизированная лаборатория выйдет за рамки автоматизации и будет использовать LLM для интерпретации и рекомендации следующего эксперимента на основе полученных экспериментальных результатов. Затем, как партнер в исследовательском процессе, ассистент лаборатории ИИ может заказать расходные материалы для замены тех, которые использовались в предыдущих экспериментах, а также настроить и провести следующий рекомендованный эксперимент в одночасье. Результаты были готовы, пока экспериментаторы еще спали дома.
Возможности и ограничения
Молодые исследователи могут нервно дрожать на своих местах от такой перспективы. К счастью, новые рабочие места, появившиеся в результате этой революции, могут быть более творческими и менее бессмысленными, чем большинство современных лабораторных работ.
Инструменты искусственного интеллекта могут снизить входные барьеры для новых ученых и открыть возможности для тех, кто традиционно не участвовал в этой области. С LLM, способными помочь в создании кода, студентам STEM больше не нужно будет осваивать загадочные языки кодирования, открывая дверь башни из слоновой кости для новых, нетрадиционных талантов и облегчая ученым доступ к областям за пределами их собственных. Вскоре специально обученные LLM могут выйти за рамки предоставления первых черновиков письменных работ, таких как заявки на гранты, и могут быть разработаны для предоставления «равных» рецензий новых статей вместе с рецензентами.
Инструменты искусственного интеллекта обладают невероятным потенциалом, но мы должны понимать, где человеческий контакт все еще имеет значение, и не заходить слишком далеко. Например, успешно объединить искусственный интеллект и робототехнику через автоматизированные лаборатории непросто. Большую часть неявных знаний, которые ученые получают в лаборатории, трудно перенести в робототехнику на базе ИИ. Точно так же мы должны осознавать ограничения современных LLM, особенно галлюцинаций, прежде чем давать им много документов, исследований и анализов.
Такие компании, как OpenAI и DeepMind, по-прежнему лидируют благодаря новым прорывам, моделям и исследовательским работам, но нынешнее доминирование в отрасли не будет длиться вечно. До сих пор DeepMind преуспевал в том, чтобы сосредоточиться на четко определенных проблемах с четкими целями и показателями. Его самый известный успех был достигнут на проводимом раз в два года конкурсе Critical Assessment of Structure Prediction, в котором исследовательская группа предсказала точную форму белка на основе его последовательности аминокислот.
С 2006 по 2016 год средний балл в самой сложной категории составлял от 30 до 40 баллов по шкале CASP от 1 до 100. Внезапно в 2018 году модель AlphaFold от DeepMind набрала колоссальные 58 баллов. Два года спустя обновленная версия под названием AlphaFold2 набрала 87 баллов, оставив своих конкурентов-людей еще дальше.
Благодаря ресурсам с открытым исходным кодом мы начинаем видеть закономерность, когда промышленность достигает определенных эталонных показателей, а затем научные круги вмешиваются, чтобы уточнить модель. После того, как DeepMind выпустила AlphaFold, Минкьюнг Бэк и Дэвид Бейкер из Вашингтонского университета выпустили RoseTTAFold, который использует структуру DeepMind для прогнозирования структуры белковых комплексов, а не отдельных белковых структур, с которыми изначально могла работать AlphaFold. Более того, академические круги более защищены от конкурентного давления рынка, поэтому они могут выйти за рамки четко определенных проблем и измеримых успехов, которые привлекли DeepMind.
Помимо достижения новых высот, ИИ может помочь подтвердить то, что мы уже знаем, решая кризис научной воспроизводимости. Около 70% ученых сообщили, что они не смогли воспроизвести эксперименты другого ученого — удручающая цифра. Поскольку ИИ снижает затраты и усилия на проведение экспериментов, в некоторых случаях будет легче воспроизвести результаты или сделать выводы, которые невозможно воспроизвести, что поможет повысить доверие к науке.
Ключом к воспроизводимости и доверию является прозрачность. В идеальном мире все в науке было бы открытым, от статей без платного доступа до данных, кода и моделей с открытым исходным кодом. К сожалению, из-за опасностей, которые могут представлять такие модели, не всегда практично открывать исходный код для всех моделей. Во многих случаях риски полной прозрачности перевешивают преимущества доверия и справедливости. Тем не менее, пока мы можем быть прозрачными в отношении моделей — особенно классических моделей ИИ с более ограниченным использованием — мы должны открывать их исходный код.
Важность регулирования
Во всех этих областях необходимо помнить о присущих ИИ ограничениях и рисках. ИИ — такой мощный инструмент, потому что он позволяет людям делать больше с меньшими затратами времени, меньшего образования и меньшего количества оборудования. Но эти возможности также делают его опасным оружием, которое может попасть не в те руки. Эндрю Уайт, профессор Университета Рочестера, подписал с OpenAI участие в тесте «красной команды», который может выявить риски GPT-4 до его выпуска. Используя языковые модели и снабжая их инструментами, Уайт обнаружил, что GPT-4 может подсказывать опасные соединения и даже заказывать их у поставщиков химикатов. Чтобы проверить процесс, на следующей неделе ему домой отправили (безопасное) тестовое соединение. OpenAI заявила, что использовала выводы Уайта для настройки GPT-4 перед его выпуском.
Даже люди с совершенно добрыми намерениями могут заставить ИИ давать плохие результаты. Мы должны меньше беспокоиться о создании Терминатора и, как говорит ученый-компьютерщик Стюарт Рассел, больше беспокоиться о том, чтобы стать королем Мидасом. Царь хотел, чтобы все, к чему он прикасался, превращалось в золото, и из-за этого случайное объятие убило его собственную дочь.
У нас нет никакого механизма, который заставил бы ИИ изменить свои цели, даже если он реагирует на свои цели способами, которые мы не можем предсказать. Часто цитируемое предположение состоит в том, что ИИ просят произвести как можно больше скрепок. Будучи преисполнена решимости достичь своей цели, модель захватывает энергосистему и убивает всех людей, которые пытаются остановить ее, поскольку скрепки продолжают накапливаться. Мир превратился в бардак. ИИ похлопывает себя по заднице и уходит, свою работу он сделал. (В знак уважения к этому известному мысленному эксперименту многие сотрудники OpenAI носят с собой фирменные скрепки).
OpenAI удалось внедрить впечатляющий набор мер безопасности, но они останутся в силе до тех пор, пока GPT-4 размещается на серверах OpenAI. Скоро может наступить день, когда кому-то удастся воспроизвести модель и разместить ее на собственном сервере. Передовые модели, подобные этой, необходимо защищать, чтобы воры не смогли снести заборы безопасности ИИ, тщательно добавленные их первоначальными разработчиками.
Чтобы бороться с преднамеренным и непреднамеренным неправильным использованием ИИ, нам необходимо разумное, информированное регулирование технологических гигантов и моделей с открытым исходным кодом, которые не мешают нам использовать ИИ в интересах науки. В то время как технологические компании добиваются успехов в обеспечении безопасности ИИ, государственные регулирующие органы в настоящее время плохо подготовлены к принятию соответствующих законов и должны делать больше, чтобы быть в курсе последних событий.
Вне регулирования правительства — наряду с благотворительностью — могут поддерживать научные проекты с высокой социальной отдачей, но небольшой финансовой отдачей или академическим стимулом. Несколько областей имеют особую актуальность, включая изменение климата, биобезопасность и готовность к пандемии. Именно в этих областях нам больше всего нужны скорость и масштаб, обеспечиваемые моделированием ИИ и автоматизированными лабораториями.
В той мере, в какой это позволяют соображения безопасности, правительства также могут помочь в разработке больших высококачественных наборов данных, таких как тот, на который опирается AlphaFold. Открытые наборы данных являются общественным достоянием: они приносят пользу многим исследователям, но у исследователей мало стимулов создавать их самостоятельно. Правительства и благотворительные организации могут сотрудничать с университетами и компаниями для выявления серьезных проблем в науке, решение которых выиграет от использования надежных баз данных.
В химии, например, есть язык, объединяющий эту область, что, по-видимому, помогает моделям ИИ легко ее анализировать. Но никто не смог должным образом агрегировать данные о молекулярных свойствах, хранящиеся в десятках баз данных, что лишило нас понимания того, чего могли бы достичь модели ИИ, если бы у нас был только один источник. В то же время биологии не хватает известных и поддающихся вычислению данных, на которых можно основывать физику или химию, а такие области, как внутренне неупорядоченные белки, остаются для нас загадочными. Таким образом, потребуются более согласованные усилия для понимания и даже документирования данных для создания всеобъемлющей базы данных.
Путь к широкому внедрению ИИ в науку долог, и нам предстоит многое сделать, от создания правильных баз данных до обеспечения соблюдения правил, уменьшения предвзятости в алгоритмах ИИ и обеспечения равного доступа к вычислительным ресурсам через границы.
Тем не менее, это очень оптимистичный момент. Предыдущие сдвиги научной парадигмы, такие как научный процесс или появление больших данных, были обращены внутрь себя и могли сделать науку более точной и организованной. В то же время ИИ расширяет возможности, позволяя нам комбинировать информацию новыми способами и подталкивая научное творчество и продвижение к новым высотам.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Бывший генеральный директор Google Эрик Шмидт: Как искусственный интеллект изменит способы проведения научных исследований
Сценарист: Эрик Шмидт
Источник: Обзор технологий Массачусетского технологического института.
Это еще одно лето экстремальной погоды с беспрецедентной жарой, лесными пожарами и наводнениями, обрушившимися на страны по всему миру. Чтобы решить задачу точного прогнозирования такой экстремальной погоды, полупроводниковый гигант Nvidia создает «цифровых двойников» всей планеты на базе искусственного интеллекта.
Цифровой близнец под названием Земля-2 будет использовать прогнозы FourCastNet. FourCastNet — это модель искусственного интеллекта, которая использует десятки терабайт данных системы Земли для прогнозирования погоды на следующие две недели быстрее и точнее, чем современные методы прогнозирования.
Типичная система прогнозирования погоды способна генерировать около 50 прогнозов на неделю вперед. А FourCastNet может предсказывать тысячи возможностей, точно фиксируя редкие, но смертельные риски стихийных бедствий, предоставляя уязвимым группам населения драгоценное время для подготовки и эвакуации.
Долгожданная революция в моделировании климата — это только начало. С появлением искусственного интеллекта наука станет более захватывающей — и в некотором смысле ее будет труднее распознать. Последствия этого сдвига выйдут далеко за пределы лаборатории, они коснутся всех нас.
Если мы примем правильную стратегию для решения самых насущных проблем науки с помощью надежного регулирования и соответствующей поддержки инновационного использования ИИ, ИИ сможет переписать научный процесс. Мы можем построить будущее, в котором инструменты на основе ИИ не только избавят нас от бессмысленного и трудоемкого труда, но и направят нас к творческим изобретениям и открытиям, поощряя прорывы, на которые в противном случае ушли бы десятилетия.
В последние месяцы искусственный интеллект стал почти синонимом больших языковых моделей или LLM, но в науке существует множество различных архитектур моделей, которые могут иметь еще большее влияние. Большая часть научного прогресса за последнее десятилетие была достигнута за счет небольших «классических» моделей, фокусирующихся на конкретных проблемах. Эти модели привели к значительным улучшениям. Совсем недавно крупномасштабные модели глубокого обучения, которые начали включать междоменные знания и генеративный ИИ, расширили диапазон возможных возможностей.
Например, ученые из Университета Макмастера и Массачусетского технологического института использовали модели искусственного интеллекта для определения антибиотиков для борьбы с патогеном, который, по мнению Всемирной организации здравоохранения, является одной из самых опасных в мире устойчивых к антибиотикам бактерий для пациентов больниц. Кроме того, модель DeepMind от Google может управлять плазмой в реакциях ядерного синтеза, приближая нас к революции чистой энергии. А в сфере здравоохранения Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США одобрило 523 устройства, использующих искусственный интеллект, 75 процентов из которых используются в радиологии.
Переосмысление науки
По сути, научный процесс, которому мы научились в начальной школе, останется прежним: провести фоновое исследование, выявить гипотезу, проверить ее с помощью эксперимента, проанализировать собранные данные и сделать вывод. Но искусственный интеллект может революционизировать то, как эти компоненты будут выглядеть в будущем.
ИИ уже меняет то, как некоторые ученые проводят обзоры литературы. Такие инструменты, как PaperQA и Elicit, используют LLM для сканирования баз данных статей и создания кратких и точных обзоров существующей литературы, включая цитаты.
После завершения обзора литературы ученые выдвигают гипотезы для проверки. Основная задача LLM — предсказать следующее слово в предложении, вплоть до полных предложений и абзацев. Этот метод делает LLM особенно подходящими для работы с масштабами, присущими научным иерархиям, и позволяет им предсказывать следующее крупное открытие в физике или биологии.
ИИ также может быстрее расширять гипотетические поисковые сети и сокращать поисковые сети. Таким образом, инструменты ИИ могут помочь сформулировать более сильные гипотезы, такие как модели, которые предлагают более многообещающие новые кандидаты в лекарства. Моделирование теперь выполняется на порядки быстрее, чем всего несколько лет назад, что позволяет ученым опробовать больше вариантов конструкции в моделировании, прежде чем проводить эксперименты в реальном мире.
Например, ученые из Калифорнийского технологического института использовали модели искусственного интеллекта для имитации жидкости, чтобы автоматически разработать более совершенный катетер, который может предотвратить обратный поток бактерий и вызвать инфекцию. Эта возможность коренным образом изменит поэтапный процесс научных открытий, позволяя исследователям разрабатывать оптимальные решения с самого начала, в отличие от того, что мы видели в течение многих лет с инновациями в конструкции ламп накаливания.
Выйдя на экспериментальный этап, искусственный интеллект сможет проводить эксперименты быстрее, дешевле и в большем масштабе. Например, мы можем создавать машины с искусственным интеллектом, с сотнями микротрубочек, работающих день и ночь, создавая образцы со скоростью, с которой люди не могут сравниться. Вместо того, чтобы ограничиваться шестью экспериментами, ученые могут использовать инструменты ИИ для проведения тысячи экспериментов.
Ученые, беспокоящиеся о следующем гранте, публикации или процессе пребывания в должности, больше не будут привязаны к безопасному эксперименту с наивысшими шансами на успех; они будут свободны в выдвижении более смелых междисциплинарных гипотез. Например, при оценке новых молекул исследователи, как правило, выбирают кандидатов, структурно схожих с уже известными нам, но модели ИИ не обязательно должны иметь те же предубеждения и ограничения.
Со временем большая часть научных исследований будет проводиться в «автономных лабораториях» — автономных роботизированных платформах в сочетании с искусственным интеллектом. Здесь мы можем перенести возможности искусственного интеллекта из цифровой сферы в физический мир. Такие автоматизированные лаборатории уже появляются в таких компаниях, как Emerald Cloud Lab и Artificial, и даже в Аргоннской национальной лаборатории.
Наконец, на этапе анализа и обобщения автоматизированная лаборатория выйдет за рамки автоматизации и будет использовать LLM для интерпретации и рекомендации следующего эксперимента на основе полученных экспериментальных результатов. Затем, как партнер в исследовательском процессе, ассистент лаборатории ИИ может заказать расходные материалы для замены тех, которые использовались в предыдущих экспериментах, а также настроить и провести следующий рекомендованный эксперимент в одночасье. Результаты были готовы, пока экспериментаторы еще спали дома.
Возможности и ограничения
Молодые исследователи могут нервно дрожать на своих местах от такой перспективы. К счастью, новые рабочие места, появившиеся в результате этой революции, могут быть более творческими и менее бессмысленными, чем большинство современных лабораторных работ.
Инструменты искусственного интеллекта могут снизить входные барьеры для новых ученых и открыть возможности для тех, кто традиционно не участвовал в этой области. С LLM, способными помочь в создании кода, студентам STEM больше не нужно будет осваивать загадочные языки кодирования, открывая дверь башни из слоновой кости для новых, нетрадиционных талантов и облегчая ученым доступ к областям за пределами их собственных. Вскоре специально обученные LLM могут выйти за рамки предоставления первых черновиков письменных работ, таких как заявки на гранты, и могут быть разработаны для предоставления «равных» рецензий новых статей вместе с рецензентами.
Инструменты искусственного интеллекта обладают невероятным потенциалом, но мы должны понимать, где человеческий контакт все еще имеет значение, и не заходить слишком далеко. Например, успешно объединить искусственный интеллект и робототехнику через автоматизированные лаборатории непросто. Большую часть неявных знаний, которые ученые получают в лаборатории, трудно перенести в робототехнику на базе ИИ. Точно так же мы должны осознавать ограничения современных LLM, особенно галлюцинаций, прежде чем давать им много документов, исследований и анализов.
Такие компании, как OpenAI и DeepMind, по-прежнему лидируют благодаря новым прорывам, моделям и исследовательским работам, но нынешнее доминирование в отрасли не будет длиться вечно. До сих пор DeepMind преуспевал в том, чтобы сосредоточиться на четко определенных проблемах с четкими целями и показателями. Его самый известный успех был достигнут на проводимом раз в два года конкурсе Critical Assessment of Structure Prediction, в котором исследовательская группа предсказала точную форму белка на основе его последовательности аминокислот.
С 2006 по 2016 год средний балл в самой сложной категории составлял от 30 до 40 баллов по шкале CASP от 1 до 100. Внезапно в 2018 году модель AlphaFold от DeepMind набрала колоссальные 58 баллов. Два года спустя обновленная версия под названием AlphaFold2 набрала 87 баллов, оставив своих конкурентов-людей еще дальше.
Благодаря ресурсам с открытым исходным кодом мы начинаем видеть закономерность, когда промышленность достигает определенных эталонных показателей, а затем научные круги вмешиваются, чтобы уточнить модель. После того, как DeepMind выпустила AlphaFold, Минкьюнг Бэк и Дэвид Бейкер из Вашингтонского университета выпустили RoseTTAFold, который использует структуру DeepMind для прогнозирования структуры белковых комплексов, а не отдельных белковых структур, с которыми изначально могла работать AlphaFold. Более того, академические круги более защищены от конкурентного давления рынка, поэтому они могут выйти за рамки четко определенных проблем и измеримых успехов, которые привлекли DeepMind.
Помимо достижения новых высот, ИИ может помочь подтвердить то, что мы уже знаем, решая кризис научной воспроизводимости. Около 70% ученых сообщили, что они не смогли воспроизвести эксперименты другого ученого — удручающая цифра. Поскольку ИИ снижает затраты и усилия на проведение экспериментов, в некоторых случаях будет легче воспроизвести результаты или сделать выводы, которые невозможно воспроизвести, что поможет повысить доверие к науке.
Ключом к воспроизводимости и доверию является прозрачность. В идеальном мире все в науке было бы открытым, от статей без платного доступа до данных, кода и моделей с открытым исходным кодом. К сожалению, из-за опасностей, которые могут представлять такие модели, не всегда практично открывать исходный код для всех моделей. Во многих случаях риски полной прозрачности перевешивают преимущества доверия и справедливости. Тем не менее, пока мы можем быть прозрачными в отношении моделей — особенно классических моделей ИИ с более ограниченным использованием — мы должны открывать их исходный код.
Важность регулирования
Во всех этих областях необходимо помнить о присущих ИИ ограничениях и рисках. ИИ — такой мощный инструмент, потому что он позволяет людям делать больше с меньшими затратами времени, меньшего образования и меньшего количества оборудования. Но эти возможности также делают его опасным оружием, которое может попасть не в те руки. Эндрю Уайт, профессор Университета Рочестера, подписал с OpenAI участие в тесте «красной команды», который может выявить риски GPT-4 до его выпуска. Используя языковые модели и снабжая их инструментами, Уайт обнаружил, что GPT-4 может подсказывать опасные соединения и даже заказывать их у поставщиков химикатов. Чтобы проверить процесс, на следующей неделе ему домой отправили (безопасное) тестовое соединение. OpenAI заявила, что использовала выводы Уайта для настройки GPT-4 перед его выпуском.
Даже люди с совершенно добрыми намерениями могут заставить ИИ давать плохие результаты. Мы должны меньше беспокоиться о создании Терминатора и, как говорит ученый-компьютерщик Стюарт Рассел, больше беспокоиться о том, чтобы стать королем Мидасом. Царь хотел, чтобы все, к чему он прикасался, превращалось в золото, и из-за этого случайное объятие убило его собственную дочь.
У нас нет никакого механизма, который заставил бы ИИ изменить свои цели, даже если он реагирует на свои цели способами, которые мы не можем предсказать. Часто цитируемое предположение состоит в том, что ИИ просят произвести как можно больше скрепок. Будучи преисполнена решимости достичь своей цели, модель захватывает энергосистему и убивает всех людей, которые пытаются остановить ее, поскольку скрепки продолжают накапливаться. Мир превратился в бардак. ИИ похлопывает себя по заднице и уходит, свою работу он сделал. (В знак уважения к этому известному мысленному эксперименту многие сотрудники OpenAI носят с собой фирменные скрепки).
OpenAI удалось внедрить впечатляющий набор мер безопасности, но они останутся в силе до тех пор, пока GPT-4 размещается на серверах OpenAI. Скоро может наступить день, когда кому-то удастся воспроизвести модель и разместить ее на собственном сервере. Передовые модели, подобные этой, необходимо защищать, чтобы воры не смогли снести заборы безопасности ИИ, тщательно добавленные их первоначальными разработчиками.
Чтобы бороться с преднамеренным и непреднамеренным неправильным использованием ИИ, нам необходимо разумное, информированное регулирование технологических гигантов и моделей с открытым исходным кодом, которые не мешают нам использовать ИИ в интересах науки. В то время как технологические компании добиваются успехов в обеспечении безопасности ИИ, государственные регулирующие органы в настоящее время плохо подготовлены к принятию соответствующих законов и должны делать больше, чтобы быть в курсе последних событий.
Вне регулирования правительства — наряду с благотворительностью — могут поддерживать научные проекты с высокой социальной отдачей, но небольшой финансовой отдачей или академическим стимулом. Несколько областей имеют особую актуальность, включая изменение климата, биобезопасность и готовность к пандемии. Именно в этих областях нам больше всего нужны скорость и масштаб, обеспечиваемые моделированием ИИ и автоматизированными лабораториями.
В той мере, в какой это позволяют соображения безопасности, правительства также могут помочь в разработке больших высококачественных наборов данных, таких как тот, на который опирается AlphaFold. Открытые наборы данных являются общественным достоянием: они приносят пользу многим исследователям, но у исследователей мало стимулов создавать их самостоятельно. Правительства и благотворительные организации могут сотрудничать с университетами и компаниями для выявления серьезных проблем в науке, решение которых выиграет от использования надежных баз данных.
В химии, например, есть язык, объединяющий эту область, что, по-видимому, помогает моделям ИИ легко ее анализировать. Но никто не смог должным образом агрегировать данные о молекулярных свойствах, хранящиеся в десятках баз данных, что лишило нас понимания того, чего могли бы достичь модели ИИ, если бы у нас был только один источник. В то же время биологии не хватает известных и поддающихся вычислению данных, на которых можно основывать физику или химию, а такие области, как внутренне неупорядоченные белки, остаются для нас загадочными. Таким образом, потребуются более согласованные усилия для понимания и даже документирования данных для создания всеобъемлющей базы данных.
Путь к широкому внедрению ИИ в науку долог, и нам предстоит многое сделать, от создания правильных баз данных до обеспечения соблюдения правил, уменьшения предвзятости в алгоритмах ИИ и обеспечения равного доступа к вычислительным ресурсам через границы.
Тем не менее, это очень оптимистичный момент. Предыдущие сдвиги научной парадигмы, такие как научный процесс или появление больших данных, были обращены внутрь себя и могли сделать науку более точной и организованной. В то же время ИИ расширяет возможности, позволяя нам комбинировать информацию новыми способами и подталкивая научное творчество и продвижение к новым высотам.