Управление технологиями, которые могут разрушить общество.
Источник изображения: создан с помощью инструмента Unbounded AI
Кинорежиссер Кристофер Нолан рассказал, что разговаривал с учеными в области искусственного интеллекта, которые переживают «момент Оппенгеймера» и беспокоятся о потенциальной разрушительности своих творений. «Я рассказываю историю Оппенгеймера, — сказал он о своем биографическом фильме об Оппенгеймере, — потому что я думаю, что это важная история, и это определенно поучительная история». Атомная бомба.
Биографы называли Оппенгеймера «Американским Прометеем» за то, что он разгадал от богов секреты ядерного огня, который расщеплял материю и высвобождал ужасающую энергию, которая, как он боялся, могла сжечь человеческую цивилизацию.
И Альтман также задался вопросом, использовал ли он ChatGPT для содействия развитию генеративного искусственного интеллекта, не является ли это тоже «очень плохой вещью». На слушаниях в Сенате он сказал: «Если что-то пойдет не так с этой технологией, это может привести к катастрофе». работать - сделать машины умнее людей - отчасти извините. "Будет трудно помешать злоумышленникам использовать ИИ для совершения плохих дел", - предупредил он. Кроме того, другие его коллеги говорили о "риске исчезновения ИИ", сопоставляя его с другими экзистенциальными угрозами, такими как ядерная война, изменение климата и пандемии.
По мнению Юваля Ноя Харари (автора «Краткой истории человечества»), разрушительная сила генеративного искусственного интеллекта для общества может быть не меньшей, чем у атомных бомб. Говоря словами Оппенгеймера из «Багхавад-гиты», она «Мир «Разрушитель». На этот раз Homo sapiens стали богами, и неорганическое потомство, которое они произвели, однажды может заменить своих предков. В своем выступлении несколько лет назад Харари выразил это так: «Человеческая история начинается, когда люди создают богов. Когда люди становятся богами, человеческая история заканчивается».
Харари и соавторы Тристан Харрис и Аза Раскин объяснили в недавней статье: «В начале был язык. Язык — это операционная система человеческой культуры. Из языка произошли миф и закон, боги и деньги, искусство и наука, дружба, государства». и компьютерный код. Новое владение языком ИИ означает, что теперь он может взламывать и манипулировать операционными системами цивилизации. Овладевая языком, ИИ захватывает главные ключи цивилизации, от банковских хранилищ до священных гробниц».
Они продолжили:
Тысячи лет мы, люди, живем мечтами других людей. Мы поклоняемся богам, преследуем прекрасные идеалы и посвящаем свою жизнь делам, которые рождаются в воображении пророков, поэтов или государственных деятелей. Вскоре мы тоже обнаружим, что живем в иллюзии нечеловеческого разума...
Вскоре мы наконец столкнемся с демонами Декарта, пещерами Платона и буддистскими майя. Завеса галлюцинаций может нависнуть над человечеством, и мы, возможно, никогда не сможем приподнять ее – или даже не осознать ее существование.
Израильский историк и философ настолько потрясен перспективой того, что наши повествования будут писать нечеловеческие существа, что он настоятельно рекомендует Homo sapiens остановиться, прежде чем уступить власть над нашим царством нашим мощным технологиям.
«Мы должны знать об ИИ до того, как наша политика, наша экономика и наша повседневная жизнь станут зависеть от него, — предупреждают они. — Если мы будем ждать, пока произойдет сбой, будет слишком поздно».
Вероятность сценария «Терминатор» низкая
Вице-президент Google Блез Агуэра-И-Аркас и коллеги из Квебекского института искусственного интеллекта написали в журнале Noema, что не верят в появление голливудской сцены «Терминатора» в ближайшем будущем. Вместо этого они обеспокоены тем, что сосредоточение внимания на «экзистенциальных угрозах» в отдаленном будущем отвлечет внимание от смягчения очевидных опасностей, которые ИИ представляет для сегодняшнего общества.
Прежде чем ИИ станет сверхразумом, их худшие опасения уже здесь: массовая слежка, дезинформация и манипуляции, неправильное использование ИИ в военных целях и массовое увольнение.
Для этой группы ученых и технологов "вымирание из-за ИИ-изгоя является крайне маловероятным сценарием, основанным на сомнительных предположениях о долгосрочной эволюции жизни, интеллекта, технологий и общества. Это также маловероятный и слишком вероятный сценарий, поскольку Существует множество физических ограничений и препятствий, которые сверхразумной системе ИИ придется преодолеть, прежде чем она сможет таким образом «предать». Существует множество естественных контрольных точек, которые исследователи могут помочь смягчить, решая реальные и насущные проблемы. глобальный приоритет».
По их мнению, «есть три способа вызвать вымирание: конкуренция за ресурсы, охота и чрезмерное потребление или изменение климата или его экологической ниши так, чтобы условия окружающей среды привели к его гибели. Ни один из этих трех сценариев не применим к нынешнему ИИ».
Самое главное: «В настоящее время ИИ зависит от нас, и сверхразум, по-видимому, признает этот факт и будет стремиться защитить человечество, поскольку мы так же важны для существования ИИ, как растения, производящие кислород, для нашего существования. Вот почему эволюция взаимозависимости между искусственный интеллект и люди гораздо более вероятны, чем результат конкуренции».
Платить «бесконечную цену» за «маловероятный исход» вымирания — это все равно, что посвятить все наши технологические возможности сопротивлению одному из миллиона шансов падения метеорита на Землю и сделать это главным приоритетом планеты. Проще говоря, «экзистенциальные риски, создаваемые сверхразумным ИИ, не заслуживают того, чтобы их ставили в один ряд с изменением климата, ядерной войной и предотвращением пандемий в качестве глобального приоритета».
Еще один момент Оппенгеймера
Любая опасность, ближняя или далекая, которая может возникнуть в результате конкуренции между людьми и многообещающим сверхразумом, будет только усугубляться конкуренцией между национальными государствами.
Оппенгеймера преследовали, изолировали, а в последние годы его жизни Комиссия по атомной энергии США отозвала у него допуск к секретной информации, потому что маккартистское увлечение в начале холодной войны рассматривало его как товарища-коммуниста. Его преступления: противодействие размещению водородных бомб и призыв к сотрудничеству с другими странами для контроля над использованием ядерного оружия.
Альтман также призвал к сотрудничеству в вопросах управления использованием искусственного интеллекта в своем выступлении перед учеными в области искусственного интеллекта в Пекине в июне этого года. «Китай обладает лучшими в мире талантами в области искусственного интеллекта», — сказал он. Для управления передовыми системами искусственного интеллекта «требуются лучшие умы со всего мира. С появлением все более мощных систем искусственного интеллекта ставки на глобальное сотрудничество никогда не были выше».
Невозможно не задаться вопросом, сколько времени понадобится, чтобы общее чувство научной ответственности Альтмана поддалось нынешней маккартистской истерии против Китая в Вашингтоне, как у Оппенгеймера.
Среди очевидных и существующих опасностей, которые представляет собой искусственный интеллект, в первую очередь связана с тем, как его можно превратить в оружие. Как предупреждает Харари, время справиться с этой угрозой настало сейчас, а не только тогда, когда она станет реальностью и будет слишком поздно. Ответственные участники должны использовать мудрость, которую не могут передать машины, и работать вместе, чтобы снизить риски. Если Ультрачеловек переживет еще один момент Оппенгеймера, экзистенциальные риски станут еще ближе.
В знак приветствия госсекретарь США Энтони Блинкен и министр торговли Джина Раймондо признали, что «ни одна страна или компания не может сформировать будущее искусственного интеллекта в одиночку... Только благодаря коллективному вниманию, мудрости и сотрудничеству международного сообщества мы сможем полностью и безопасно полностью использовать потенциал искусственного интеллекта».
Однако до сих пор их инициативы, хотя и имеют решающее значение, по-прежнему сдерживаются стратегической конкуренцией. Для стран всего мира наиболее серьезной проблемой является то, как напрямую общаться, чтобы не дать усугубиться гонке вооружений ИИ, прежде чем она выйдет из-под контроля.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
«Оппенгеймер» выходит в кинотеатрах, будет ли Сэм Альтман следующим?
Сценарист: Натан Гарделс
Происхождение: Ноэма
Кинорежиссер Кристофер Нолан рассказал, что разговаривал с учеными в области искусственного интеллекта, которые переживают «момент Оппенгеймера» и беспокоятся о потенциальной разрушительности своих творений. «Я рассказываю историю Оппенгеймера, — сказал он о своем биографическом фильме об Оппенгеймере, — потому что я думаю, что это важная история, и это определенно поучительная история». Атомная бомба.
Биографы называли Оппенгеймера «Американским Прометеем» за то, что он разгадал от богов секреты ядерного огня, который расщеплял материю и высвобождал ужасающую энергию, которая, как он боялся, могла сжечь человеческую цивилизацию.
И Альтман также задался вопросом, использовал ли он ChatGPT для содействия развитию генеративного искусственного интеллекта, не является ли это тоже «очень плохой вещью». На слушаниях в Сенате он сказал: «Если что-то пойдет не так с этой технологией, это может привести к катастрофе». работать - сделать машины умнее людей - отчасти извините. "Будет трудно помешать злоумышленникам использовать ИИ для совершения плохих дел", - предупредил он. Кроме того, другие его коллеги говорили о "риске исчезновения ИИ", сопоставляя его с другими экзистенциальными угрозами, такими как ядерная война, изменение климата и пандемии.
По мнению Юваля Ноя Харари (автора «Краткой истории человечества»), разрушительная сила генеративного искусственного интеллекта для общества может быть не меньшей, чем у атомных бомб. Говоря словами Оппенгеймера из «Багхавад-гиты», она «Мир «Разрушитель». На этот раз Homo sapiens стали богами, и неорганическое потомство, которое они произвели, однажды может заменить своих предков. В своем выступлении несколько лет назад Харари выразил это так: «Человеческая история начинается, когда люди создают богов. Когда люди становятся богами, человеческая история заканчивается».
Харари и соавторы Тристан Харрис и Аза Раскин объяснили в недавней статье: «В начале был язык. Язык — это операционная система человеческой культуры. Из языка произошли миф и закон, боги и деньги, искусство и наука, дружба, государства». и компьютерный код. Новое владение языком ИИ означает, что теперь он может взламывать и манипулировать операционными системами цивилизации. Овладевая языком, ИИ захватывает главные ключи цивилизации, от банковских хранилищ до священных гробниц».
Они продолжили:
Израильский историк и философ настолько потрясен перспективой того, что наши повествования будут писать нечеловеческие существа, что он настоятельно рекомендует Homo sapiens остановиться, прежде чем уступить власть над нашим царством нашим мощным технологиям.
«Мы должны знать об ИИ до того, как наша политика, наша экономика и наша повседневная жизнь станут зависеть от него, — предупреждают они. — Если мы будем ждать, пока произойдет сбой, будет слишком поздно».
Вероятность сценария «Терминатор» низкая
Вице-президент Google Блез Агуэра-И-Аркас и коллеги из Квебекского института искусственного интеллекта написали в журнале Noema, что не верят в появление голливудской сцены «Терминатора» в ближайшем будущем. Вместо этого они обеспокоены тем, что сосредоточение внимания на «экзистенциальных угрозах» в отдаленном будущем отвлечет внимание от смягчения очевидных опасностей, которые ИИ представляет для сегодняшнего общества.
Прежде чем ИИ станет сверхразумом, их худшие опасения уже здесь: массовая слежка, дезинформация и манипуляции, неправильное использование ИИ в военных целях и массовое увольнение.
Для этой группы ученых и технологов "вымирание из-за ИИ-изгоя является крайне маловероятным сценарием, основанным на сомнительных предположениях о долгосрочной эволюции жизни, интеллекта, технологий и общества. Это также маловероятный и слишком вероятный сценарий, поскольку Существует множество физических ограничений и препятствий, которые сверхразумной системе ИИ придется преодолеть, прежде чем она сможет таким образом «предать». Существует множество естественных контрольных точек, которые исследователи могут помочь смягчить, решая реальные и насущные проблемы. глобальный приоритет».
По их мнению, «есть три способа вызвать вымирание: конкуренция за ресурсы, охота и чрезмерное потребление или изменение климата или его экологической ниши так, чтобы условия окружающей среды привели к его гибели. Ни один из этих трех сценариев не применим к нынешнему ИИ».
Самое главное: «В настоящее время ИИ зависит от нас, и сверхразум, по-видимому, признает этот факт и будет стремиться защитить человечество, поскольку мы так же важны для существования ИИ, как растения, производящие кислород, для нашего существования. Вот почему эволюция взаимозависимости между искусственный интеллект и люди гораздо более вероятны, чем результат конкуренции».
Платить «бесконечную цену» за «маловероятный исход» вымирания — это все равно, что посвятить все наши технологические возможности сопротивлению одному из миллиона шансов падения метеорита на Землю и сделать это главным приоритетом планеты. Проще говоря, «экзистенциальные риски, создаваемые сверхразумным ИИ, не заслуживают того, чтобы их ставили в один ряд с изменением климата, ядерной войной и предотвращением пандемий в качестве глобального приоритета».
Еще один момент Оппенгеймера
Любая опасность, ближняя или далекая, которая может возникнуть в результате конкуренции между людьми и многообещающим сверхразумом, будет только усугубляться конкуренцией между национальными государствами.
Оппенгеймера преследовали, изолировали, а в последние годы его жизни Комиссия по атомной энергии США отозвала у него допуск к секретной информации, потому что маккартистское увлечение в начале холодной войны рассматривало его как товарища-коммуниста. Его преступления: противодействие размещению водородных бомб и призыв к сотрудничеству с другими странами для контроля над использованием ядерного оружия.
Альтман также призвал к сотрудничеству в вопросах управления использованием искусственного интеллекта в своем выступлении перед учеными в области искусственного интеллекта в Пекине в июне этого года. «Китай обладает лучшими в мире талантами в области искусственного интеллекта», — сказал он. Для управления передовыми системами искусственного интеллекта «требуются лучшие умы со всего мира. С появлением все более мощных систем искусственного интеллекта ставки на глобальное сотрудничество никогда не были выше».
Невозможно не задаться вопросом, сколько времени понадобится, чтобы общее чувство научной ответственности Альтмана поддалось нынешней маккартистской истерии против Китая в Вашингтоне, как у Оппенгеймера.
Среди очевидных и существующих опасностей, которые представляет собой искусственный интеллект, в первую очередь связана с тем, как его можно превратить в оружие. Как предупреждает Харари, время справиться с этой угрозой настало сейчас, а не только тогда, когда она станет реальностью и будет слишком поздно. Ответственные участники должны использовать мудрость, которую не могут передать машины, и работать вместе, чтобы снизить риски. Если Ультрачеловек переживет еще один момент Оппенгеймера, экзистенциальные риски станут еще ближе.
В знак приветствия госсекретарь США Энтони Блинкен и министр торговли Джина Раймондо признали, что «ни одна страна или компания не может сформировать будущее искусственного интеллекта в одиночку... Только благодаря коллективному вниманию, мудрости и сотрудничеству международного сообщества мы сможем полностью и безопасно полностью использовать потенциал искусственного интеллекта».
Однако до сих пор их инициативы, хотя и имеют решающее значение, по-прежнему сдерживаются стратегической конкуренцией. Для стран всего мира наиболее серьезной проблемой является то, как напрямую общаться, чтобы не дать усугубиться гонке вооружений ИИ, прежде чем она выйдет из-под контроля.