ИИ, особенно с открытым и закрытым исходным кодом в эпоху больших моделей, имеет свои преимущества и недостатки. Важно то, как хорошо работать в процессе его использования.
Источник изображения: Создано Unbounded AI
Люди всегда разделялись в выборе между открытым исходным кодом и закрытым исходным кодом в области ИИ, однако в эпоху больших моделей незаметно проявилась мощная сила открытого исходного кода. Согласно внутреннему документу, ранее опубликованному Google, на основе моделей с открытым исходным кодом, таких как LLaMA от Meta, все сообщество быстро строит модели, аналогичные OpenAI и возможностям больших моделей Google.
Нет сомнений в том, что Meta является абсолютным ядром мира открытого исходного кода, и его усилия по созданию открытого исходного кода продолжаются, как, например, недавний выпуск Llama 2. Однако все хорошее будет уничтожено ветром.В последнее время у Meta были «неприятности» из-за открытого исходного кода.
Возле офиса Meta в Сан-Франциско группа протестующих с плакатами собралась в знак протеста против стратегии Meta по публичному выпуску моделей искусственного интеллекта, утверждая, что эти выпущенные модели вызвали «необратимое распространение» потенциально небезопасных технологий. Некоторые протестующие даже сравнили выпущенные «Метой» крупные модели с «оружием массового поражения».
Эти протестующие называют себя «обеспокоенными гражданами» и возглавляются Холли Элмор. По информации LinkedIn, она является независимым сторонником движения AI Pause.
Источник фото: МИША ГУРЕВИЧ
Она отметила, что если модель окажется небезопасной, API можно закрыть, как, например, крупные модели, такие как Google и OpenAI, которые позволяют пользователям получать доступ только через API.
Напротив, серия моделей с открытым исходным кодом LLaMA от Meta делает веса моделей доступными для общественности, позволяя любому, у кого есть подходящее оборудование и опыт, самостоятельно воспроизводить и настраивать модель. Как только веса моделей будут опубликованы, издательская компания больше не сможет контролировать использование ИИ.
По мнению Холли Элмор, снижение веса модели — опасная стратегия. Любой может изменить модель, и эти модели невозможно отозвать. «Чем мощнее модель, тем опаснее стратегия».
По сравнению с моделями с открытым исходным кодом, большие модели, доступ к которым осуществляется через API, часто имеют различные функции безопасности, такие как фильтрация ответов или специальное обучение для предотвращения вывода опасных или оскорбительных ответов.
Если грузы модели высвобождаются, становится намного легче переучить модель перепрыгивать через эти «ограждения». Это делает более возможным использование этих моделей с открытым исходным кодом для создания фишингового программного обеспечения и проведения сетевых атак.
Источник фото: МИША ГУРЕВИЧ
Потому что она считает, что часть проблемы заключается в «недостаточных мерах безопасности при выпуске моделей» и что должен быть лучший способ обеспечить безопасность моделей.
Мета пока не прокомментировала это. Тем не менее, Ян ЛеКун, главный научный сотрудник Meta по искусственному интеллекту, похоже, отреагировал на заявление о том, что «ИИ с открытым исходным кодом должен быть запрещен», и раскрыл грандиозную ситуацию в предпринимательском сообществе искусственного интеллекта с открытым исходным кодом в Париже.
Есть много людей, которые не согласны с Холли Элмор, которые считают, что открытая стратегия развития ИИ — единственный способ обеспечить доверие к технологиям.
Некоторые пользователи сети заявили, что у открытого исходного кода есть плюсы и минусы.
Как и ожидалось, OpenAI в очередной раз высмеяли: «Она должна вернуться к открытому исходному коду».
Многих людей беспокоит открытый исходный код
Питер С. Парк, постдокторант в области безопасности ИИ в Массачусетском технологическом институте, сказал: «Широкое распространение передовых моделей ИИ будет особенно проблематичным в будущем, поскольку предотвратить злоупотребление моделями ИИ в принципе невозможно».
Однако Стелла Бидерман, исполнительный директор EleutherAI, некоммерческой исследовательской организации в области искусственного интеллекта, заявила: «Пока мало доказательств того, что модели с открытым исходным кодом причиняют какой-либо конкретный вред. Неясно, решит ли проблему простое использование модели в API». проблема. Контрольный вопрос».
Бидерман считает: «Основные элементы построения LLM раскрыты в бесплатных исследовательских статьях, и любой человек в мире может прочитать бумажную литературу, чтобы разработать свои собственные модели».
Она добавила: «Поощрение компаний хранить детали моделей в секрете может иметь серьезные негативные последствия для прозрачности исследований, осведомленности общественности и научных разработок в этой области, особенно для независимых исследователей».
Хотя все уже обсуждают влияние открытого исходного кода, до сих пор неясно, действительно ли подход Meta достаточно открыт и может ли он использовать преимущества открытого исходного кода.
Стефано Маффулли, исполнительный директор Open Source Initiative (OSI), сказал: «Концепция ИИ с открытым исходным кодом не была должным образом определена. Разные организации используют этот термин для обозначения разных вещей, указывая на разные уровни «чего-то общедоступного». что это смутит людей».
Маффулли отмечает, что для программного обеспечения с открытым исходным кодом ключевой вопрос заключается в том, является ли исходный код общедоступным и воспроизводимым для любых целей. Однако для воспроизведения модели ИИ вам, возможно, придется поделиться данными обучения, методами сбора данных, программным обеспечением для обучения, весами модели, кодом вывода и т. д. Среди них наиболее важным является то, что данные обучения могут иметь проблемы с конфиденциальностью и авторскими правами.
OSI работает над точным определением «ИИ с открытым исходным кодом» с прошлого года и, вероятно, выпустит ранний проект в ближайшие недели. Но несмотря ни на что, он считает, что открытый исходный код имеет решающее значение для развития ИИ. «Если ИИ не имеет открытого исходного кода, у нас не может быть надежного и ответственного ИИ», — сказал он.
В будущем различия между открытым исходным кодом и закрытым исходным кодом сохранятся, но открытый исходный код не остановить.
Оригинальная ссылка:
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Веса открытых моделей обвиняются в том, что ИИ выходит из-под контроля.
Люди всегда разделялись в выборе между открытым исходным кодом и закрытым исходным кодом в области ИИ, однако в эпоху больших моделей незаметно проявилась мощная сила открытого исходного кода. Согласно внутреннему документу, ранее опубликованному Google, на основе моделей с открытым исходным кодом, таких как LLaMA от Meta, все сообщество быстро строит модели, аналогичные OpenAI и возможностям больших моделей Google.
Нет сомнений в том, что Meta является абсолютным ядром мира открытого исходного кода, и его усилия по созданию открытого исходного кода продолжаются, как, например, недавний выпуск Llama 2. Однако все хорошее будет уничтожено ветром.В последнее время у Meta были «неприятности» из-за открытого исходного кода.
Возле офиса Meta в Сан-Франциско группа протестующих с плакатами собралась в знак протеста против стратегии Meta по публичному выпуску моделей искусственного интеллекта, утверждая, что эти выпущенные модели вызвали «необратимое распространение» потенциально небезопасных технологий. Некоторые протестующие даже сравнили выпущенные «Метой» крупные модели с «оружием массового поражения».
Эти протестующие называют себя «обеспокоенными гражданами» и возглавляются Холли Элмор. По информации LinkedIn, она является независимым сторонником движения AI Pause.
Она отметила, что если модель окажется небезопасной, API можно закрыть, как, например, крупные модели, такие как Google и OpenAI, которые позволяют пользователям получать доступ только через API.
Напротив, серия моделей с открытым исходным кодом LLaMA от Meta делает веса моделей доступными для общественности, позволяя любому, у кого есть подходящее оборудование и опыт, самостоятельно воспроизводить и настраивать модель. Как только веса моделей будут опубликованы, издательская компания больше не сможет контролировать использование ИИ.
По мнению Холли Элмор, снижение веса модели — опасная стратегия. Любой может изменить модель, и эти модели невозможно отозвать. «Чем мощнее модель, тем опаснее стратегия».
По сравнению с моделями с открытым исходным кодом, большие модели, доступ к которым осуществляется через API, часто имеют различные функции безопасности, такие как фильтрация ответов или специальное обучение для предотвращения вывода опасных или оскорбительных ответов.
Если грузы модели высвобождаются, становится намного легче переучить модель перепрыгивать через эти «ограждения». Это делает более возможным использование этих моделей с открытым исходным кодом для создания фишингового программного обеспечения и проведения сетевых атак.
Потому что она считает, что часть проблемы заключается в «недостаточных мерах безопасности при выпуске моделей» и что должен быть лучший способ обеспечить безопасность моделей.
Мета пока не прокомментировала это. Тем не менее, Ян ЛеКун, главный научный сотрудник Meta по искусственному интеллекту, похоже, отреагировал на заявление о том, что «ИИ с открытым исходным кодом должен быть запрещен», и раскрыл грандиозную ситуацию в предпринимательском сообществе искусственного интеллекта с открытым исходным кодом в Париже.
Некоторые пользователи сети заявили, что у открытого исходного кода есть плюсы и минусы.
Питер С. Парк, постдокторант в области безопасности ИИ в Массачусетском технологическом институте, сказал: «Широкое распространение передовых моделей ИИ будет особенно проблематичным в будущем, поскольку предотвратить злоупотребление моделями ИИ в принципе невозможно».
Однако Стелла Бидерман, исполнительный директор EleutherAI, некоммерческой исследовательской организации в области искусственного интеллекта, заявила: «Пока мало доказательств того, что модели с открытым исходным кодом причиняют какой-либо конкретный вред. Неясно, решит ли проблему простое использование модели в API». проблема. Контрольный вопрос».
Бидерман считает: «Основные элементы построения LLM раскрыты в бесплатных исследовательских статьях, и любой человек в мире может прочитать бумажную литературу, чтобы разработать свои собственные модели».
Она добавила: «Поощрение компаний хранить детали моделей в секрете может иметь серьезные негативные последствия для прозрачности исследований, осведомленности общественности и научных разработок в этой области, особенно для независимых исследователей».
Хотя все уже обсуждают влияние открытого исходного кода, до сих пор неясно, действительно ли подход Meta достаточно открыт и может ли он использовать преимущества открытого исходного кода.
Стефано Маффулли, исполнительный директор Open Source Initiative (OSI), сказал: «Концепция ИИ с открытым исходным кодом не была должным образом определена. Разные организации используют этот термин для обозначения разных вещей, указывая на разные уровни «чего-то общедоступного». что это смутит людей».
OSI работает над точным определением «ИИ с открытым исходным кодом» с прошлого года и, вероятно, выпустит ранний проект в ближайшие недели. Но несмотря ни на что, он считает, что открытый исходный код имеет решающее значение для развития ИИ. «Если ИИ не имеет открытого исходного кода, у нас не может быть надежного и ответственного ИИ», — сказал он.
В будущем различия между открытым исходным кодом и закрытым исходным кодом сохранятся, но открытый исходный код не остановить.
Оригинальная ссылка: