Как сообщает IT House 20 октября, Стэнфордский университет недавно выпустил «индикатор прозрачности» базовой модели ИИ, из которых самым высоким показателем является Meta Lama 2, но релевантная «прозрачность» составляет всего 54%, поэтому исследователи считают, что почти всем моделям ИИ на рынке «не хватает прозрачности».
Сообщается, что исследование проводилось под руководством Риши Боммасани, главы Исследовательского центра базовых моделей HAI (CRFM), и изучило 10 самых популярных базовых моделей за рубежом. Риши Боммасани считает, что «отсутствие прозрачности» всегда было проблемой, с которой сталкивалась индустрия ИИ, и с точки зрения конкретных «индикаторов прозрачности» модели, IT House обнаружила, что соответствующий контент оценки в основном вращается вокруг «авторских прав на набор данных для обучения модели», «вычислительных ресурсов, используемых для обучения модели», «достоверности контента, генерируемого моделью», «способности самой модели», «риска того, что модель будет спровоцирована генерировать вредоносный контент», «конфиденциальности пользователей, использующих модель» и т. д., всего 100 пунктов.
Окончательный опрос показал, что прозрачность Lama 2 от Meta составила 54%, в то время как прозрачность GPT-4 от OpenAI составила всего 48%, а PaLM 2 от Google занял пятое место с 40%.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Стэнфордский университет выпустил модель на основе искусственного интеллекта «индикатор прозрачности», Llama 2 лидирует, но «проваливается» с 54%
Как сообщает IT House 20 октября, Стэнфордский университет недавно выпустил «индикатор прозрачности» базовой модели ИИ, из которых самым высоким показателем является Meta Lama 2, но релевантная «прозрачность» составляет всего 54%, поэтому исследователи считают, что почти всем моделям ИИ на рынке «не хватает прозрачности».
Сообщается, что исследование проводилось под руководством Риши Боммасани, главы Исследовательского центра базовых моделей HAI (CRFM), и изучило 10 самых популярных базовых моделей за рубежом. Риши Боммасани считает, что «отсутствие прозрачности» всегда было проблемой, с которой сталкивалась индустрия ИИ, и с точки зрения конкретных «индикаторов прозрачности» модели, IT House обнаружила, что соответствующий контент оценки в основном вращается вокруг «авторских прав на набор данных для обучения модели», «вычислительных ресурсов, используемых для обучения модели», «достоверности контента, генерируемого моделью», «способности самой модели», «риска того, что модель будет спровоцирована генерировать вредоносный контент», «конфиденциальности пользователей, использующих модель» и т. д., всего 100 пунктов.
Окончательный опрос показал, что прозрачность Lama 2 от Meta составила 54%, в то время как прозрачность GPT-4 от OpenAI составила всего 48%, а PaLM 2 от Google занял пятое место с 40%.