70 мільярдів параметрів! IBM надасть ChatGPT-подібну модель з відкритим кодом Llama 2

Джерело: AIGC Open Community

Джерело зображення: створено Unbounded AI

10 серпня IBM оголосила на своєму офіційному веб-сайті, що надасть Llama 2, модель великої мови з відкритим кодом із 70 мільярдами параметрів, у watsonx.ai та платформах даних. (Безкоштовна пробна адреса:

Llama 2 — це велика мовна модель, схожа на ChatGPT, яку минулого місяця відкрив технологічний і соціальний гігант Meta та дозволила комерціалізувати. Llama 2 побудована на базі Llama, має три параметри: 7 мільярдів, 13 мільярдів і 70 мільярдів, які можна використовувати для розробки різноманітних генеративних продуктів ШІ. Наразі це одна з найпотужніших моделей великої мови з відкритим кодом.

watsonx.ai належить до watsonx, яка є великою мовною моделлю IBM і генеративною платформою розробки штучного інтелекту, що забезпечує єдину платформу розробки для попереднього навчання, точного налаштування, перевірки даних, розгортання та розробки базової моделі. Нещодавно NASA співпрацювало з IBM для навчання та точного налаштування великої геопросторової моделі Prithvi на платформі watsonx.ai.

Завдяки зростанню популярності ChatGPT, великі моделі штучного інтелекту з відкритим кодом з’явилися та швидко розвивалися, і велика кількість продуктів щодня завантажується на Hugging Face, GitHub та інші платформи з відкритим кодом.

Але для МСП та окремих розробників нелегко використовувати та ефективно розвивати ці моделі. Щоб допомогти розробникам спростити середовище розробки та підвищити ефективність розробки, IBM запустила watsonx.ai.

watsonx.ai в основному складається з чотирьох основних блоків: базової моделі, лабораторії підказок, науки про дані та MLOp і Tuning Studio (незабаром).

Базова модель: ця функція спрощує вибір і завантаження моделей. Користувачі можуть отримати прямий доступ до популярних великих моделей штучного інтелекту з відкритим кодом на платформі Hugging Face на watsonx.ai, наприклад, Llama 2, наданої цього разу, а також різні варіанти використання та розміри IBM самопідготовка, модель архітектури.

Лабораторія підказок: допомагає розробникам навчати та точно налаштовувати згенеровані підказки моделі. Ряд тонких налаштувань обробки природної мови, як-от відповіді на текстові запитання, генерація вмісту, резюмування, класифікація та вилучення тексту, можна виконати лише за допомогою кількох прикладів або навіть без даних.

Data Science і MLOp: підключаючись до різних API, SDK і бібліотек моделей, він може автоматизувати весь життєвий цикл моделі AI від розробки до розгортання, значно спрощуючи конфігурацію розробки та підключення до ресурсів.

Tuning Studio: це функція швидкого тонкого налаштування, яка регулює точність і продуктивність базової моделі за допомогою даних із мітками. Цю функцію незабаром буде розгорнуто в наступному випуску watsonx.ai.

IBM заявила, що для подальшої допомоги підприємствам у прискоренні застосування генеративного штучного інтелекту та великих моделей було створено «Центр передового досвіду штучного інтелекту» з понад 1000 професійних експертів із генеративного штучного інтелекту, які можуть забезпечити комплексну розробку, наприклад, точну модель. налаштування, розгортання та обслуговування. І IBM ставитиме конфіденційність користувачів і безпеку даних на перше місце, а також надасть безпечні та надійні послуги ШІ.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити