IOSG Ventures: LLM розширює можливості блокчейну, щоб відкрити нову еру роботи в мережі

Автор: Yiping, IOSG Ventures

пишіть спереду

  • Оскільки велика мовна модель (LLM) стає все більш процвітаючою, ми бачимо, що багато проектів інтегрують штучний інтелект (AI) і блокчейн. Поєднання LLM і блокчейну зростає, і ми також бачимо можливості для реінтеграції штучного інтелекту з блокчейном. Варто згадати про машинне навчання без знань (ZKML).
  • Штучний інтелект і блокчейн — дві трансформаційні технології з принципово різними характеристиками. Штучний інтелект вимагає потужної обчислювальної потужності, яка зазвичай забезпечується централізованими центрами обробки даних. Хоча блокчейн забезпечує децентралізоване обчислення та захист конфіденційності, він погано працює у великомасштабних обчислювальних завданнях і завданнях зберігання. Ми все ще вивчаємо та досліджуємо найкращі практики штучного інтелекту та інтеграції блокчейну, і в майбутньому ми представимо деякі поточні проекти, що поєднують «ШІ + блокчейн».

IOSG Ventures: LLM розширює можливості блокчейну, відкриваючи нову еру роботи в мережі

Джерело: IOSG Ventures

Цей звіт про дослідження складається з двох частин. Ця стаття є верхньою частиною. Ми зосередимося на застосуванні LLM у сфері шифрування та обговоримо стратегію посадки програми.

Що таке LLM?

LLM (Large Language Model) — комп’ютеризована мовна модель, що складається зі штучної нейронної мережі з великою кількістю параметрів (зазвичай мільярди). Ці моделі навчаються на великих обсягах тексту без міток.

Приблизно у 2018 році народження LLM зробило революцію в дослідженнях обробки природної мови. На відміну від попередніх методів, які вимагають навчання конкретної контрольованої моделі для конкретного завдання, LLM, як загальна модель, добре працює з різними завданнями. Його можливості та застосування включають:

  • Розуміння та узагальнення тексту: LLM може розуміти та узагальнювати велику кількість людської мови та текстових даних. Вони можуть отримувати ключову інформацію та створювати стислі підсумки.
  • Створення нового вмісту: LLM має можливість створювати текстовий вміст. Подаючи його в модель, він може відповідати на запитання, щойно створений текст, підсумовувати чи аналізувати почуття.
  • Переклад: LLM можна використовувати для перекладу між різними мовами. Вони використовують алгоритми глибокого навчання та нейронні мережі, щоб зрозуміти контекст і зв’язки між словами.
  • Передбачення та генерування тексту: LLM може передбачати та генерувати текст на основі контексту, подібного до створеного людьми вмісту, включаючи пісні, вірші, оповідання, маркетингові матеріали тощо.
  • Застосування в різних областях: великі мовні моделі мають широке застосування в задачах обробки природної мови. Вони використовуються в розмовному штучному інтелекті, чат-ботах, охороні здоров’я, розробці програмного забезпечення, пошукових системах, навчанні, інструментах для написання та багатьох інших.

Сильні сторони LLM включають його здатність розуміти великі обсяги даних, його здатність виконувати багатомовні завдання та його потенціал адаптувати результати до потреб користувачів.

Поширені програми великомасштабної мовної моделі

Завдяки видатній здатності розуміння природної мови, LLM має значний потенціал, і розробники в основному зосереджуються на таких двох аспектах:

  • Надавати користувачам точні та актуальні відповіді на основі великої кількості контекстних даних і вмісту
  • Виконуйте конкретні завдання, призначені користувачами, використовуючи різні агенти та інструменти

Саме ці два аспекти змушують програму LLM чату з XX вибухати, як гриби після дощу. Наприклад, чат з PDF-файлами, чат з документами та чат з академічними роботами.

Згодом були зроблені спроби злити LLM з різними джерелами даних. Розробники успішно інтегрували такі платформи, як Github, Notion і деякі програми для створення нотаток, із LLM.

Щоб подолати обмеження, властиві LLM, у систему було включено різні інструменти. Першим таким інструментом була пошукова система, яка надала магістрам права доступ до найновіших знань. Подальший прогрес дозволить інтегрувати такі інструменти, як WolframAlpha, Google Suites і Etherscan, із великими мовними моделями.

Архітектура додатків LLM

На наведеній нижче схемі показано послідовність роботи програми LLM під час відповіді на запити користувача: спочатку відповідні джерела даних перетворюються на вбудовані вектори та зберігаються у векторній базі даних. Адаптер LLM використовує запити користувача та пошук схожості, щоб знайти відповідний контекст із векторної бази даних. Відповідний контекст вставляється та надсилається до LLM. LLM виконає їх і використає інструменти для створення відповідей. Іноді LLM налаштовуються на певні набори даних, щоб підвищити точність і зменшити вартість.

IOSG Ventures: LLM розширює можливості блокчейну, відкриваючи нову еру роботи в мережі

Робочий процес програми LLM можна умовно розділити на три основні етапи:

  • Підготовка та вбудовування даних: цей етап передбачає збереження конфіденційної інформації, такої як нотатки про проект, для майбутнього доступу. Як правило, файли сегментуються та обробляються за допомогою моделей вбудовування, які зберігаються в спеціальному типі бази даних, яка називається векторною базою даних.
  • Формулювання та вилучення: коли користувач надсилає пошуковий запит (у цьому випадку для пошуку інформації про елемент), програмне забезпечення створює серію, яка вводиться в мовну модель. Останній зазвичай містить шаблон підказки, жорстко закодований розробником програмного забезпечення, приклад дійсного результату як невеликий приклад, а також будь-які необхідні дані, отримані із зовнішнього API та відповідних файлів, витягнутих із векторної бази даних.
  • Виконання та висновок: після завершення передайте їх у вже існуючі мовні моделі для висновку, які можуть включати власні API моделі, відкритий код або індивідуально налаштовані моделі. На цьому етапі деякі розробники також можуть включити в систему такі операційні системи, як журналювання, кешування та перевірка.

Введення LLM у криптопростір

Незважаючи на те, що є кілька подібних програм у сфері шифрування (Web3) і Web2, розробка хороших програм LLM у сфері шифрування вимагає особливої обережності.

Криптоекосистема є унікальною, з власною культурою, даними та конвергенцією. LLM, налаштовані на ці криптографічно обмежені набори даних, можуть забезпечити чудові результати за відносно низькою ціною. Незважаючи на те, що дані доступні у великій кількості, відкритих наборів даних на таких платформах, як HuggingFace, явно не вистачає. Наразі існує лише один набір даних, пов’язаний зі смарт-контрактами, який містить 113 000 смарт-контрактів.

Розробники також стикаються з проблемою інтеграції різних інструментів у LLM. Ці інструменти відрізняються від тих, що використовуються в Web2, тим, що надають LLM-ам можливість отримувати доступ до даних, пов’язаних з транзакціями, взаємодіяти з децентралізованими програмами (Dapps) і виконувати транзакції. Наразі ми не знайшли жодної інтеграції Dapp у Langchain.

Хоча для розробки високоякісних криптографічних програм LLM можуть знадобитися додаткові інвестиції, LLM природно підходить для криптографічного простору. Цей домен надає багаті, чисті, структуровані дані. Це, у поєднанні з тим фактом, що код Solidity часто є лаконічним, полегшує для LLM створення функціонального коду.

У частині 2 ми обговоримо 8 потенційних напрямків, де LLM може допомогти простору блокчейну, наприклад:

  • Інтегруйте вбудовані можливості AI/LLM у блокчейн
  • Аналізуйте записи транзакцій за допомогою LLM
  • Визначте потенційних ботів за допомогою LLM
  • Напишіть код за допомогою LLM
  • Читайте код за допомогою LLM
  • Використовуйте LLM, щоб допомогти спільноті
  • Використовуйте LLM для відстеження ринку
  • Аналізуйте проекти за допомогою LLM

Залишайтеся на зв'язку!

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити