Поскольку модель большого языка (LLM) становится все более и более процветающей, мы видим, что многие проекты интегрируют искусственный интеллект (ИИ) и блокчейн. Сочетание LLM и блокчейна увеличивается, и мы также видим возможности для реинтеграции искусственного интеллекта с блокчейном. Стоит упомянуть машинное обучение с нулевым разглашением (ZKML).
Искусственный интеллект и блокчейн — две преобразующие технологии с принципиально разными характеристиками. Искусственный интеллект требует мощной вычислительной мощности, которую обычно предоставляют централизованные центры обработки данных. Хотя блокчейн обеспечивает децентрализованные вычисления и защиту конфиденциальности, он плохо справляется с крупномасштабными задачами вычислений и хранения. Мы все еще изучаем и изучаем лучшие практики интеграции искусственного интеллекта и блокчейна, и в будущем мы представим некоторые текущие проекты, сочетающие «ИИ + блокчейн».
Источник: IOSG Ventures.
Этот исследовательский отчет разделен на две части.Эта статья является верхней частью.Мы сосредоточимся на применении LLM в области шифрования и обсудим стратегию посадки приложений.
Что такое LLM?
LLM (Large Language Model) — компьютеризированная языковая модель, состоящая из искусственной нейронной сети с большим количеством параметров (обычно миллиарды). Эти модели обучаются на большом количестве неразмеченного текста.
Примерно в 2018 году рождение LLM произвело революцию в исследованиях обработки естественного языка. В отличие от предыдущих методов, требующих обучения конкретной модели с учителем для конкретной задачи, LLM, как общая модель, хорошо справляется с множеством задач. Его возможности и приложения включают в себя:
Понимание и обобщение текста: LLM может понимать и обобщать большие объемы человеческого языка и текстовых данных. Они могут извлекать ключевую информацию и генерировать краткие сводки.
Генерация нового контента: LLM может генерировать текстовый контент. Подавая его в модель, он может отвечать на вопросы, вновь сгенерированный текст, резюмировать или анализировать настроения.
Перевод: LLM можно использовать для перевода между разными языками. Они используют алгоритмы глубокого обучения и нейронные сети, чтобы понять контекст и отношения между словами.
Предсказывать и генерировать текст: LLM может предсказывать и генерировать текст на основе контекста, аналогичный человеческому контенту, включая песни, стихи, рассказы, маркетинговые материалы и т. д.
Применение в различных областях: большие языковые модели имеют широкое применение в задачах обработки естественного языка. Они используются в диалоговом искусственном интеллекте, чат-ботах, здравоохранении, разработке программного обеспечения, поисковых системах, обучении, инструментах для письма и многих других.
Сильные стороны LLM включают его способность понимать большие объемы данных, его способность выполнять несколько задач, связанных с языком, и его потенциал адаптации результатов к потребностям пользователя.
Общие крупномасштабные приложения языковой модели
Благодаря своей выдающейся способности понимать естественный язык, LLM обладает значительным потенциалом, и разработчики в основном сосредотачиваются на следующих двух аспектах:
Предоставлять пользователям точные и актуальные ответы на основе большого количества контекстуальных данных и контента.
Выполняйте определенные задачи, поставленные пользователями, используя различные агенты и инструменты.
Именно эти два аспекта заставляют LLM-приложение для общения с XX взрываться, как грибы после дождя. Например, общайтесь в чате с PDF-файлами, в чате с документами и в чате с академическими работами.
Впоследствии были предприняты попытки объединить LLM с различными источниками данных. Разработчики успешно интегрировали такие платформы, как Github, Notion и некоторые программы для создания заметок, с LLM.
Чтобы преодолеть присущие LLM ограничения, в систему были включены различные инструменты. Первым таким инструментом была поисковая система, которая предоставляла LLM доступ к новейшим знаниям. Дальнейший прогресс будет заключаться в интеграции таких инструментов, как WolframAlpha, Google Suites и Etherscan, с большими языковыми моделями.
Архитектура приложений LLM
На приведенной ниже диаграмме показан процесс выполнения приложения LLM при ответе на запросы пользователей. Сначала соответствующие источники данных преобразуются во встраивающие векторы и сохраняются в базе данных векторов. Адаптер LLM использует пользовательские запросы и поиск сходства для поиска соответствующего контекста в векторной базе данных. Соответствующий контекст помещается и отправляется в LLM. LLM выполнит их и будет использовать инструменты для получения ответов. Иногда LLM настраиваются на конкретные наборы данных для повышения точности и снижения затрат.
Рабочий процесс приложения LLM можно условно разделить на три основных этапа:
Подготовка и встраивание данных: этот этап включает в себя сохранение конфиденциальной информации, такой как заметки по проекту, для будущего доступа. Как правило, файлы сегментируются и обрабатываются с помощью встроенных моделей, которые хранятся в базе данных особого типа, называемой векторной базой данных.
Формулировка и извлечение: когда пользователь отправляет поисковый запрос (в данном случае для поиска информации об элементе), программное обеспечение создает серию, которая передается в языковую модель. Последний обычно содержит шаблон подсказки, жестко закодированный разработчиком программного обеспечения, пример допустимого вывода в качестве примера с несколькими выстрелами и любые необходимые данные, полученные из внешнего API, и связанные файлы, извлеченные из векторной базы данных.
Выполнение и логический вывод: после завершения передайте их в уже существующие языковые модели для логического вывода, которые могут включать проприетарные API-интерфейсы моделей, модели с открытым исходным кодом или индивидуально настроенные модели. На этом этапе некоторые разработчики могут также включать в систему такие операционные системы, как ведение журнала, кэширование и проверка.
Внедрение LLM в криптопространство
Хотя в области шифрования (Web3) и Web2 есть несколько похожих приложений, разработка хороших LLM-приложений в области шифрования требует особого внимания.
Криптоэкосистема уникальна, со своей собственной культурой, данными и конвергенцией. LLM, точно настроенные на эти криптографически ограниченные наборы данных, могут обеспечить превосходные результаты при относительно низких затратах. Хотя данные доступны в изобилии, на таких платформах, как HuggingFace, явно не хватает открытых наборов данных. В настоящее время существует только один набор данных, связанный со смарт-контрактами, который содержит 113 000 смарт-контрактов.
Разработчики также сталкиваются с проблемой интеграции различных инструментов в LLM. Эти инструменты отличаются от используемых в Web2 тем, что дают LLM возможность доступа к данным, связанным с транзакциями, взаимодействия с децентрализованными приложениями (Dapps) и выполнения транзакций. До сих пор мы не нашли интеграции Dapp в Langchain.
Хотя для разработки высококачественных криптографических приложений LLM могут потребоваться дополнительные инвестиции, LLM идеально подходит для криптографического пространства. Этот домен предоставляет подробные, чистые и структурированные данные. Это, в сочетании с тем фактом, что код Solidity часто лаконичен, упрощает для LLM создание функционального кода.
Во второй части мы обсудим 8 потенциальных направлений, в которых LLM может помочь пространству блокчейнов, например:
Интеграция встроенных возможностей AI/LLM в блокчейн
Анализ записей транзакций с помощью LLM
Выявление потенциальных ботов с помощью LLM
Пишите код с помощью LLM
Чтение кода с LLM
Используйте LLM, чтобы помочь сообществу
Используйте LLM для отслеживания рынка
Анализ проектов с использованием LLM
Следите за обновлениями!
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
IOSG Ventures: LLM позволяет блокчейну открыть новую эру сетевого опыта
Автор: Ипин, IOSG Ventures
напишите впереди
Источник: IOSG Ventures.
Этот исследовательский отчет разделен на две части.Эта статья является верхней частью.Мы сосредоточимся на применении LLM в области шифрования и обсудим стратегию посадки приложений.
Что такое LLM?
LLM (Large Language Model) — компьютеризированная языковая модель, состоящая из искусственной нейронной сети с большим количеством параметров (обычно миллиарды). Эти модели обучаются на большом количестве неразмеченного текста.
Примерно в 2018 году рождение LLM произвело революцию в исследованиях обработки естественного языка. В отличие от предыдущих методов, требующих обучения конкретной модели с учителем для конкретной задачи, LLM, как общая модель, хорошо справляется с множеством задач. Его возможности и приложения включают в себя:
Сильные стороны LLM включают его способность понимать большие объемы данных, его способность выполнять несколько задач, связанных с языком, и его потенциал адаптации результатов к потребностям пользователя.
Общие крупномасштабные приложения языковой модели
Благодаря своей выдающейся способности понимать естественный язык, LLM обладает значительным потенциалом, и разработчики в основном сосредотачиваются на следующих двух аспектах:
Именно эти два аспекта заставляют LLM-приложение для общения с XX взрываться, как грибы после дождя. Например, общайтесь в чате с PDF-файлами, в чате с документами и в чате с академическими работами.
Впоследствии были предприняты попытки объединить LLM с различными источниками данных. Разработчики успешно интегрировали такие платформы, как Github, Notion и некоторые программы для создания заметок, с LLM.
Чтобы преодолеть присущие LLM ограничения, в систему были включены различные инструменты. Первым таким инструментом была поисковая система, которая предоставляла LLM доступ к новейшим знаниям. Дальнейший прогресс будет заключаться в интеграции таких инструментов, как WolframAlpha, Google Suites и Etherscan, с большими языковыми моделями.
Архитектура приложений LLM
На приведенной ниже диаграмме показан процесс выполнения приложения LLM при ответе на запросы пользователей. Сначала соответствующие источники данных преобразуются во встраивающие векторы и сохраняются в базе данных векторов. Адаптер LLM использует пользовательские запросы и поиск сходства для поиска соответствующего контекста в векторной базе данных. Соответствующий контекст помещается и отправляется в LLM. LLM выполнит их и будет использовать инструменты для получения ответов. Иногда LLM настраиваются на конкретные наборы данных для повышения точности и снижения затрат.
Рабочий процесс приложения LLM можно условно разделить на три основных этапа:
Внедрение LLM в криптопространство
Хотя в области шифрования (Web3) и Web2 есть несколько похожих приложений, разработка хороших LLM-приложений в области шифрования требует особого внимания.
Криптоэкосистема уникальна, со своей собственной культурой, данными и конвергенцией. LLM, точно настроенные на эти криптографически ограниченные наборы данных, могут обеспечить превосходные результаты при относительно низких затратах. Хотя данные доступны в изобилии, на таких платформах, как HuggingFace, явно не хватает открытых наборов данных. В настоящее время существует только один набор данных, связанный со смарт-контрактами, который содержит 113 000 смарт-контрактов.
Разработчики также сталкиваются с проблемой интеграции различных инструментов в LLM. Эти инструменты отличаются от используемых в Web2 тем, что дают LLM возможность доступа к данным, связанным с транзакциями, взаимодействия с децентрализованными приложениями (Dapps) и выполнения транзакций. До сих пор мы не нашли интеграции Dapp в Langchain.
Хотя для разработки высококачественных криптографических приложений LLM могут потребоваться дополнительные инвестиции, LLM идеально подходит для криптографического пространства. Этот домен предоставляет подробные, чистые и структурированные данные. Это, в сочетании с тем фактом, что код Solidity часто лаконичен, упрощает для LLM создание функционального кода.
Во второй части мы обсудим 8 потенциальных направлений, в которых LLM может помочь пространству блокчейнов, например:
Следите за обновлениями!