IOSG Ventures: LLM empodera la cadena de bloques para abrir una nueva era de experiencia en cadena

Escrito por: Yiping, IOSG Ventures

escribe delante

  • A medida que el modelo de lenguaje grande (LLM) se vuelve cada vez más próspero, vemos que muchos proyectos están integrando inteligencia artificial (IA) y blockchain. La combinación de LLM y blockchain está aumentando, y también vemos oportunidades para que la inteligencia artificial se reintegre con blockchain. Uno que vale la pena mencionar es el aprendizaje automático de conocimiento cero (ZKML).
  • La inteligencia artificial y la cadena de bloques son dos tecnologías transformadoras con características fundamentalmente diferentes. La inteligencia artificial requiere un poder de cómputo poderoso, que generalmente es proporcionado por centros de datos centralizados. Si bien la cadena de bloques proporciona informática descentralizada y protección de la privacidad, no funciona bien en tareas informáticas y de almacenamiento a gran escala. Todavía estamos explorando e investigando las mejores prácticas de inteligencia artificial e integración de blockchain, y presentaremos algunos casos de proyectos actuales que combinan "IA + blockchain" en el futuro.

IOSG Ventures: LLM potencia la cadena de bloques, abriendo una nueva era de experiencia en cadena

Fuente: IOSG Ventures

Este informe de investigación se divide en dos partes. Este artículo es la parte superior. Nos centraremos en la aplicación de LLM en el campo del cifrado y discutiremos la estrategia de aterrizaje de la aplicación.

¿Qué es LLM?

LLM (Large Language Model) es un modelo de lenguaje computarizado que consiste en una red neuronal artificial con una gran cantidad de parámetros (generalmente miles de millones). Estos modelos están entrenados en grandes cantidades de texto sin etiquetar.

Alrededor de 2018, el nacimiento de LLM revolucionó la investigación del procesamiento del lenguaje natural. A diferencia de los métodos anteriores que requieren entrenar un modelo supervisado específico para una tarea específica, LLM, como modelo general, se desempeña bien en una variedad de tareas. Sus capacidades y aplicaciones incluyen:

  • Comprensión y resumen de texto: LLM puede comprender y resumir grandes cantidades de lenguaje humano y datos de texto. Pueden extraer información clave y generar resúmenes concisos.
  • Generar contenido nuevo: LLM tiene la capacidad de generar contenido basado en texto. Al alimentarlo al modelo, puede responder preguntas, texto recién generado, resúmenes o análisis de sentimientos.
  • Traducción: LLM se puede utilizar para traducir entre diferentes idiomas. Utilizan algoritmos de aprendizaje profundo y redes neuronales para comprender el contexto y las relaciones entre las palabras.
  • Predecir y generar texto: LLM puede predecir y generar texto en función del contexto, similar al contenido generado por humanos, incluidas canciones, poemas, historias, materiales de marketing, etc.
  • Aplicación en varios campos: los modelos de lenguaje grande tienen una amplia aplicabilidad en tareas de procesamiento de lenguaje natural. Se utilizan en inteligencia artificial conversacional, chatbots, atención médica, desarrollo de software, motores de búsqueda, tutoría, herramientas de escritura y muchos otros.

Las fortalezas de LLM incluyen su capacidad para comprender grandes cantidades de datos, su capacidad para realizar múltiples tareas relacionadas con el idioma y su potencial para adaptar los resultados a las necesidades del usuario.

Aplicaciones comunes de modelos de lenguaje a gran escala

Debido a su excelente capacidad de comprensión del lenguaje natural, LLM tiene un potencial considerable y los desarrolladores se centran principalmente en los siguientes dos aspectos:

  • Proporcione a los usuarios respuestas precisas y actualizadas basadas en una gran cantidad de datos contextuales y contenido
  • Complete tareas específicas asignadas por los usuarios mediante el uso de diferentes agentes y herramientas

Son estos dos aspectos los que hacen que la aplicación LLM de chatear con XX explote como hongos después de la lluvia. Por ejemplo, chatee con archivos PDF, chatee con documentos y chatee con trabajos académicos.

Posteriormente, se hicieron intentos de fusionar LLM con varias fuentes de datos. Los desarrolladores han integrado con éxito plataformas como Github, Notion y algún software para tomar notas con LLM.

Para superar las limitaciones inherentes de LLM, se incorporaron diferentes herramientas al sistema. La primera herramienta de este tipo fue un motor de búsqueda, que proporcionó a los LLM acceso a conocimientos actualizados. El progreso adicional integrará herramientas como WolframAlpha, Google Suites y Etherscan con modelos de lenguaje grandes.

Arquitectura de aplicaciones LLM

El siguiente diagrama describe el flujo de la aplicación LLM al responder a las consultas de los usuarios: Primero, las fuentes de datos relevantes se convierten en vectores incrustados y se almacenan en una base de datos de vectores. El adaptador LLM utiliza consultas de usuarios y búsquedas de similitud para encontrar contexto relevante de la base de datos de vectores. El contexto relevante se introduce y se envía a LLM. LLM ejecutará estos y utilizará herramientas para generar respuestas. A veces, los LLM se ajustan a conjuntos de datos específicos para mejorar la precisión y reducir los costos.

IOSG Ventures: LLM potencia la cadena de bloques, abriendo una nueva era de experiencia en cadena

El flujo de trabajo de la aplicación LLM se puede dividir aproximadamente en tres fases principales:

  • Preparación e incorporación de datos: esta fase implica mantener información confidencial, como memorandos de proyectos, para acceso futuro. Por lo general, los archivos se segmentan y procesan a través de modelos incorporados, guardados en un tipo especial de base de datos llamada base de datos vectorial.
  • Formulación y extracción: cuando un usuario envía una solicitud de búsqueda (en este caso, para buscar información del artículo), el software crea una serie, que se alimenta al modelo de lenguaje. El último generalmente contiene una plantilla de solicitud codificada por el desarrollador de software, un ejemplo de salida válida como un ejemplo de pocas tomas y cualquier dato requerido obtenido de una API externa y archivos relacionados extraídos de la base de datos vectorial.
  • Ejecución e inferencia: una vez completados, aliméntelos a modelos de lenguaje preexistentes para la inferencia, que pueden incluir API de modelos patentados, código abierto o modelos ajustados individualmente. En esta etapa, algunos desarrolladores también pueden incorporar sistemas operativos como registro, almacenamiento en caché y validación en el sistema.

Llevando LLM al espacio criptográfico

Aunque existen algunas aplicaciones similares en el campo del cifrado (Web3) y Web2, desarrollar buenas aplicaciones LLM en el campo del cifrado requiere un cuidado especial.

El ecosistema criptográfico es único, con su propia cultura, datos y convergencia. Los LLM ajustados en estos conjuntos de datos restringidos criptográficamente pueden proporcionar resultados superiores a un costo relativamente bajo. Si bien los datos están disponibles en abundancia, existe una clara falta de conjuntos de datos abiertos en plataformas como HuggingFace. Actualmente, solo hay un conjunto de datos relacionado con los contratos inteligentes, que contiene 113 000 contratos inteligentes.

Los desarrolladores también enfrentan el desafío de integrar diferentes herramientas en LLM. Estas herramientas difieren de las utilizadas en Web2 al brindar a los LLM la capacidad de acceder a datos relacionados con transacciones, interactuar con aplicaciones descentralizadas (Dapps) y ejecutar transacciones. Hasta ahora, no hemos encontrado ninguna integración de Dapp en Langchain.

Si bien es posible que se requiera una inversión adicional para desarrollar aplicaciones LLM criptográficas de alta calidad, LLM es una opción natural para el espacio criptográfico. Este dominio proporciona datos ricos, limpios y estructurados. Esto, combinado con el hecho de que el código de Solidity suele ser conciso, facilita que LLM genere código funcional.

En la Parte 2, discutiremos 8 direcciones potenciales en las que LLM puede ayudar al espacio blockchain, como:

  • Integre las capacidades integradas de AI/LLM en la cadena de bloques
  • Analizar registros de transacciones usando LLM
  • Identificar bots potenciales usando LLM
  • Escribir código usando LLM
  • Leer código con LLM
  • Use LLM para ayudar a la comunidad
  • Use LLM para rastrear el mercado
  • Analizar proyectos usando LLM

¡Manténganse al tanto!

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)