À medida que o Ethereum continua a crescer, a disponibilidade de dados na cadeia tornou-se um tópico cada vez mais comum.
Hoje, os desenvolvedores do Ethereum estão trabalhando em onde e como os dados devem ser armazenados na rede blockchain, a fim de resolver o chamado trilema blockchain, o compromisso entre segurança, escalabilidade e descentralização. Nas criptomoedas, a disponibilidade de dados refere-se ao conceito de que todos os participantes da rede podem acessar e recuperar dados armazenados na rede. Na primeira camada do Ethereum, os nós da rede baixam todos os dados de cada bloco, dificultando a execução de transações inválidas.
Embora isso garanta segurança, o processo pode ser relativamente ineficiente – exigir que os nós da rede verifiquem e armazenem todos os dados em um bloco reduz bastante o rendimento e dificulta a escalabilidade do blockchain. A solução de escalonamento da Camada 2 da Ethereum visa resolver este problema.
Uma solução popular atualmente é o Optimistic Rollup, como Arbitrum e Optimism. Os rollups otimistas são de natureza "otimista", pois presumem que as transações são válidas, a menos que se prove o contrário.
Anurag Arjun, cofundador do blockchain modular Avail, disse à Blockworks que a maioria dos Rollups hoje tem apenas um classificador, o que significa que há risco de centralização.
Atualmente, isso não é um grande problema, já que as soluções rollup precisam colocar dados brutos de transações no Ethereum usando algo chamado calldata – como Arjun apontou, esta é a forma mais barata de armazenamento no Ethereum atualmente.
Neel Somani, fundador da solução de escalonamento de blockchain Eclipse, disse que uma vez que os dados da chamada são comprometidos com a rede principal Ethereum, qualquer um pode questionar sua precisão por um determinado período de tempo.
Se ninguém questionar a validade do rollup, ele será aceito no Ethereum assim que o tempo acabar.
O problema, observou Somani, é que se alguém não tiver os dados, como poderá provar que a negociação foi executada de forma imprecisa.
“Se eu não contar o que executei, você não poderá provar que está errado, então precisa saber exatamente o que executei para consertar isso”, disse Somani. “Portanto, todos os blockchains devem provar a disponibilidade de dados de alguma forma ou formato.”
Amostragem de disponibilidade de dados
Uma vez que todas as blockchains devem provar a disponibilidade de dados, pode ser ineficiente descarregar blocos completos na rede, o que por sua vez levanta a questão da disponibilidade inicial de dados. “Portanto, como alguém que não deseja baixar o bloco completo, ainda quero ter certeza de que as informações desse bloco não foram retidas”, disse Somani. A solução é usar amostragem de disponibilidade de dados para ganhar confiança de que o bloco existe.
Somani explicou que a amostragem por disponibilidade de dados envolve a amostragem de uma parte aleatória de um bloco para obter uma confiança arbitrariamente alta de que o bloco existe. Esta técnica utiliza um polinômio (uma expressão matemática contendo variáveis, coeficientes e expoentes) para modelar a relação entre variáveis em um bloco.
Um equívoco comum sobre a disponibilidade de dados de amostragem é que, se você amostrar metade dos blocos, poderá obter apenas 50% de confiança de que as informações nesse bloco são precisas, disse Somani. Este não é o caso, explicou ele, porque, tal como acontece com a amostragem por disponibilidade de dados, os utilizadores devem garantir que têm pontos suficientes para recuperar o polinómio original. Projetos como Celestia e Avail estão atualmente construindo soluções de amostragem de disponibilidade de dados.
“Acreditamos sinceramente que cada camada base se tornará uma camada de disponibilidade de dados”, disse Arjun à Blockworks. “A principal direção que estamos enfrentando é querer escalar a disponibilidade de dados na camada base e executar e agregar na segunda camada”.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Por que a amostragem de disponibilidade de dados é importante para o dimensionamento de blockchain
Autor: Bessie Liu, Compilador Blockworks: Shan Ouba, Jinse Finance
À medida que o Ethereum continua a crescer, a disponibilidade de dados na cadeia tornou-se um tópico cada vez mais comum.
Hoje, os desenvolvedores do Ethereum estão trabalhando em onde e como os dados devem ser armazenados na rede blockchain, a fim de resolver o chamado trilema blockchain, o compromisso entre segurança, escalabilidade e descentralização. Nas criptomoedas, a disponibilidade de dados refere-se ao conceito de que todos os participantes da rede podem acessar e recuperar dados armazenados na rede. Na primeira camada do Ethereum, os nós da rede baixam todos os dados de cada bloco, dificultando a execução de transações inválidas.
Embora isso garanta segurança, o processo pode ser relativamente ineficiente – exigir que os nós da rede verifiquem e armazenem todos os dados em um bloco reduz bastante o rendimento e dificulta a escalabilidade do blockchain. A solução de escalonamento da Camada 2 da Ethereum visa resolver este problema.
Uma solução popular atualmente é o Optimistic Rollup, como Arbitrum e Optimism. Os rollups otimistas são de natureza "otimista", pois presumem que as transações são válidas, a menos que se prove o contrário.
Anurag Arjun, cofundador do blockchain modular Avail, disse à Blockworks que a maioria dos Rollups hoje tem apenas um classificador, o que significa que há risco de centralização.
Atualmente, isso não é um grande problema, já que as soluções rollup precisam colocar dados brutos de transações no Ethereum usando algo chamado calldata – como Arjun apontou, esta é a forma mais barata de armazenamento no Ethereum atualmente.
Neel Somani, fundador da solução de escalonamento de blockchain Eclipse, disse que uma vez que os dados da chamada são comprometidos com a rede principal Ethereum, qualquer um pode questionar sua precisão por um determinado período de tempo.
Se ninguém questionar a validade do rollup, ele será aceito no Ethereum assim que o tempo acabar.
O problema, observou Somani, é que se alguém não tiver os dados, como poderá provar que a negociação foi executada de forma imprecisa.
“Se eu não contar o que executei, você não poderá provar que está errado, então precisa saber exatamente o que executei para consertar isso”, disse Somani. “Portanto, todos os blockchains devem provar a disponibilidade de dados de alguma forma ou formato.”
Amostragem de disponibilidade de dados
Uma vez que todas as blockchains devem provar a disponibilidade de dados, pode ser ineficiente descarregar blocos completos na rede, o que por sua vez levanta a questão da disponibilidade inicial de dados. “Portanto, como alguém que não deseja baixar o bloco completo, ainda quero ter certeza de que as informações desse bloco não foram retidas”, disse Somani. A solução é usar amostragem de disponibilidade de dados para ganhar confiança de que o bloco existe.
Somani explicou que a amostragem por disponibilidade de dados envolve a amostragem de uma parte aleatória de um bloco para obter uma confiança arbitrariamente alta de que o bloco existe. Esta técnica utiliza um polinômio (uma expressão matemática contendo variáveis, coeficientes e expoentes) para modelar a relação entre variáveis em um bloco.
Um equívoco comum sobre a disponibilidade de dados de amostragem é que, se você amostrar metade dos blocos, poderá obter apenas 50% de confiança de que as informações nesse bloco são precisas, disse Somani. Este não é o caso, explicou ele, porque, tal como acontece com a amostragem por disponibilidade de dados, os utilizadores devem garantir que têm pontos suficientes para recuperar o polinómio original. Projetos como Celestia e Avail estão atualmente construindo soluções de amostragem de disponibilidade de dados.
“Acreditamos sinceramente que cada camada base se tornará uma camada de disponibilidade de dados”, disse Arjun à Blockworks. “A principal direção que estamos enfrentando é querer escalar a disponibilidade de dados na camada base e executar e agregar na segunda camada”.