NGC Ventures: Ainda vale a pena começar um negócio na área atual de IA?

Autor: Cherry, gerente de investimentos, NGC Ventures

Prefácio

O primeiro rascunho deste artigo foi concluído durante a pesca em um dia de descanso no final de agosto.Após uma publicação apressada, recebi muitos conselhos, então o autor adicionou, modificou e excluiu alguns conteúdos para não fazer rir.

O conteúdo deste artigo é principalmente avaliar a situação atual da indústria de IA na perspectiva do investimento, refletir e conjecturar sobre as rotas de tecnologia/produto de diferentes empresas e abstrair as estratégias das empresas na área de IA. indústria. Portanto, há inevitavelmente algumas omissões quando se trata de tecnologias específicas, por isso, tenha paciência comigo.

Mas, em última análise, as grandes empresas que podem publicar artigos ainda estão em desacordo entre si e ninguém parece ser capaz de avaliar a exatidão do conteúdo deste artigo. Assim como usar o GPT-4 para pontuar o GPT-3.5, parece razoável, mas é um pouco abstrato quando você pensa sobre isso.

Portanto, o autor recomenda que este artigo seja considerado um “julgamento” formado após a coleta de informações sobre indústrias incertas. Por se tratar de um julgamento, a posição deve ser clara e a afirmação deve ser significativa. Quanto a saber se está correto ou não, deixe o tempo testar.

O autor sempre acreditou que as novas indústrias são barulhentas, por isso é sempre certo usar mais o cérebro e ousar fazer julgamentos. Para questões de verdadeiro-falso, a taxa correta de adivinhação cega é de 50%, e a probabilidade de adivinhar incorretamente três vezes seguidas é de 12,5%.Mesmo fazer julgamentos no nível do lançamento de uma moeda é significativo. Não é terrível fazer um julgamento, o que é mais terrível é que a precisão do julgamento é menor do que a do lançamento de uma moeda.

Antes de iniciar oficialmente este artigo, gostaria de agradecer às seguintes pessoas pelo seu trabalho, que forneceu inspiração valiosa e fontes de dados para este artigo. É claro que, uma vez que muitas das inferências neste artigo são baseadas nestes trabalhos, se contiverem erros ou se o autor tiver uma compreensão errada, as inferências neste artigo não serão mais robustas. Os leitores são convidados a fazer os seus próprios julgamentos. Este artigo não constitui aconselhamento de investimento e dificilmente constitui aconselhamento de investimento.

•Centro de Cadeia de Pensamento: Um Esforço Contínuo para Medir o Desempenho de Raciocínio de Grandes Modelos de Linguagem(

•LIMA: Menos é mais para alinhamento(

•Junho de 2023, uma revisão do estágio de ajuste de instrução(

•Arquitetura GPT-4, infraestrutura, conjunto de dados de treinamento, custos, visão, MoE(

Ok, vamos começar oficialmente este artigo.

Modelo Grande: Lançamento do Cyber Rocket

O primeiro passo para discutir a IA em 2023 é discutir se o empreendedorismo em grande escala ainda pode ser realizado.

O grande modelo (pré-treinamento) agora se transformou no problema do lançamento de um foguete: desde que o fogo seja iniciado e a direção seja correta, qualquer um pode fazê-lo. Pode-se dizer que treinar grandes modelos é como lançar foguetes cibernéticos.

Uma coisa contra-intuitiva é que os investidores subestimam a dificuldade de treinar grandes modelos, mas superestimam a dificuldade de lançar foguetes reais. Ao mesmo custo de 60 milhões de dólares americanos, os investidores sentirão que há uma segunda oportunidade para um lançamento de foguete fracassado, e a falta de treinamento de um modelo grande é considerada um desperdício de dinheiro.

O GPT-4 ainda consome 60 milhões de dólares americanos na eficiência de utilização da GPU da OpenAI (relatada em cerca de 30%). Este é um {desempenho = eficiência

Atualmente, as rodadas de financiamento de muitas empresas que afirmam treinar grandes modelos estão na faixa de 1 milhão a 5 milhões de dólares americanos. Dito isto, mesmo as maiores empresas financiadas só têm munição suficiente para um único lançamento. E mesmo que a taxa de utilização da GPU deste lançamento chegue a 100%, é difícil ultrapassar o GPT-4.

Nessa perspectiva, é melhor lançar foguetes, porque a maioria dos foguetes atuais são veículos de lançamento, transportando satélites para o céu, e a capacidade de carga única é limitada, então pequenas empresas de foguetes podem receber pedidos de satélites que outras não tiveram tempo lançar.

O modelo grande é diferente. O custo marginal da expansão horizontal do modelo grande é apenas o custo do poder de computação, e o custo do poder de computação pode ser expandido elasticamente, o que significa que para a grande empresa modelo, o lucro de cada pedido é um lucro livre., quase não há custo adicional e a capacidade do empreendimento é muito grande. Para grandes empresas modelo recém-criadas com baixa qualidade, é difícil receber uma demanda excessiva.

A menos que os custos de formação sejam significativamente reduzidos, mesmo que toda a arquitectura do GPT-4 seja conhecida, será difícil para muitas empresas fabricar modelos grandes que possam ser colocados no mercado a curto prazo.

Personalização: Enfrentando o problema do “vencedor leva tudo”

Na indústria de hardware, um fenómeno comum é obter lucros antecipados através de necessidades personalizadas e, em seguida, alcançar avanços tecnológicos (ou equalização) através de lucros antecipados. No entanto, é difícil que a customização da indústria de modelos em grande escala se torne uma saída para novos participantes.

Em relação a este julgamento, a explicação é muito simples: a maioria dos modelos ajustados não consegue acompanhar o GPT-4. Os requisitos de dados são menores. Enquanto ainda existir a lacuna de desempenho entre o GPT-4 e outros modelos, a customização não pode ser a saída para grandes empresas de modelos.

Um exemplo muito típico é Jasper, que usa GPT-3 ajustado para atender clientes corporativos, mas depois que a OpenAI lançou o ChatGPT (GPT-3.5), seus usuários perderam rapidamente. Porque a saída do Jasper pode ser obtida simplesmente inserindo GPT-3.5, sem usar uma "versão reversa" com baixa capacidade de generalização e limitada ao uso interno nas empresas.

Comparado com novas empresas, Jasper tem pelo menos um período de janela de desenvolvimento de GPT-3 a GPT-3.5. No entanto, as novas empresas agora precisam enfrentar a pressão do GPT-3.5 de baixo custo e alta velocidade e do GPT-4 de alto desempenho ao mesmo tempo.

Portanto, a probabilidade de sobrevivência é muito baixa para a rota de acumulação de lucros através da customização para alcançar avanços tecnológicos.

Ajuste fino: necessário, não seja supersticioso

A actual indústria da IA tem uma expectativa irrealista de aperfeiçoamento, que é sobrestimada tanto em termos de implementação técnica específica como de ritmo técnico a nível macro.

O ajuste fino atualmente discutido na indústria refere-se principalmente a “baseado no modelo pré-treinado, para que possa gerar respostas consistentes com as intenções humanas”. Esse tipo de ajuste fino pode ser chamado de "alinhamento", que consiste em alinhar as respostas com a intenção humana, em vez de adicionar inteligência ao grande modelo.

De acordo com os resultados da pesquisa de muitos artigos, o conhecimento de grandes modelos deve vir principalmente do pré-treinamento, enquanto o ajuste fino é mais utilizado para alinhamento.

A explicação simples é que o pré-treinamento determina a capacidade cerebral e o ajuste fino determina a língua nativa. Aperfeiçoar o modelo pré-formado é um processo de “eliminação do analfabetismo”.

No entanto, o ajuste fino é muitas vezes visto na indústria como um método de "adicionar inteligência" ao modelo, ou seja, melhorar o desempenho do modelo e aumentar o conhecimento do modelo através do ajuste fino. Acredita-se que desta forma, o "Santo Graal de inteligência artificial" pode ser alcançado. Essa linha de pensamento é um tanto tendenciosa.

Em primeiro lugar, o desempenho do modelo em si não melhorou, mas pode alinhar melhor as intenções humanas.Se a complexidade da tarefa exceder o desempenho do modelo, o ajuste fino não produzirá os resultados esperados. Assim como deixar o cérebro humano realizar operações quânticas, deixar de fazê-lo não é uma questão de educação.

Em segundo lugar, o efeito da “suplementação de conhecimento” na parte “alinhamento de intenção” é mais semelhante ao “aprendizado de papagaio”. Ou seja: o modelo apenas imita a fala do especialista, mas não entende o significado. Embora muitas indústrias possam obter boas soluções “papagaiando” (afinal, a maioria das indústrias não são complicadas...), este não é obviamente o resultado que devemos perseguir a longo prazo.

Finalmente, o treinamento de "complementar conjuntos de dados adicionais, melhorar o desempenho do modelo e aumentar o conhecimento do modelo" deve ser considerado como o modelo que tem a capacidade de "aprendizado incremental/aprendizado contínuo", ou seja, todos os parâmetros do modelo podem ser processados através otimização de conjuntos de dados incrementais. Este não é um conceito da mesma categoria do chamado “ajuste fino de instruções”.

Em geral, o ajuste fino é muito importante, mas é errado ter uma atitude “supersticiosa” em relação ao ajuste fino atual, especialmente a pressa em selar o ajuste fino atual como o Santo Graal, que está bastante “no edifício da física hoje"Existem apenas duas nuvens escuras flutuando".

Para dar um passo atrás, se a necessidade de “aumentar a sabedoria” puder realmente ser resolvida através do ajuste fino das instruções, fazendo uma simples pesquisa vetorial, conectando diretamente o conhecimento ao contexto e simplesmente escrevendo alguns modelos, há um grande probabilidade de podermos obter resultados iguais ou até melhores.

Todo mundo gosta de ajustes finos, talvez isso seja uma espécie de renascimento das habilidades da alquimia nos tempos modernos...

Perspectiva de modelo grande: quatro operações aritméticas

(Observe que esta parte do conteúdo é inteiramente baseada nos dados divulgados por Dylan Patel, e a confiabilidade não pode ser verificada por enquanto)

O treinamento do GPT-4 é baseado na série A de cartões N. A eficiência do treinamento é de 30%. O tempo de treinamento é de cerca de 2 meses. O custo é de cerca de 60 milhões. O valor total do parâmetro é de {1,7 trilhão = 110 bilhões × 16 modelos especialistas}. Ele pode lidar com um único problema. Os parâmetros são em torno de 280 bilhões.

Em outras palavras, existem vários parâmetros-chave que levarão a mudanças no padrão de treinamento de grandes modelos.

Eficiência do treinamento: aumentar de 30% para 60% pode dobrar diretamente o tempo

Maior intensidade de poder de computação: Depois de mudar da série A para a série H e depois para a placa dedicada de IA, a intensidade de poder de computação aumentou e muitos problemas arquitetônicos que afetam a eficiência podem ser resolvidos.

Queda nos custos de energia computacional: Lao Huang (o fundador da Nvidia) descontou a placa gráfica e o custo caiu significativamente

Melhoria da eficiência dos parâmetros: Há espaço para melhorias na eficiência dos parâmetros do modelo. Referindo-se ao modelo anterior, a eficiência dos parâmetros do modelo antigo geralmente pode ser aumentada muitas vezes. É possível usar 30% dos parâmetros do GPT-4 para obter um efeito semelhante

Resumindo, o custo de treinar um modelo com desempenho de nível GPT-4 a partir do zero pode ter de 10 a 20 vezes mais espaço para otimização, que é reduzido para US$ 3 milhões a US$ 6 milhões. Esse custo é muito econômico para startups e grandes empresas são mais aceitáveis.

Essa alteração pode levar cerca de 2 anos para ser concluída.

Atualmente, a tecnologia convencional de grandes modelos ainda é baseada em transformadores, a infraestrutura não mudou e a ideia de refinar a alquimia e adicionar parâmetros para criar milagres não se esgotou. O treinamento do GPT-4 é realizado com base em restrições de alto poder computacional e o tempo de treinamento não é longo o suficiente.

Se os parâmetros crescerem linearmente com o tempo de treinamento, o limite superior de parâmetros para um modelo com arquitetura semelhante ao GPT-4 pode ficar em torno de 10 trilhões, ou seja, duas vezes mais que o tempo de treinamento (×2), e duas vezes mais que na placa gráfica paralela (×2), a eficiência do treinamento é metade da velocidade (×1,5), a eficiência do parâmetro é a metade (×1,5) e o resultado final é dez vezes melhor. De acordo com o estilo de apetite pelo risco de Silicon Valley, este parâmetro será provavelmente alcançado dentro de um ano, independentemente de o desempenho ter melhorado.

No entanto, depois de atingir 10 trilhões de parâmetros, não se sabe se o LLM ainda pode usar a ideia de aumentar os parâmetros para realizar milagres.

Se a melhoria do desempenho do modelo pela quantidade de parâmetros estiver diminuindo marginalmente, então 10 trilhões provavelmente serão um obstáculo. No entanto, há também uma conjectura de que o número de parâmetros melhora o desempenho do modelo com um aumento marginal, semelhante a “se uma pessoa for inteligente o suficiente, ela pode aprender tudo rapidamente”. O primeiro é bom. Se o último for verdadeiro, o desempenho do modelo pode aumentar exponencialmente e o que acontecerá naquele momento será completamente imprevisível.

É difícil prever o elixir, mas é fácil prever o ritmo estratégico de uma empresa. Um modelo com um parâmetro total de 10 trilhões é um marco final para a maioria das empresas, seja ela uma gigante como Google/MS/APPL ou a menor OpenAI, e é um lugar onde você pode parar e fazer alguma exploração técnica. posição.

A preferência da empresa/capital pelo risco pode ser convertida num "tempo de resistência".Se todo o tempo de duração queima intensamente despesas, é difícil ultrapassar 6 meses. O artesanato humano não está crescendo rápido o suficiente, geralmente em um ciclo de 5 anos ou mais. Portanto, dentro de 5 anos, a quantidade limite do parâmetro do modelo pode ser estimada, que deve ser de 20 trilhões a 50 trilhões. A menos que ocorra novamente um grande avanço no processo/arquitetura, a probabilidade de exceder esta ordem de grandeza é muito baixa.

Multimodalidade: O Elefante na Sala

A multimodalidade é o elefante na sala e pode impactar profundamente a paisagem da pista de corrida.

A definição simples de multimodalidade é: apoiar a entrada e saída de múltiplas informações modais. Esta definição é muito vaga. Por exemplo, alguns produtos no mercado que afirmam ser capazes de realizar entradas multimodais são, na verdade, ChatBot com uma camada de OCR fora dele. Existem também modelos que atendem plenamente à definição de multimodalidade, mas seu desempenho é decepcionante. Mesmo a capacidade de entrada de imagem multimodal do GPT-4 ainda não foi amplamente aberta, pode-se observar que esta função não é muito estável.

A liberação da multimodalidade não está longe, porém. Há uma grande probabilidade de que o GPT-5 suporte nativamente a multimodalidade, ou seja, precisa redesenhar a estrutura e retreinar. De acordo com o raciocínio acima, os parâmetros do modelo grande ainda têm espaço para crescer de 10 a 50 vezes, e deveria ser suficiente colocar nele capacidades multimodais. Portanto, pode-se esperar que um modelo multimodal com alta disponibilidade e alto desempenho apareça dentro de 2 anos e, com otimismo, será em quase 1 ano.

A multimodalidade é o elefante na sala, todos sabem que eventualmente haverá algo assim, mas muitos produtos/pesquisas/estratégias ignoram a sua existência, de modo que há erros de julgamento em partes fundamentais.

Por exemplo, os modelos de imagem única podem, teoricamente, ser severamente oprimidos pelos modelos multimodais, mas a maior parte da investigação/investimento ignora atualmente esta questão, levando à sobrevalorização de algumas empresas focadas na imagem. É provável que estas empresas percam barreiras técnicas e se transformem em prestadores de serviços no futuro. O seu sistema de avaliação deve referir-se a prestadores de serviços e não a empresas tecnológicas.

Se você quiser contar a história de “o investimento depende das pessoas, a mesma equipe pode transformar o negócio”, é só fingir que não falei. As lendas estão sempre lá, mas você não pode acreditar nelas ao fazer pesquisas.

Quem pode treinar GPT-4: Sim, mas não é necessário

Não demora muito para fazer alquimia, e grandes empresas estão comprando placas gráficas. Uma coisa muito óbvia é que depois de um ano, grandes empresas terão a capacidade de treinar modelos de nível GPT-4. Mas treinar ou não é outra questão.

No campo dos games, existe uma proposta clássica chamada “Jogar Genshin Impact com Genshin Impact”, ou seja: quando os jogadores podem optar por jogar Genshin Impact ou um produto concorrente do Genshin Impact, caso o produto concorrente não seja tão bom quanto Genshin Impact, então eles podem jogar Genshin Impact, o deus original.

Esta abordagem de “o vencedor leva tudo” também se aplica à indústria de modelos em grande escala. Se uma empresa segue o OpenAI, após meio ano de pesquisa e desenvolvimento, ela lança seu próprio modelo em larga escala com desempenho comparável a 90% do GPT-4, na esperança de apresentá-lo ao mercado. Neste momento, a empresa enfrentará os seguintes problemas:

• OpenAI tem a vantagem de escala dos recursos de nuvem e custo mais baixo

•A API da OpenAI tem sido amplamente utilizada em códigos de produtos e é difícil de substituir

•O desempenho do produto da empresa ainda não excede GPT-4

• O produto de próxima geração da OpenAI (provavelmente GPT-5) será lançado em breve

Percebe-se que a pressão sobre a empresa é considerável. Em vez de treinar o GPT-4, é melhor apostar diretamente no modelo de próxima geração (contra o GPT-5). Então o problema será convertido de “problema de produtos concorrentes similares” para “problema de inovação tecnológica”. Este é um fardo que as pequenas empresas não podem suportar.

Portanto, discutir “quem pode treinar o GPT-4" é uma questão estrategicamente morta. Em vez de pensar nesse problema, é melhor encontrar uma direção com mais certezas e oportunidades.

Conselhos para startups de IA: coloque o desempenho em primeiro lugar, evite ficar

O autor escreveu muitos artigos reclamando do langchain. A razão fundamental é que o langchain não deixa espaço para os desenvolvedores melhorarem o desempenho. É chamado de "quadro universal", para garantir a generalidade, muitas melhorias de desempenho de grandes modelos foram abandonadas, como o controle de formato alcançado por múltiplas rodadas de diálogo e ajuste fino. Da mesma forma, existem orientações/Auto-GPT/BabyAGI, etc., que desejam ser "uma estrutura que pode ser usada por toda a vida".

Um fato objetivo é que a OpenAI lançou Function Calling em maio, muitas áreas problemáticas no código têm melhores soluções de implementação, e o custo de implementar melhores soluções é reconstruir partes-chave do código do produto. Em agosto, a OpenAI liberou permissões para ajustar o GPT-3.5, e muitos links que exigem controle preciso de saída têm novas soluções potenciais.

Portanto, as startups devem enfrentar uma escolha importante: devem optar por ① melhorar o desempenho e refatorar constantemente os produtos, ou ② reduzir o uso de novos recursos e sempre usar recursos antigos para desenvolvimento?

Para o empreendedorismo de aplicação de novas tecnologias, “desenvolvimento” não representa apenas o processo de escrever código, mas também representa o “limite superior” da funcionalidade/estratégia do produto. Quanto maior o desempenho que pode ser controlado, mais funções teóricas o produto possui e maior sua flexibilidade estratégica.

O desenvolvimento da tecnologia não pode ser previsto e as pequenas inovações tecnológicas podem trazer mudanças altamente sensíveis no cenário competitivo.As empresas start-up devem ter a capacidade de serem anti-frágeis ao desenvolvimento da tecnologia.

——Em palavras humanas: O desempenho deve ter prioridade e evitar a permanência. No nível de desenvolvimento, use mais novos recursos; no lado do produto, pense nas funções que os novos recursos podem realizar; no lado estratégico, considere o impacto dos novos recursos na estratégia.

Em "Na Passagem de Qin", foi mencionado que após o estabelecimento da Dinastia Qin, as armas de metal de todo o mundo foram confiscadas e fundidas em doze figuras de bronze para eliminar a possibilidade de revoltas civis. Mas a Dinastia Qin teve vida notoriamente curta. É mais benéfico prestar atenção às mudanças do que ignorá-las.

Aconselhamento para empresas iniciantes de IA: crie aplicações com confiança

Existe um perigo oculto muito comum na candidatura de empresas start-up: a entrada de grandes empresas. As grandes empresas aqui incluem não apenas gigantes de aplicativos, como Meta/Byte/Tencent, etc., mas também o upstream da indústria de IA, como OpenAI.

Geralmente há duas razões para as grandes empresas entrarem no mercado: para implantar oportunidades de produtos e para cortar upstream e downstream.

"Desenvolver oportunidades de produtos" é um significado literal. As grandes empresas sentem que vale a pena seguir essa direção, então o fazem.

"Cortar upstream e downstream" é principalmente um movimento inútil. Pode ser porque desenvolvi um modelo grande que é comparável ao OpenAI. No entanto, devido ao problema de o vencedor levar tudo de modelos grandes, não há usuários, o que resulta na queima de custos, sem receita e sem dados, o que por sua vez leva ao desempenho ficar gradualmente para trás. Neste momento, entrar no downstream, desenvolver aplicações específicas e usar tecnologia própria é a única opção.

De acordo com a experiência histórica, devido a problemas de estrutura organizacional, quanto mais próxima uma empresa estiver do downstream, maior será a probabilidade de a sua tecnologia ficar para trás, e quanto mais a sua tecnologia ficar para trás, mais terá de trabalhar a jusante. Estas chamadas empresas tecnológicas acabarão por competir pelo mesmo nicho ecológico que as empresas da camada de aplicação.

No entanto, no campo de batalha da camada de aplicação, porque a tecnologia de IA existe há pouco tempo, ela não tem vantagens de escala eficazes e reutilizáveis.Os pontos de partida de grandes empresas e startups são semelhantes. Em comparação com grandes empresas, as startups são mais eficientes e têm insights mais profundos, facilitando o aproveitamento.

Uma coisa que vale a pena notar é que quase todos os materiais promocionais do MS Azure agora giram em torno do OpenAI.No entanto, uma empresa tão grande como a Microsoft depende inteiramente do OpenAI como plataforma, o que prova que as startups têm vantagens naturais no campo da IA.

É claro que alguns fornecedores de nuvem podem não aceitar ser liderados por start-ups e querer consumir todo o mercado sozinhos. É caro, lento e não é uma ameaça imediata.

O fato é que existem de fato alguns caminhos de aplicação de IA que têm vida muito curta, mas ainda existem muitos caminhos de vida longa que não foram descobertos, e os aplicativos de IA não são do tipo que o vencedor leva tudo. Estender das aplicações às plataformas ou tecnologias também é um caminho mais viável.

Portanto, devemos ser racionais quanto à capacidade das grandes empresas de penetrar na camada de aplicação. Nossa sugestão é que startups de IA possam fazer aplicações com confiança.

Conselhos para startups de IA: prestem atenção às linhas de vida dos produtos

Conforme mencionado anteriormente, as startups de IA podem criar aplicativos com segurança, mas devem considerar o desempenho do modelo de IA e evitar permanecer. Esta situação manifesta-se directamente no facto de os produtos de IA poderem perder a sua base de procura e definhar gradualmente dentro de alguns meses, e esta situação pode acontecer com frequência.

As aplicações de IA precisam utilizar os serviços de grandes modelos, e o desempenho de grandes modelos continua a melhorar. Esta melhoria não é uma melhoria em uma única dimensão, como “velocidade”, mas uma mudança em todos os aspectos, como qualidade de saída, comprimento de saída e controlabilidade de saída. Cada atualização significativa na tecnologia fará com que os produtos da camada de aplicação existentes fiquem para trás tecnologicamente e criem novas oportunidades e concorrentes.

Chamamos o momento em que a aplicação de IA mantém vantagens e necessidades em estratégia/produto/tecnologia como "tábua de salvação".

Aqui estão alguns exemplos de linhas de vida mais curtas:

• Quando o ChatGPT/Claude suporta upload de arquivos, o ChatPDF se torna desnecessário

•Quando o Office365 oferecer suporte ao Copilot, os produtos que usam IA para desenhar PPT perderão suas vantagens

•Quando o GPT-3.5 aparecer, o Jasper não será mais necessário

**Considerando o rápido desenvolvimento da indústria de IA, linhas de vida limitadas são a norma. Portanto, aceitar o facto de que a linha de vida é limitada e tentar escolher uma direcção com uma linha de vida mais longa para o desenvolvimento conduz à manutenção das vantagens a longo prazo e da necessidade do produto. **

Geralmente, a linha de vida pode ser simplesmente dividida em níveis de 3/6/12 meses.

•3 meses: Funções que as grandes empresas não tiveram tempo de realizar (como funções que o escritório/ChatGPT não teve tempo de realizar)

• 6 meses: É difícil de implementar e não pode ser integrado em soluções existentes, mas as vantagens/necessidades desaparecerão com a melhoria do desempenho da IA (como a estrutura geral da IA)

• 12 meses: vantagens/necessidades podem existir por um longo período de tempo, não sendo facilmente afetadas por grandes empresas/desenvolvimentos tecnológicos (como Hugging Face)

*O ciclo de vida dos produtos de plataforma não é necessariamente longo, afinal lojas também são plataformas.

Quando uma empresa iniciante determina sua direção, ela só precisa de uma tábua de salvação de 6 meses. É difícil encontrar uma tábua de salvação de 12 meses.

Quando a vida útil do produto chega ao fim, geralmente há duas situações. A primeira situação é que as vantagens desaparecem e a tecnologia de atualização do produto precisa ser reconstruída. Consulte o "desempenho primeiro" acima; a segunda situação é que a necessidade desaparece e o produto será gradualmente substituído. Neste momento, o produto ainda tem vários meses de “operação” Lifespan”, o suficiente para que as empresas iniciantes escolham a próxima direção.

Conselhos para startups de IA: Web3+AI podem fazer isso

Actualmente, existem muitos projectos empresariais em torno do tema Web3+AI, mas considerando a incerteza do desenvolvimento tecnológico e a fase inicial do mercado, o tema Web3+AI ainda tem muitas variáveis no futuro.

Este artigo tem como objetivo encontrar certezas com alta probabilidade de serem corretas entre as incertezas, portanto, o autor ainda espera se inspirar e propor alguns tópicos e direções que possam ter oportunidades de referência por empresas start-up e pesquisadores interessados.

Des-Soberania/Descentralização

Atualmente, os líderes da indústria de IA fornecem apenas modelos de código fechado, e a estabilidade, transparência e neutralidade da sua prestação contínua de serviços são incontroláveis. A dessoberania/descentralização pode se tornar um tema importante na indústria de IA, a saber: com base na estrutura básica de dessoberania/descentralização, para fornecer serviços de IA estáveis, transparentes e neutros.

A dessoberania/descentralização é uma “alternativa” e uma “dissuasão” que pode aumentar significativamente os custos imorais das empresas de IA centralizadas/soberanas e impedi-las de usar modelos de IA em assuntos militares e religiosos, políticos e outros aspectos.

Em casos extremos, uma vez que o serviço de IA centralizado/soberano não esteja mais disponível/credível por algum motivo, a IA descentralizada/descentralizada pode continuar a fornecer serviços altamente disponíveis para evitar que países/regiões individuais e até mesmo humanos percam os serviços de IA.

Uso prático do poder computacional

Por trás da mudança da ETH de PoW para PoS está o dilema criticado de "mineração não produz valor". Combinar Web3 com IA pode fornecer cenários para poder de computação prático, realizando assim a digestão do poder de computação existente e promovendo o crescimento do poder de computação total. Efeito .

Ativos Virtuais

IA é um ativo nativo para poder de computação e armazenamento. A combinação de Web3 e IA pode fornecer um canal para transformar IA em ativos virtuais e criar ativos virtuais nativos reais para Web3, ao mesmo tempo em que realiza a instanciação de valor da indústria de IA.

Variáveis para aplicativos Web3

A combinação de Web3 e IA pode trazer novas funções e oportunidades de crescimento para aplicativos Web3, e os aplicativos Web3 existentes podem ser completamente refeitos.

Escrito no final: É setembro, ainda vale a pena começar um negócio com IA agora

Deixe-me falar primeiro sobre a conclusão: vale a pena, e essa conclusão pode ser usada até o Ano Novo Chinês com grande probabilidade.

As pessoas muitas vezes têm uma percepção tendenciosa da situação e eu não sou exceção. Alguns são demasiado optimistas e outros demasiado pessimistas. Certa vez, o autor se comunicou com duas equipes. Uma equipe acredita que será capaz de construir um agente de IA no primeiro trimestre do próximo ano, enquanto a outra equipe sente que a IA é adequada apenas para gerenciamento de base de conhecimento. Obviamente, o primeiro é muito otimista, enquanto o último é demasiado pessimista.

Ao fazer planos a longo prazo, ser demasiado optimista ou demasiado pessimista levará a armadilhas, e as observações amplamente divulgadas são frequentemente observações altamente tendenciosas, tornando o pensamento independente extremamente valioso. Portanto, independentemente de o leitor aceitar as opiniões deste artigo, desde que o leitor tenha pensamento e julgamento independentes durante o processo de leitura, o autor ficará extremamente satisfeito.

Finalmente, coloque um anúncio. Se você tem uma boa ideia de inicialização de IA ou já tem um projeto concluído, sinta-se à vontade para se comunicar com amigos do NGC (como eu).

Identificamos projetos com inovação disruptiva, visando resolver problemas com soluções caracterizadas pela simplicidade, custo acessível, rapidez, exclusividade e adequação atraente do produto ao mercado.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)