No topo da lista de favoritos do GitHub: versão de código aberto do interpretador de código GPT-4, que pode instalar qualquer biblioteca Python e executar no terminal local
O interpretador de código do ChatGPT também pode ser executado em seu próprio computador.
Um grande mestre acaba de lançar uma versão local do interpretador de código no GitHub e logo alcançou o topo da lista de favoritos do GitHub com mais de 3 mil estrelas.
Ele não apenas possui todas as funções que o GPT-4 tinha originalmente, mas o importante é que também pode ser conectado à Internet.
Depois que a notícia do “desligamento” do ChatGPT foi divulgada, causou alvoroço e durou vários meses.
A função Internet ficou silenciosa nos últimos meses, mas agora existe uma solução.
Como o código é executado localmente, ele resolve muitos outros problemas da versão web além da rede:
Apenas 50 mensagens podem ser enviadas em 3 horas
Um número limitado de módulos Python suportados
Há um limite para o tamanho do arquivo que pode ser processado e não pode exceder 100 MB.
Após fechar a janela da sessão, os arquivos gerados anteriormente serão excluídos
Se não houver API, você também pode alterar o modelo para o código aberto Code LLaMa.
Após o lançamento deste interpretador de código, alguns internautas logo expressaram sua expectativa por uma onda de versões web:
Então, vamos dar uma olhada em como é esse interpretador de código local!
Deixe o GPT "reconectar"
Como a API do GPT-4 é chamada, todas as funções suportadas pelo GPT-4 podem ser usadas naturalmente e, claro, o chinês também é suportado.
As funções do GPT em si não serão exibidas em detalhes aqui.
Porém, vale ressaltar que com a adição do interpretador de código, o nível matemático do GPT foi melhorado em vários níveis.
Então aqui usamos um problema de derivação difícil para testá-lo. A questão é f(x)=√(x+√(x+√x)).
Emmm... Este resultado é um pouco abstrato, mas deve ser um problema com a palavra prompt. Vamos modificá-lo:
Então vemos este resultado:
Esta fórmula parece diferente da resposta padrão, mas é um problema de formato? Nós verificamos:
O resultado está correto!
Agora vem o evento principal. Vamos ver se a função de rede deste interpretador de código é um artifício:
Por exemplo, queremos ver quais notícias estão acontecendo recentemente.
O programa irá primeiro verificar se os módulos necessários estão instalados, caso contrário, será instalado automaticamente e então começará a puxar a página da web.
Devo dizer que li a página inteira uma vez. Se ela não estiver rodando localmente, olhar para o código rolando na tela é realmente um pouco trêmulo...
O programa irá então analisar em qual campo o título da notícia está armazenado no internauta e extraí-lo.
Felizmente, depois de muito jogar, finalmente conseguimos o resultado desejado:
Além de permitir que ele pesquise sozinho, você também pode fornecer páginas da web específicas para análise:
Depois de outra carga maluca, o intérprete de código reproduziu com sucesso sua auto-apresentação.
Depois, há uma versão online que é uma réplica do ChatGPT. Existem funções mais avançadas?
Claro que existe! Por exemplo, queremos ajustar uma configuração do sistema, mas não sabemos como fazê-lo.
Se usarmos a versão web, provavelmente veremos uma longa lista de descrições de texto, mas agora podemos simplesmente entregá-la ao interpretador de código.
Em vez de fornecer uma grande seção de tutoriais incompreensíveis, ele executa o código automaticamente e o completa diretamente em uma única etapa.
Além de permitir que o GPT-4 gere código, algumas ferramentas do repositório de código também podem ser chamadas por meio dele.
Por exemplo, se quiser adicionar legendas a um vídeo, você pode chamar o módulo de reconhecimento de fala pronto na replicação.
Como não há material pronto em mãos, aqui está uma DEMO fornecida pelo desenvolvedor:
O processo de execução do código é realizado localmente, portanto não há necessidade de se preocupar com o tamanho do vídeo excedendo o limite.
Resumindo, após executá-lo, podemos ver as legendas aparecendo abaixo do vídeo:
Da mesma forma, você pode usar este recurso para gerar e modificar documentos ou imagens, ou chamar o ControlNet para gerar animações a partir de uma imagem estática...
Em teoria, desde que o desempenho seja suficiente, tudo o que o Python pode fazer pode ser feito.
Então, como podemos experimentar esse interpretador de código nativo?
método de instalação
O autor postou uma nota do Colab na página do projeto GitHub (link no final do artigo), e internautas qualificados podem ir diretamente para experimentá-lo.
A instalação local também é muito simples (desde que o Python esteja instalado), apenas uma linha de código "pip install open-interpreter" é necessária.
Após a instalação, digite “interpreter” no terminal para iniciá-lo diretamente.
Esta é a API que o programa irá solicitar para GPT-4.Se for apenas 3.5, use "interpreter --fast" ao iniciar.
Se 3.5 não estiver disponível, você pode pressionar Enter diretamente nesta etapa ou inserir diretamente "interpreter --local" durante a inicialização para mudar para Code-LLaMA.
Inclui três versões de 7B, 13B e 34B. Quanto menor a escala, mais rápida será a velocidade e quanto maior o resultado, mais preciso.
Caso o Code-LLaMA não esteja instalado, ele será instalado automaticamente seguindo as instruções do programa.
Além disso, por padrão, a confirmação é necessária antes de executar o código após sua geração. Se não quiser confirmar todas as vezes, você pode adicionar "espaço-y" após o comando na inicialização.
Os comandos comumente usados são apresentados aqui.Se você quiser saber uma jogabilidade mais avançada, consulte as notas do autor no Colab.
Experimente se você gostar!
Página do projeto GitHub:
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
No topo da lista de favoritos do GitHub: versão de código aberto do interpretador de código GPT-4, que pode instalar qualquer biblioteca Python e executar no terminal local
Fonte original: Qubit
O interpretador de código do ChatGPT também pode ser executado em seu próprio computador.
Um grande mestre acaba de lançar uma versão local do interpretador de código no GitHub e logo alcançou o topo da lista de favoritos do GitHub com mais de 3 mil estrelas.
Ele não apenas possui todas as funções que o GPT-4 tinha originalmente, mas o importante é que também pode ser conectado à Internet.
A função Internet ficou silenciosa nos últimos meses, mas agora existe uma solução.
Como o código é executado localmente, ele resolve muitos outros problemas da versão web além da rede:
Se não houver API, você também pode alterar o modelo para o código aberto Code LLaMa.
Após o lançamento deste interpretador de código, alguns internautas logo expressaram sua expectativa por uma onda de versões web:
Deixe o GPT "reconectar"
Como a API do GPT-4 é chamada, todas as funções suportadas pelo GPT-4 podem ser usadas naturalmente e, claro, o chinês também é suportado.
As funções do GPT em si não serão exibidas em detalhes aqui.
Porém, vale ressaltar que com a adição do interpretador de código, o nível matemático do GPT foi melhorado em vários níveis.
Então aqui usamos um problema de derivação difícil para testá-lo. A questão é f(x)=√(x+√(x+√x)).
Agora vem o evento principal. Vamos ver se a função de rede deste interpretador de código é um artifício:
Por exemplo, queremos ver quais notícias estão acontecendo recentemente.
Devo dizer que li a página inteira uma vez. Se ela não estiver rodando localmente, olhar para o código rolando na tela é realmente um pouco trêmulo...
Claro que existe! Por exemplo, queremos ajustar uma configuração do sistema, mas não sabemos como fazê-lo.
Se usarmos a versão web, provavelmente veremos uma longa lista de descrições de texto, mas agora podemos simplesmente entregá-la ao interpretador de código.
Em vez de fornecer uma grande seção de tutoriais incompreensíveis, ele executa o código automaticamente e o completa diretamente em uma única etapa.
Por exemplo, se quiser adicionar legendas a um vídeo, você pode chamar o módulo de reconhecimento de fala pronto na replicação.
Como não há material pronto em mãos, aqui está uma DEMO fornecida pelo desenvolvedor:
Resumindo, após executá-lo, podemos ver as legendas aparecendo abaixo do vídeo:
Em teoria, desde que o desempenho seja suficiente, tudo o que o Python pode fazer pode ser feito.
Então, como podemos experimentar esse interpretador de código nativo?
método de instalação
O autor postou uma nota do Colab na página do projeto GitHub (link no final do artigo), e internautas qualificados podem ir diretamente para experimentá-lo.
A instalação local também é muito simples (desde que o Python esteja instalado), apenas uma linha de código "pip install open-interpreter" é necessária.
Após a instalação, digite “interpreter” no terminal para iniciá-lo diretamente.
Se 3.5 não estiver disponível, você pode pressionar Enter diretamente nesta etapa ou inserir diretamente "interpreter --local" durante a inicialização para mudar para Code-LLaMA.
Inclui três versões de 7B, 13B e 34B. Quanto menor a escala, mais rápida será a velocidade e quanto maior o resultado, mais preciso.
Caso o Code-LLaMA não esteja instalado, ele será instalado automaticamente seguindo as instruções do programa.
Os comandos comumente usados são apresentados aqui.Se você quiser saber uma jogabilidade mais avançada, consulte as notas do autor no Colab.
Experimente se você gostar!
Página do projeto GitHub: