O pai da aprendizagem por reforço junta-se à AGI para iniciar um negócio! Em parceria com o lendário programador Carmack, não dependemos de modelos grandes

Fonte original: Qubits

Fonte da imagem: gerada por Unbounded AI

O lendário programador John Carmack uniu forças com Richard Sutton, o pai do aprendizado por reforço, para criar o All in AGI.

2030 Demonstrar ao público que o objetivo da inteligência artificial geral é viável.

E, ao contrário dos métodos convencionais, não se baseia em grandes paradigmas de modelos e busca a aprendizagem on-line em tempo real.

A dupla fez o anúncio em um evento especial no Machine Intelligence Institute (Amii) da Universidade de Alberta, onde Sutton leciona.

Sutton ingressará na Keen Technologies, startup de IA de Carmack, enquanto mantém seu cargo de professor em Alberta.

Ambos admitiram no evento que a equipe da Keen Technologies é pequena em comparação com empresas maiores, com centenas ou milhares de funcionários.

Ainda está em sua infância e toda a equipe técnica da empresa está no local——

Só essas 4 pessoas em pé.

Sua escala de financiamento é de US$ 20 milhões, o que é incomparável com OpenAI e Anthropic, que muitas vezes arrecadam bilhões.

Mas eles acreditam que o código-fonte final do AGI será da ordem que uma pessoa pode escrever e poderá ter apenas dezenas de milhares de linhas.

Além disso, o campo da IA está atualmente em um momento especial com maior efeito de alavancagem, e pequenas equipes também têm a oportunidade de fazer grandes contribuições.

Programador lendário e o pai do aprendizado por reforço

A experiência lendária de Carmack, desde o desenvolvimento do primeiro jogo 3D do mundo, até a transição para a construção de foguetes, até ingressar na Oculus e se tornar uma figura chave no subsequente Meta VR, é bem conhecida.

Mais tarde, ele se envolveu com IA e também se relacionou com OpenAI.

Certa vez, ele revelou em outra entrevista que Sam Altman o convidou para ingressar na OpenAI e acreditava que ele poderia desempenhar um papel importante na otimização do sistema.

Mas Carmack acreditava que não tinha nenhum conhecimento da IA moderna no paradigma de aprendizado de máquina na época, então não concordou.

Esta se tornou uma oportunidade para ele começar a entender a IA.

Ele pediu a Ilya Sutskever, cientista-chefe da OpenAI, uma lista de leituras obrigatórias para começar, e começou o autoestudo do zero, primeiro obtendo uma compreensão básica dos algoritmos tradicionais de aprendizado de máquina.

Quando ele teve algum tempo livre e planejou continuar se envolvendo no aprendizado profundo, ele surgiu com um desafio de programação de uma semana:

Imprima alguns dos artigos clássicos de LeCun e pratique-os quando a rede estiver desconectada, começando com a fórmula de retropropagação.

Depois de uma semana, ele encerrou o retiro com uma rede neural convolucional feita à mão em C++, sem a ajuda de estruturas modernas de aprendizado profundo em Python.

Tudo o que posso dizer é que admiro o grande mestre.

Nessa época, seu principal negócio ainda era pesquisar VR na Oculus, subsidiária do Facebook (mais tarde renomeada como Meta), e liderou a equipe no lançamento de produtos como Ouclus Go e Quest.

Porém, durante esse processo, surgiram gradativamente conflitos e divergências entre ele e a administração da empresa, que acreditava que a eficiência interna da empresa era baixa e também expressou publicamente sua insatisfação.

Em 2019, ele renunciou ao cargo de CTO da Oculus e tornou-se um “CTO consultivo”, começando a direcionar mais energia para IA.

Em agosto de 2022, ele anunciou que a nova startup de IA Keen Technologies anunciou um financiamento de US$ 20 milhões.Os investidores incluem Sequoia Capital, o ex-CEO do GitHub, Nat Friedman, e outros.

Mais tarde, ele também revelou que poderia realmente ganhar dinheiro com apenas US$ 20 milhões.

Mas receber dinheiro dos outros pode dar-lhe uma sensação de crise e urgência, e uma determinação mais forte para fazer as coisas.

No final de 2022, ele deixou oficialmente o Meta e considerou a VR como uma fase da vida que já passou, e então se voltou completamente para a IA.

Além dessa linha principal óbvia, Carmack e AI também têm um destino inexplicável.

Naquela época, seus jogos 3D estimularam a demanda por computação gráfica e as GPUs começaram a se desenvolver e se expandir no campo de jogos.

Hoje em dia, é o poder computacional da GPU que sustenta a explosão da IA. Ele ainda se orgulha de sua contribuição ao falar sobre isso.

……

A outra protagonista de hoje Sutton também é uma lenda.

Ele é conhecido como o pai da aprendizagem por reforço e fez contribuições importantes para métodos como aprendizagem por diferença de tempo por reforço e gradiente de política.Ele também é coautor do livro padrão sobre aprendizagem por reforço.

Em 2017, ele se juntou à DeepMind como um excelente cientista e participou da série de pesquisas AlphaGo. Seu aluno David Silver é um dos principais líderes do AlphaGo.

Sutton escreveu um pequeno artigo famoso The Bitter Lesson, argumentando que tentar ensinar a experiência humana à IA não funcionará. Todos os avanços até agora se basearam em melhorias no poder da computação. É correto continuar a aproveitar a escala efeito do poder de computação.

Antes de os dois se comunicarem formalmente, Carmack expressou sua preocupação e aprovação deste artigo.

Mas a verdadeira comunicação direta entre os dois foi feita por Sutton.

Há alguns meses, depois que Carmack anunciou o financiamento da AGI Ventures, ele recebeu um e-mail de Sutton.

Sutton queria perguntar-lhe se seu caminho de pesquisa deveria ser puramente acadêmico, comercial ou sem fins lucrativos.

No entanto, em trocas de e-mail subsequentes, os dois descobriram que havia uma consistência surpreendente nas orientações e conceitos da pesquisa em IA e gradualmente estabeleceram um relacionamento cooperativo.

Especificamente, os dois alcançaram 4 consenso:

  • Todos acreditam que o desenvolvimento actual da AGI está limitado a algumas direcções muito estreitas, confiando demasiado em big data e grande poder computacional e negligenciando a inovação.
  • Todos acreditam que a comercialização muito precoce prejudicará o desenvolvimento da AGI
  • Todos acreditam que o AGI final não será muito complicado e que uma pessoa pode dominar todos os princípios e até mesmo uma pessoa pode escrever o código principal.
  • Todos acreditam que o surgimento de protótipos AGI em 2030 é uma meta viável.

Além de depender apenas de modelos grandes, equipes pequenas também têm oportunidades

Um objetivo muito ousado, e o público também achou.

Diante da pergunta “Como uma equipe pequena pode atingir uma meta tão ambiciosa?”, Carmack acreditava que a quantidade de dados e poder computacional necessários para atingir a AGI pode não ser tão grande quanto se imaginava.

Capture o que os humanos veem através dos olhos durante um ano inteiro em um vídeo a 30 quadros por segundo, que pode ser instalado em uma unidade flash USB do tamanho de um polegar. Uma criança de 1 ano tem tantos dados de experiência e já demonstrou inteligência óbvia. Se o algoritmo estiver correto, não há necessidade de usar todos os dados da Internet para que o AGI aprenda.

Em relação à demanda por poder computacional, ele também usa esse tipo de pensamento intuitivo para considerar: o poder computacional do cérebro humano também é limitado, longe de atingir o nível de um grande cluster de poder computacional.

É maior que um nó de servidor (nó) e maior que um gabinete (rack), mas o máximo é apenas uma ordem de grandeza maior.

E com o passar do tempo, o algoritmo se tornará mais eficiente e o poder computacional necessário continuará a diminuir.

Se o trabalho de Carmack em jogos 3D, foguetes e VR, essas áreas de trabalho aparentemente não relacionadas, tem algo em comum, é a otimização de sistemas de feedback em tempo real em grande escala.

Isso é o que Sam Altman procurava quando o convidou para ingressar na OpenAI.

A arquitetura AGI que ele imaginou deveria ser modular e distribuída, em vez de um enorme modelo centralizado.

A aprendizagem também deve ser aprendizagem on-line contínua, em vez do pré-treinamento atual, onde a maioria dos parâmetros não são mais atualizados.

Meu ponto principal é que se um sistema não puder funcionar a 30 Hz, que é atualizado a cada 33 milissegundos ou mais durante o treinamento, não o usarei.

Ele disse ainda que, como um programador de sistema de baixo nível que pode escrever o código Cuda original e gerenciar a comunicação de rede sozinho, ele poderá fazer alguns trabalhos que outros nem considerarão.

Não se limita nem à estrutura de aprendizagem profunda existente, mas tentará arquitetura de rede e métodos de computação mais eficientes.

O objetivo geral é simular um agente virtual com motivação intrínseca e capacidade de aprendizagem contínua para aprender continuamente em um ambiente virtual.

Não robôs, porque sua experiência na construção de foguetes o fez pensar que quanto menos objetos físicos ele tiver para lidar, melhor**.

Comparado com Carmack, que recentemente se envolveu com AGI, Sutton passou décadas trabalhando nesse problema e tem um plano de pesquisa mais específico.

Embora pouco tenha sido dito neste evento, a parte principal foi escrita em um artigo arXiv na forma de “Projeto Alberta”.

O Projeto Alberta propõe uma estrutura de agente unificada que enfatiza a experiência universal em vez de conjuntos de treinamento específicos, concentra-se na consistência temporal, prioriza métodos que podem produzir efeitos de escala com poder computacional e interação multiagente.

Um roteiro de 12 etapas também foi proposto.

As primeiras seis etapas concentram-se na concepção de um método de aprendizagem contínua sem modelos, e as últimas seis etapas introduzem modelos ambientais e planejamento.

A última etapa é chamada de Amplificação de Inteligência (Amplificação de Inteligência).Um agente pode usar o conhecimento que aprendeu para amplificar e aprimorar a ação, percepção e cognição de outro agente de acordo com alguns princípios gerais.

Sutton vê esse tipo de aprimoramento como uma parte importante da realização de todo o potencial da inteligência artificial.

Neste processo, é muito importante, mas também muito difícil, determinar os indicadores para avaliar o progresso da IA, e a equipa está a explorar diferentes desenvolvimentos.

Além disso, Carmack sempre foi um defensor do código aberto, mas sobre a questão do AGI disse que manteria um certo grau de abertura, mas não divulgaria todos os detalhes do algoritmo**.

Como equipa pequena, Carmack acredita que precisamos de manter um espírito pioneiro e concentrar-nos no desenvolvimento a longo prazo, em vez de interesses a curto prazo.

A comercialização não será considerada prematuramente e não existe uma forma intermediária que possa ser divulgada publicamente como o ChatGPT.

Em relação ao que pode ser alcançado em 2030, Carmack acredita que "há AGI que pode ser demonstrado ao público", a afirmação de Sutton é "Protótipos de IA podem mostrar sinais de vida (sinais de vida)".

2030 se torna um nó chave

Esta não é a primeira vez que 2030 e AGI aparecem ao mesmo tempo.

As principais equipes de IA consideram unanimemente o ano de 2030 como o ponto chave para alcançar a AGI.

Por exemplo, a OpenAI, no seu anúncio de dedicar 20% do seu poder computacional total para estabelecer um departamento de alinhamento de superinteligência, afirmou que acreditamos que a superinteligência chegará nesta década.

Até a comunidade de investimentos tem opiniões semelhantes. Masayoshi Son acaba de apresentar esse PPT na SoftBank World Corporate Conference.

Além da OpenAI e da Keen Technologies, não há muitas organizações trabalhando no desenvolvimento de AGI.

Maior concorrente da OpenAI, Anthropic, que acaba de levantar US$ 4 bilhões em financiamento, seu CEO Dario Amodei mencionou em uma entrevista recente que a IA pode se comportar como um ser humano bem educado dentro de dois ou três anos.

Quando os autores do Transformer, Vaswani e Palmer, deixaram o Google, eles fundaram o AdeptAI com o objetivo de criar inteligência geral.

No entanto, os dois deixaram repentinamente a empresa no início deste ano, deixando apenas um cofundador, David Luan (extrema direita).

Os dois autores do Transformer também fundaram a Essential AI, cuja visão da empresa é menos “olhar para as estrelas” e é uma comercialização mais pragmática de grandes modelos.

Também não existem muitos jogadores nacionais que tenham declarado claramente os objetivos da AGI, sendo os principais o MiniMax e o recém-fundado Dark Side of the Moon por Yang Zhilin.

Links de referência: [1] [2] [3]

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)