Depois que a OpenAI lançou o ChatGPT no final de 2022, a compreensão do campo de investimento no campo da inteligência artificial continuou a se aprofundar. A cadeia da indústria de inteligência artificial pode ser dividida em fornecedores centrais de tecnologia, sistemas de inteligência artificial e usuários de inteligência artificial. A julgar pela percepção geral dos investidores globais, todos percebem agora que a inteligência artificial provavelmente se tornará uma via de investimento durante muito tempo no futuro, semelhante aos computadores de há 30 anos, ou à Internet de há 20 anos. E para o futuro, as aplicações já são uma realidade.
Para entender o investimento em áreas subdivididas, precisamos sempre aprender com os investidores do setor. O conhecido capitalista de risco A16Z continua a fazer apostas pesadas no campo da inteligência artificial. Recentemente eles conversaram com a CTO da OpenAI, Mira Murati. Ela compartilhou a história por trás do ChatGPT e o futuro da inteligência artificial e da interação humano-computador.
Resumo
O ChatGPT surgiu do pensamento sobre como fazer um sistema de inteligência artificial seguro que usa feedback humano para aprendizagem por reforço.
A OpenAI está redefinindo a forma como as pessoas interagem com a informação digital, tornando-se um assistente semelhante a um parceiro e melhorando continuamente a consistência e a segurança dos sistemas de inteligência artificial. Através da situação de produtização, obter feedback de usuários do mundo real é mais do que apenas ficar sentado no laboratório.
ChatGPT está adicionando imagens, vídeos e outros baseados em texto. Isto permite que os modelos forneçam uma imagem mais completa do mundo que nos rodeia, semelhante à forma como entendemos e observamos o mundo.
Embora não exista um modelo único para governar o mundo no futuro, porque as pessoas acabarão por procurar a ferramenta que melhor se adapta às suas necessidades.
#Mira Murati Fundo
Mira nasceu na Albânia, logo após o fim do comunismo. A Albânia naquela época era muito semelhante à Coreia do Norte hoje. Numa era de constantes mudanças e incertezas, a educação é a chave de tudo. Além disso, além dos livros, havia pouca diversão naquela época. Naquela época, Mira procurava respostas nos livros. Mira prefere aquelas verdades da ciência que são estáveis e podem ser estudadas em profundidade. E as fontes das disciplinas de humanidades, como a história e a sociologia, são questionáveis porque a história está em constante mudança. Assim, Mira foi criada com uma tendência intuitiva e natural para as ciências e a matemática. Fundamentalmente falando, Mira ainda está envolvida com matemática na Open AI.
Devido ao seu excelente desempenho acadêmico, Mira recebeu uma bolsa de estudos e concluiu os dois últimos anos do ensino médio no Canadá.
Na faculdade, Mira estudou engenharia mecânica porque acreditava que era a melhor maneira de aplicar o conhecimento a problemas do mundo real. Naquela época, Mira estava muito interessada em formas de levar transporte e energia sustentáveis ao mundo. Seu projeto de graduação na época era construir um carro de corrida híbrido usando supercapacitores.
Logo depois, Mira ingressou na Tesla e participou dos trabalhos no motor duplo do Modelo S. Ela trabalhou com o Model X desde os primeiros dias de seu design inicial e eventualmente liderou todo o lançamento do projeto.
Foi também o trabalho na Tesla que fez com que Mira se interessasse muito pela aplicação da inteligência artificial, especialmente da condução autônoma. Porque pode usar IA e visão computacional para revolucionar as viagens. Ela começou a pensar mais sobre as diferentes aplicações da inteligência artificial. Assim, Mira ficou cada vez mais interessada na IA e nas mudanças que ela poderia causar no mundo.
Especificamente, ela está muito curiosa sobre como a IA afeta a interação humano-computador e a forma como as pessoas interagem com a informação em geral, e está muito interessada em computação espacial. Depois disso, ingressou na Leap Motion, uma empresa negra de tecnologia, como vice-presidente de produto e engenharia. Foi essa experiência que fortaleceu ainda mais suas capacidades de produção.
(A propósito, o fundador do Leap Motion, David Holz, fundou outro popular aplicativo de inteligência artificial, Midjourney, após vender o Leap Motion).
Em 2018, Mira ingressou na OpenAI. Foi aí que ela começou a pensar mais sobre o que aconteceria se ela focasse apenas na versatilidade.
Além disso, a partir da discussão de Mira sobre métodos de pesquisa, podemos ver o seu espírito exploratório para a inovação tecnológica num ambiente incerto:
Às vezes você tira uma soneca e acorda com novas ideias. Ao longo de dias ou semanas, você chegará à solução final. Não é um retorno rápido, nem às vezes é iterativo.
É quase como uma forma diferente de pensar, você está construindo a intuição, mas também tendo disciplina para abordar os problemas e confiar em si mesmo para resolvê-los. Com o tempo, você desenvolverá uma intuição sobre quais problemas realmente precisam ser resolvidos.
Resumo da conversa
O conhecido capitalista de risco A16Z fez uma grande aposta no campo da inteligência artificial. Os trechos a seguir são trechos de uma conversa entre Martin, o gestor do fundo da A16Z, e Mira. Mira compartilhou a história por trás do ChatGPT e o futuro da inteligência artificial e da interação humano-computador. Podemos perceber também que Mira, que tem experiência como gerente de produto, está extremamente preocupada com a aplicabilidade dos produtos.
MARTIN: Você acha que é mais uma questão de sistemas ou de engenharia no momento?
Mira: Ambos. Os problemas de sistemas e de engenharia são enormes e estamos a implementar estas tecnologias e a tentar escalá-las, torná-las mais eficientes e torná-las acessíveis. Isso significa que você não precisa conhecer os meandros do ML para usá-los.
Na verdade, podemos ver um contraste entre fornecer esses modelos por meio da API e fornecer a tecnologia por meio do ChatGPT. É basicamente a mesma tecnologia, com uma possível exceção: ChatGPT possui aprendizagem por reforço e recursos de feedback humano. O que isto significa é que a resposta e a capacidade de captar a imaginação das pessoas e permitir-lhes utilizar esta tecnologia todos os dias é completamente diferente.
interface de linguagem natural
Martin: Também acho que a API ChatGPT é algo muito interessante. Sempre que uso esses modelos em meus programas, sinto como se estivesse envolvendo um supercomputador em um ábaco. Às vezes eu digo: “Vou dar ao modelo um teclado e um mouse e deixá-lo fazer a programação.” A API está em inglês e eu direi o que fazer e ele fará toda a programação. Estou curioso, quando você projeta algo como ChatGPT, você acha que com o tempo a interface real será uma linguagem natural ou você acha que os programas ainda têm um grande papel a desempenhar?
Mira: A programação se torna menos abstrata no ChatGPT e podemos conversar com computadores usando linguagem natural em alta largura de banda. Mas talvez outro vetor seja que esta tecnologia esteja nos ajudando a entender como realmente trabalhar com ela, em vez de programá-la. A camada de programação está ficando mais fácil e acessível porque você pode programar em linguagem natural. Mas o outro lado que estamos vendo com o ChatGPT é que você pode realmente trabalhar com o modelo como um parceiro ou colega.
MARTIN: Será interessante ver o que acontece com o tempo. Você decidiu ter uma API no ChatGTP, mas como colega você não tem uma API. Você está conversando com um colega. Com o tempo, essas coisas podem evoluir para falar uma linguagem natural. Ou você acha que sempre é necessário haver um componente no sistema que seja uma máquina de estados finitos ou um computador tradicional?
Mira: Há um ponto de inflexão neste momento em que estamos redefinindo a forma como interagimos com a informação digital, e é na forma destes sistemas de inteligência artificial que estamos fazendo isso. Talvez tenhamos vários sistemas de IA, talvez todos tenham capacidades diferentes. Talvez tenhamos um sistema universal que nos acompanhe por toda parte, conheça minha formação, o que fiz hoje, quais são meus objetivos na vida e no trabalho, me ajude nos momentos difíceis, me oriente, etc. Como você pode imaginar, isso é superpoderoso.
Agora, estamos num ponto de inflexão na sua redefinição. Não sabemos como será o futuro e estamos trabalhando duro para disponibilizar essas ferramentas e técnicas a muitas outras pessoas, para que possam experimentar e ver o que acontece. Esta é a estratégia que usamos desde o início.
No ChatGPT da semana anterior, ficamos preocupados que não fosse bom o suficiente. Todos nós vimos o que aconteceu. Nós o divulgamos e as pessoas nos disseram que ele fez um ótimo trabalho na descoberta de novos casos. Isso é o que acontece quando você torna essas coisas acessíveis e fáceis de usar, e torna mais fácil para todos usá-las.
Roteiro de desenvolvimento OpenAI
MARTIN: Quando se trata de inteligência artificial, as pessoas ainda não sabem pensar. Tem que haver alguma orientação, você tem que fazer algumas escolhas. Você está na OpenAI e precisa decidir o que fazer a seguir. Se você pudesse percorrer esse processo de tomada de decisão: como você decide o que fazer, no que focar, o que liberar ou como se posicionar?
Mira: Se você pensar em como surgiu o ChatGPT, não era um produto que queríamos lançar. Na verdade, as suas verdadeiras raízes remontam a mais de 5 anos atrás, quando pensávamos em como fazer um sistema de inteligência artificial seguro. Você não quer necessariamente que um ser humano escreva a função objetivo, porque não quer que um substituto faça isso para uma função objetivo complexa, ou não quer cometer erros porque isso pode ser muito perigoso.
É aqui que entra a aprendizagem por reforço usando feedback humano. O que realmente estamos tentando alcançar é alinhar os sistemas de IA com os valores humanos e permitir que aceitem feedback humano. Com base no feedback humano, é mais provável que você faça a coisa certa e menos provável que faça algo que não deseja. Então, depois de desenvolvermos o GPT-3 e lançá-lo na API, foi a primeira vez que realmente aplicamos nossa pesquisa de segurança ao mundo real. Isto é conseguido através do modelo de seguimento de instruções.
Usamos essa abordagem para receber sugestões dos clientes que usam a API e, em seguida, fazemos com que os contratados gerem feedback para o modelo aprender. Ajustamos o modelo com base nesses dados e construímos um modelo que seguiu as instruções. É mais provável que eles sigam a intenção do usuário e façam o que você realmente deseja. Isso é muito poderoso porque a segurança da IA não é apenas um conceito teórico sobre o qual você fica sentado e conversando. Na verdade, estamos entrando na era dos sistemas de segurança de inteligência artificial, como integrar isso ao mundo real?
Claramente, em grandes modelos de linguagem vemos grandes representações de conceitos e ideias do mundo real. Mas em termos de produção, existem muitos problemas. Um dos maiores problemas é obviamente a alucinação. Temos trabalhado em questões de ilusão e autenticidade. Como você faz com que esses modelos expressem incerteza?
O antecessor do ChatGPT foi na verdade outro projeto que chamamos de WebGPT, que usava recuperação para obter informações e citar fontes. Este projeto acabou se tornando ChatGPT porque achávamos que as conversas eram especiais. Permite fazer perguntas, corrigir a outra pessoa e expressar incerteza.
MARTIN: Erros são constantemente descobertos porque você está interagindo...
Mira: Sim, com esse tipo de interação você pode compreender a verdade mais profunda. Começamos a ir nessa direção e na época estávamos fazendo isso com o GPT-3 e o GPT-3.5. Do ponto de vista da segurança, estamos muito entusiasmados com isso. Mas uma coisa que as pessoas esquecem é que neste momento treinamos o GPT-4. Dentro da OpenAI, estamos muito entusiasmados com o GPT-4 e temos o ChatGPT no espelho retrovisor. Então percebemos: “Vamos passar seis meses focando no alinhamento e na segurança do GPT-4” e começamos a pensar no que poderíamos fazer. Uma das principais coisas é colocar o ChatGPT nas mãos dos pesquisadores e eles podem nos dar feedback agora que temos esse modelo conversacional. O objetivo inicial é obter feedback dos pesquisadores e utilizá-lo para tornar o GPT-4 mais consistente, seguro, robusto e confiável.
MARTIN: Quando você diz consistência e segurança, você está certo em incluir isso, que ele faz o que quiser? Ou você quer dizer seguro, realmente protegendo-se de algum tipo de dano?
Mira: Por consistente, geralmente quero dizer que corresponde à intenção do usuário, portanto, faz exatamente o que você deseja. Mas a segurança também inclui outras coisas, como abuso, em que os usuários tentam intencionalmente usar um modelo para produzir resultados prejudiciais. Com o ChatGPT, estamos tentando aumentar a probabilidade de o modelo fazer o que você deseja, tornando-o mais consistente. Queríamos também descobrir o problema da alucinação, que é obviamente um problema extremamente difícil.
Acho que esta abordagem de usar feedback humano para aprendizagem por reforço, se tentarmos fazer isso, talvez seja disso que precisamos.
MARTIN: Então, nenhum grande plano? O que precisamos fazer para alcançar a AGI? É apenas uma questão de dar um passo de cada vez.
Mira: Sim. E todas as pequenas decisões que você toma ao longo do caminho. Talvez seja mais provável que isso aconteça porque tomamos uma decisão estratégica há alguns anos para buscar o produto. Fazemos isso porque acreditamos que é impossível simplesmente sentar em um laboratório e desenvolver essas coisas no vácuo, sem feedback de usuários do mundo real. Essa é a suposição. Acho que isso nos ajuda a tomar algumas dessas decisões e a construir a infraestrutura subjacente para que possamos eventualmente implantar algo como o ChatGPT.
Lei das Proporções
MARTIN: Você pode repetir a lei da proporção. Acho que esse é um grande problema que todo mundo tem. O ritmo do progresso é surpreendente. Mas a história da inteligência artificial parece ser que em algum momento você atinge retornos decrescentes, e isso não é paramétrico. Isso meio que diminui. Da sua perspectiva (que é provavelmente a perspectiva mais sábia em todo o setor), você acha que a lei do dimensionamento se manterá e continuaremos a ver progresso, ou você acha que estamos caminhando para retornos decrescentes?
Mira: Não há evidências de que, à medida que continuarmos a expandir o modelo nos eixos de dados e computacionais, não obteremos modelos melhores e mais poderosos. Se isso irá até a AGI (Inteligência Geral Artificial) é uma questão diferente. Neste processo, alguns outros avanços e avanços podem ser necessários. Para realmente obter muitos benefícios desses modelos maiores, as leis de escala ainda têm um longo caminho a percorrer.
MARTIN: Como você define AGI?
Mira: Em nosso regulamento OpenAI. Nós o definimos como um sistema de computador que pode realizar a maior parte do trabalho intelectual de forma autônoma.
Martin: Eu estava almoçando e Robert Nishihara da Anyscale estava lá. Ele fez o que chamo de pergunta de Robert Nishihara. Acho que é realmente uma caracterização muito boa. Ele disse: "Há um continuum entre computadores e Einsteins. Você vai de computadores para gatos, de gatos para pessoas normais, e de pessoas normais para Einsteins." Então ele fez a pergunta: "Estamos em um continuum. localização? Qual problemas serão resolvidos?”
Todos concordam que sabemos como passar de gato a ser humano. Não sabemos como passar de um computador a um gato porque é um problema universal de percepção. Estamos perto, mas ainda não chegamos lá, e não sabemos realmente como fazer Einstein, e esse é o raciocínio definido.
Mira: Você pode conseguir muito com o ajuste fino, mas no geral, eu acho, na maioria das missões, estamos no nível de estagiário agora. O problema é a confiabilidade. Você não pode confiar totalmente no sistema para fazer o que você deseja o tempo todo. Em muitas tarefas, ele simplesmente não consegue fazer isso. Como você melhora a confiabilidade ao longo do tempo e, em seguida, expande os novos recursos que esses modelos podem oferecer?
Penso que é importante prestar atenção a estas capacidades emergentes, mesmo que sejam pouco fiáveis. Especialmente para as pessoas que estão construindo uma empresa hoje, você realmente quer pensar: "O que é possível hoje? O que você vê hoje?"Esses modelos se tornam confiáveis muito rapidamente.
**Um único modelo pode conquistar o mundo? **
MARTIN: Vou perguntar imediatamente: preveja como será o futuro. Mas antes que eu pergunte, de forma egoísta, como você acha que a economia disso vai se desenrolar? Eu te digo o que isso me lembra. Isso me lembra a indústria do silício. Lembro-me que na década de 90, quando você comprava um computador, havia muitos processadores de escrita estranhos. “Isso é correspondência de strings, isso é ponto flutuante, isso é criptografia”, tudo consumindo a CPU.
Acontece que a versatilidade é tão poderosa que cria um certo tipo de economia na qual tanto a Intel quanto a AMD são participantes. Claro, custa muito dinheiro fabricar esses chips.
Então você pode imaginar dois futuros. No futuro, a versatilidade será tão forte que os modelos grandes irão essencialmente absorver todas as funcionalidades ao longo do tempo. E depois há outro futuro onde há vários modelos diferentes, todos os tipos de peças, diferentes pontos no espaço de design. Você tem a seguinte sensação: o OpenAI é único ou tem muitos modelos?
Mira: Depende do que você quer fazer. Claramente, a trajetória agora é que estes sistemas de inteligência artificial farão cada vez mais o trabalho que estamos a fazer. Serão capazes de operar de forma autónoma, mas precisaremos de fornecer orientação, orientação e supervisão. Mas não quero fazer muito trabalho repetitivo que tenho que fazer todos os dias. Quero me concentrar em outras coisas. Talvez não tenhamos que trabalhar 10, 12 horas por dia, talvez possamos trabalhar menos e ser mais produtivos. É isso que espero. Em termos de funcionamento da plataforma, ainda hoje você pode perceber que temos muitos modelos disponíveis através da API, desde modelos muito pequenos até nossos modelos de última geração.
Nem sempre é necessário usar o modelo mais poderoso e capaz. Às vezes, eles só precisam de um modelo que realmente se adapte ao seu caso de uso específico e que seja muito mais econômico. Acho que haverá um intervalo. Mas em termos de como imaginamos os jogos de plataforma, definitivamente queremos que as pessoas construam com base no nosso modelo e queremos dar-lhes as ferramentas para tornar isso mais fácil e dar-lhes cada vez mais acesso e controle corretos. Você pode trazer seus dados, pode personalizar esses modelos. Você pode realmente focar nas camadas fora do modelo e definir o produto, o que é realmente muito, muito difícil. Há muito foco agora na construção de mais modelos, mas é muito difícil construir bons produtos com base nesses modelos.
Próximos 5 a 10 anos
MARTIN: Gostaria que você previsse onde você acha que isso estará daqui a três, cinco ou 10 anos.
Mira: Acho que o modelo fundacional hoje tem uma grande representação do mundo no texto. Estamos adicionando outros modelos, como imagens, vídeos e todo tipo de outras coisas, para que esses modelos possam fornecer uma imagem mais completa do mundo que nos rodeia, semelhante à forma como entendemos e observamos o mundo. O mundo existe não apenas em palavras, mas também em imagens. Definitivamente estamos caminhando nessa direção e teremos modelos maiores que empregam todos esses padrões no trabalho de pré-treinamento. Nós realmente queremos que esses modelos pré-treinados entendam o mundo como nós.
Na parte de saída do modelo, introduzimos aprendizagem por reforço com feedback humano. Queremos que o modelo realmente faça o que pedimos e que isso seja confiável. Isto requer muito trabalho e talvez a introdução da navegação para que novas informações possam ser obtidas, referenciadas e alucinações resolvidas. Eu não acho que seja possível. Acho que isso é alcançável.
Do lado do produto, queremos reunir tudo isso em uma coleção de produtos com os quais as pessoas trabalham e fornecer uma plataforma sobre a qual as pessoas possam construir. Se você realmente for para fora, esses modelos serão muito, muito poderosos. Obviamente, com isso vem o medo de que estes modelos muito poderosos sejam inconsistentes com as nossas intenções. Um grande desafio é o Super Alignment, que é um desafio técnico difícil. Temos uma equipe inteira na OpenAI focada nesse problema.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
a16z fala com o CTO da OpenAI: Como a tecnologia de IA impulsionará a inovação futura?
Escrito por São Paulo
Depois que a OpenAI lançou o ChatGPT no final de 2022, a compreensão do campo de investimento no campo da inteligência artificial continuou a se aprofundar. A cadeia da indústria de inteligência artificial pode ser dividida em fornecedores centrais de tecnologia, sistemas de inteligência artificial e usuários de inteligência artificial. A julgar pela percepção geral dos investidores globais, todos percebem agora que a inteligência artificial provavelmente se tornará uma via de investimento durante muito tempo no futuro, semelhante aos computadores de há 30 anos, ou à Internet de há 20 anos. E para o futuro, as aplicações já são uma realidade.
Para entender o investimento em áreas subdivididas, precisamos sempre aprender com os investidores do setor. O conhecido capitalista de risco A16Z continua a fazer apostas pesadas no campo da inteligência artificial. Recentemente eles conversaram com a CTO da OpenAI, Mira Murati. Ela compartilhou a história por trás do ChatGPT e o futuro da inteligência artificial e da interação humano-computador.
Resumo
#Mira Murati Fundo
Mira nasceu na Albânia, logo após o fim do comunismo. A Albânia naquela época era muito semelhante à Coreia do Norte hoje. Numa era de constantes mudanças e incertezas, a educação é a chave de tudo. Além disso, além dos livros, havia pouca diversão naquela época. Naquela época, Mira procurava respostas nos livros. Mira prefere aquelas verdades da ciência que são estáveis e podem ser estudadas em profundidade. E as fontes das disciplinas de humanidades, como a história e a sociologia, são questionáveis porque a história está em constante mudança. Assim, Mira foi criada com uma tendência intuitiva e natural para as ciências e a matemática. Fundamentalmente falando, Mira ainda está envolvida com matemática na Open AI.
Devido ao seu excelente desempenho acadêmico, Mira recebeu uma bolsa de estudos e concluiu os dois últimos anos do ensino médio no Canadá.
Na faculdade, Mira estudou engenharia mecânica porque acreditava que era a melhor maneira de aplicar o conhecimento a problemas do mundo real. Naquela época, Mira estava muito interessada em formas de levar transporte e energia sustentáveis ao mundo. Seu projeto de graduação na época era construir um carro de corrida híbrido usando supercapacitores.
Logo depois, Mira ingressou na Tesla e participou dos trabalhos no motor duplo do Modelo S. Ela trabalhou com o Model X desde os primeiros dias de seu design inicial e eventualmente liderou todo o lançamento do projeto.
Foi também o trabalho na Tesla que fez com que Mira se interessasse muito pela aplicação da inteligência artificial, especialmente da condução autônoma. Porque pode usar IA e visão computacional para revolucionar as viagens. Ela começou a pensar mais sobre as diferentes aplicações da inteligência artificial. Assim, Mira ficou cada vez mais interessada na IA e nas mudanças que ela poderia causar no mundo.
Especificamente, ela está muito curiosa sobre como a IA afeta a interação humano-computador e a forma como as pessoas interagem com a informação em geral, e está muito interessada em computação espacial. Depois disso, ingressou na Leap Motion, uma empresa negra de tecnologia, como vice-presidente de produto e engenharia. Foi essa experiência que fortaleceu ainda mais suas capacidades de produção.
(A propósito, o fundador do Leap Motion, David Holz, fundou outro popular aplicativo de inteligência artificial, Midjourney, após vender o Leap Motion).
Em 2018, Mira ingressou na OpenAI. Foi aí que ela começou a pensar mais sobre o que aconteceria se ela focasse apenas na versatilidade.
Além disso, a partir da discussão de Mira sobre métodos de pesquisa, podemos ver o seu espírito exploratório para a inovação tecnológica num ambiente incerto:
Resumo da conversa
O conhecido capitalista de risco A16Z fez uma grande aposta no campo da inteligência artificial. Os trechos a seguir são trechos de uma conversa entre Martin, o gestor do fundo da A16Z, e Mira. Mira compartilhou a história por trás do ChatGPT e o futuro da inteligência artificial e da interação humano-computador. Podemos perceber também que Mira, que tem experiência como gerente de produto, está extremamente preocupada com a aplicabilidade dos produtos.
MARTIN: Você acha que é mais uma questão de sistemas ou de engenharia no momento?
Mira: Ambos. Os problemas de sistemas e de engenharia são enormes e estamos a implementar estas tecnologias e a tentar escalá-las, torná-las mais eficientes e torná-las acessíveis. Isso significa que você não precisa conhecer os meandros do ML para usá-los.
Na verdade, podemos ver um contraste entre fornecer esses modelos por meio da API e fornecer a tecnologia por meio do ChatGPT. É basicamente a mesma tecnologia, com uma possível exceção: ChatGPT possui aprendizagem por reforço e recursos de feedback humano. O que isto significa é que a resposta e a capacidade de captar a imaginação das pessoas e permitir-lhes utilizar esta tecnologia todos os dias é completamente diferente.
interface de linguagem natural
Martin: Também acho que a API ChatGPT é algo muito interessante. Sempre que uso esses modelos em meus programas, sinto como se estivesse envolvendo um supercomputador em um ábaco. Às vezes eu digo: “Vou dar ao modelo um teclado e um mouse e deixá-lo fazer a programação.” A API está em inglês e eu direi o que fazer e ele fará toda a programação. Estou curioso, quando você projeta algo como ChatGPT, você acha que com o tempo a interface real será uma linguagem natural ou você acha que os programas ainda têm um grande papel a desempenhar?
Mira: A programação se torna menos abstrata no ChatGPT e podemos conversar com computadores usando linguagem natural em alta largura de banda. Mas talvez outro vetor seja que esta tecnologia esteja nos ajudando a entender como realmente trabalhar com ela, em vez de programá-la. A camada de programação está ficando mais fácil e acessível porque você pode programar em linguagem natural. Mas o outro lado que estamos vendo com o ChatGPT é que você pode realmente trabalhar com o modelo como um parceiro ou colega.
MARTIN: Será interessante ver o que acontece com o tempo. Você decidiu ter uma API no ChatGTP, mas como colega você não tem uma API. Você está conversando com um colega. Com o tempo, essas coisas podem evoluir para falar uma linguagem natural. Ou você acha que sempre é necessário haver um componente no sistema que seja uma máquina de estados finitos ou um computador tradicional?
Mira: Há um ponto de inflexão neste momento em que estamos redefinindo a forma como interagimos com a informação digital, e é na forma destes sistemas de inteligência artificial que estamos fazendo isso. Talvez tenhamos vários sistemas de IA, talvez todos tenham capacidades diferentes. Talvez tenhamos um sistema universal que nos acompanhe por toda parte, conheça minha formação, o que fiz hoje, quais são meus objetivos na vida e no trabalho, me ajude nos momentos difíceis, me oriente, etc. Como você pode imaginar, isso é superpoderoso.
Agora, estamos num ponto de inflexão na sua redefinição. Não sabemos como será o futuro e estamos trabalhando duro para disponibilizar essas ferramentas e técnicas a muitas outras pessoas, para que possam experimentar e ver o que acontece. Esta é a estratégia que usamos desde o início.
No ChatGPT da semana anterior, ficamos preocupados que não fosse bom o suficiente. Todos nós vimos o que aconteceu. Nós o divulgamos e as pessoas nos disseram que ele fez um ótimo trabalho na descoberta de novos casos. Isso é o que acontece quando você torna essas coisas acessíveis e fáceis de usar, e torna mais fácil para todos usá-las.
Roteiro de desenvolvimento OpenAI
MARTIN: Quando se trata de inteligência artificial, as pessoas ainda não sabem pensar. Tem que haver alguma orientação, você tem que fazer algumas escolhas. Você está na OpenAI e precisa decidir o que fazer a seguir. Se você pudesse percorrer esse processo de tomada de decisão: como você decide o que fazer, no que focar, o que liberar ou como se posicionar?
Mira: Se você pensar em como surgiu o ChatGPT, não era um produto que queríamos lançar. Na verdade, as suas verdadeiras raízes remontam a mais de 5 anos atrás, quando pensávamos em como fazer um sistema de inteligência artificial seguro. Você não quer necessariamente que um ser humano escreva a função objetivo, porque não quer que um substituto faça isso para uma função objetivo complexa, ou não quer cometer erros porque isso pode ser muito perigoso.
É aqui que entra a aprendizagem por reforço usando feedback humano. O que realmente estamos tentando alcançar é alinhar os sistemas de IA com os valores humanos e permitir que aceitem feedback humano. Com base no feedback humano, é mais provável que você faça a coisa certa e menos provável que faça algo que não deseja. Então, depois de desenvolvermos o GPT-3 e lançá-lo na API, foi a primeira vez que realmente aplicamos nossa pesquisa de segurança ao mundo real. Isto é conseguido através do modelo de seguimento de instruções.
Usamos essa abordagem para receber sugestões dos clientes que usam a API e, em seguida, fazemos com que os contratados gerem feedback para o modelo aprender. Ajustamos o modelo com base nesses dados e construímos um modelo que seguiu as instruções. É mais provável que eles sigam a intenção do usuário e façam o que você realmente deseja. Isso é muito poderoso porque a segurança da IA não é apenas um conceito teórico sobre o qual você fica sentado e conversando. Na verdade, estamos entrando na era dos sistemas de segurança de inteligência artificial, como integrar isso ao mundo real?
Claramente, em grandes modelos de linguagem vemos grandes representações de conceitos e ideias do mundo real. Mas em termos de produção, existem muitos problemas. Um dos maiores problemas é obviamente a alucinação. Temos trabalhado em questões de ilusão e autenticidade. Como você faz com que esses modelos expressem incerteza?
O antecessor do ChatGPT foi na verdade outro projeto que chamamos de WebGPT, que usava recuperação para obter informações e citar fontes. Este projeto acabou se tornando ChatGPT porque achávamos que as conversas eram especiais. Permite fazer perguntas, corrigir a outra pessoa e expressar incerteza.
MARTIN: Erros são constantemente descobertos porque você está interagindo...
Mira: Sim, com esse tipo de interação você pode compreender a verdade mais profunda. Começamos a ir nessa direção e na época estávamos fazendo isso com o GPT-3 e o GPT-3.5. Do ponto de vista da segurança, estamos muito entusiasmados com isso. Mas uma coisa que as pessoas esquecem é que neste momento treinamos o GPT-4. Dentro da OpenAI, estamos muito entusiasmados com o GPT-4 e temos o ChatGPT no espelho retrovisor. Então percebemos: “Vamos passar seis meses focando no alinhamento e na segurança do GPT-4” e começamos a pensar no que poderíamos fazer. Uma das principais coisas é colocar o ChatGPT nas mãos dos pesquisadores e eles podem nos dar feedback agora que temos esse modelo conversacional. O objetivo inicial é obter feedback dos pesquisadores e utilizá-lo para tornar o GPT-4 mais consistente, seguro, robusto e confiável.
MARTIN: Quando você diz consistência e segurança, você está certo em incluir isso, que ele faz o que quiser? Ou você quer dizer seguro, realmente protegendo-se de algum tipo de dano?
Mira: Por consistente, geralmente quero dizer que corresponde à intenção do usuário, portanto, faz exatamente o que você deseja. Mas a segurança também inclui outras coisas, como abuso, em que os usuários tentam intencionalmente usar um modelo para produzir resultados prejudiciais. Com o ChatGPT, estamos tentando aumentar a probabilidade de o modelo fazer o que você deseja, tornando-o mais consistente. Queríamos também descobrir o problema da alucinação, que é obviamente um problema extremamente difícil.
Acho que esta abordagem de usar feedback humano para aprendizagem por reforço, se tentarmos fazer isso, talvez seja disso que precisamos.
MARTIN: Então, nenhum grande plano? O que precisamos fazer para alcançar a AGI? É apenas uma questão de dar um passo de cada vez.
Mira: Sim. E todas as pequenas decisões que você toma ao longo do caminho. Talvez seja mais provável que isso aconteça porque tomamos uma decisão estratégica há alguns anos para buscar o produto. Fazemos isso porque acreditamos que é impossível simplesmente sentar em um laboratório e desenvolver essas coisas no vácuo, sem feedback de usuários do mundo real. Essa é a suposição. Acho que isso nos ajuda a tomar algumas dessas decisões e a construir a infraestrutura subjacente para que possamos eventualmente implantar algo como o ChatGPT.
Lei das Proporções
MARTIN: Você pode repetir a lei da proporção. Acho que esse é um grande problema que todo mundo tem. O ritmo do progresso é surpreendente. Mas a história da inteligência artificial parece ser que em algum momento você atinge retornos decrescentes, e isso não é paramétrico. Isso meio que diminui. Da sua perspectiva (que é provavelmente a perspectiva mais sábia em todo o setor), você acha que a lei do dimensionamento se manterá e continuaremos a ver progresso, ou você acha que estamos caminhando para retornos decrescentes?
Mira: Não há evidências de que, à medida que continuarmos a expandir o modelo nos eixos de dados e computacionais, não obteremos modelos melhores e mais poderosos. Se isso irá até a AGI (Inteligência Geral Artificial) é uma questão diferente. Neste processo, alguns outros avanços e avanços podem ser necessários. Para realmente obter muitos benefícios desses modelos maiores, as leis de escala ainda têm um longo caminho a percorrer.
MARTIN: Como você define AGI?
Mira: Em nosso regulamento OpenAI. Nós o definimos como um sistema de computador que pode realizar a maior parte do trabalho intelectual de forma autônoma.
Martin: Eu estava almoçando e Robert Nishihara da Anyscale estava lá. Ele fez o que chamo de pergunta de Robert Nishihara. Acho que é realmente uma caracterização muito boa. Ele disse: "Há um continuum entre computadores e Einsteins. Você vai de computadores para gatos, de gatos para pessoas normais, e de pessoas normais para Einsteins." Então ele fez a pergunta: "Estamos em um continuum. localização? Qual problemas serão resolvidos?”
Todos concordam que sabemos como passar de gato a ser humano. Não sabemos como passar de um computador a um gato porque é um problema universal de percepção. Estamos perto, mas ainda não chegamos lá, e não sabemos realmente como fazer Einstein, e esse é o raciocínio definido.
Mira: Você pode conseguir muito com o ajuste fino, mas no geral, eu acho, na maioria das missões, estamos no nível de estagiário agora. O problema é a confiabilidade. Você não pode confiar totalmente no sistema para fazer o que você deseja o tempo todo. Em muitas tarefas, ele simplesmente não consegue fazer isso. Como você melhora a confiabilidade ao longo do tempo e, em seguida, expande os novos recursos que esses modelos podem oferecer?
Penso que é importante prestar atenção a estas capacidades emergentes, mesmo que sejam pouco fiáveis. Especialmente para as pessoas que estão construindo uma empresa hoje, você realmente quer pensar: "O que é possível hoje? O que você vê hoje?"Esses modelos se tornam confiáveis muito rapidamente.
**Um único modelo pode conquistar o mundo? **
MARTIN: Vou perguntar imediatamente: preveja como será o futuro. Mas antes que eu pergunte, de forma egoísta, como você acha que a economia disso vai se desenrolar? Eu te digo o que isso me lembra. Isso me lembra a indústria do silício. Lembro-me que na década de 90, quando você comprava um computador, havia muitos processadores de escrita estranhos. “Isso é correspondência de strings, isso é ponto flutuante, isso é criptografia”, tudo consumindo a CPU.
Acontece que a versatilidade é tão poderosa que cria um certo tipo de economia na qual tanto a Intel quanto a AMD são participantes. Claro, custa muito dinheiro fabricar esses chips.
Então você pode imaginar dois futuros. No futuro, a versatilidade será tão forte que os modelos grandes irão essencialmente absorver todas as funcionalidades ao longo do tempo. E depois há outro futuro onde há vários modelos diferentes, todos os tipos de peças, diferentes pontos no espaço de design. Você tem a seguinte sensação: o OpenAI é único ou tem muitos modelos?
Mira: Depende do que você quer fazer. Claramente, a trajetória agora é que estes sistemas de inteligência artificial farão cada vez mais o trabalho que estamos a fazer. Serão capazes de operar de forma autónoma, mas precisaremos de fornecer orientação, orientação e supervisão. Mas não quero fazer muito trabalho repetitivo que tenho que fazer todos os dias. Quero me concentrar em outras coisas. Talvez não tenhamos que trabalhar 10, 12 horas por dia, talvez possamos trabalhar menos e ser mais produtivos. É isso que espero. Em termos de funcionamento da plataforma, ainda hoje você pode perceber que temos muitos modelos disponíveis através da API, desde modelos muito pequenos até nossos modelos de última geração.
Nem sempre é necessário usar o modelo mais poderoso e capaz. Às vezes, eles só precisam de um modelo que realmente se adapte ao seu caso de uso específico e que seja muito mais econômico. Acho que haverá um intervalo. Mas em termos de como imaginamos os jogos de plataforma, definitivamente queremos que as pessoas construam com base no nosso modelo e queremos dar-lhes as ferramentas para tornar isso mais fácil e dar-lhes cada vez mais acesso e controle corretos. Você pode trazer seus dados, pode personalizar esses modelos. Você pode realmente focar nas camadas fora do modelo e definir o produto, o que é realmente muito, muito difícil. Há muito foco agora na construção de mais modelos, mas é muito difícil construir bons produtos com base nesses modelos.
Próximos 5 a 10 anos
MARTIN: Gostaria que você previsse onde você acha que isso estará daqui a três, cinco ou 10 anos.
Mira: Acho que o modelo fundacional hoje tem uma grande representação do mundo no texto. Estamos adicionando outros modelos, como imagens, vídeos e todo tipo de outras coisas, para que esses modelos possam fornecer uma imagem mais completa do mundo que nos rodeia, semelhante à forma como entendemos e observamos o mundo. O mundo existe não apenas em palavras, mas também em imagens. Definitivamente estamos caminhando nessa direção e teremos modelos maiores que empregam todos esses padrões no trabalho de pré-treinamento. Nós realmente queremos que esses modelos pré-treinados entendam o mundo como nós.
Na parte de saída do modelo, introduzimos aprendizagem por reforço com feedback humano. Queremos que o modelo realmente faça o que pedimos e que isso seja confiável. Isto requer muito trabalho e talvez a introdução da navegação para que novas informações possam ser obtidas, referenciadas e alucinações resolvidas. Eu não acho que seja possível. Acho que isso é alcançável.
Do lado do produto, queremos reunir tudo isso em uma coleção de produtos com os quais as pessoas trabalham e fornecer uma plataforma sobre a qual as pessoas possam construir. Se você realmente for para fora, esses modelos serão muito, muito poderosos. Obviamente, com isso vem o medo de que estes modelos muito poderosos sejam inconsistentes com as nossas intenções. Um grande desafio é o Super Alignment, que é um desafio técnico difícil. Temos uma equipe inteira na OpenAI focada nesse problema.