Na cognição humana, parece que a inteligência artificial geral (AGI) tem sido usada há muito tempo para definir a forma final de inteligência artificial e o objetivo final de desenvolvimento.
Embora a OpenAI tenha definido há muito tempo o objetivo da empresa de alcançar a AGI. Mas para o que é AGI, o próprio CEO da OpenAI, Sam Altman, não poderia dar uma definição específica.
Quanto a quando a AGI vai chegar, ela só existe nos cenários narrativos de um futuro próximo lançados pelos chefes, parece estar ao alcance, mas está longe.
Hoje, no conhecido site estrangeiro de podcasts Substack, um veterano da indústria de inteligência artificial chamado Valentino Zocca, do ponto de vista narrativo da história humana, escreveu um artigo majestoso, que conta de forma abrangente e profunda a história dos seres humanos e artificiais em geral inteligência. A distância entre a inteligência.
No artigo, AGI é definido aproximadamente como um "modelo que pode entender o mundo", não apenas "um modelo que descreve o mundo".
Ele acredita que, se os humanos quiserem realmente alcançar o mundo da AGI, eles precisam construir um "sistema que possa questionar sua própria realidade e ser capaz de explorar a si mesmos".
Nesse grande processo de exploração, talvez ninguém tenha qualificação e habilidade para dar um roteiro específico.
Como os cientistas da OpenAI Kenneth Stanley e Joel Lehman explicam em seu livro recente, "Por que a grandeza não pode ser planejada", a busca pela grandeza tem uma direção, mas os resultados específicos podem ser inesperados.
**A que distância estamos da AGI? **
Há cerca de 200.000 anos, o Homo sapiens começou a andar ereto sobre a terra e, ao mesmo tempo, também começou a viajar no campo do pensamento e do conhecimento.
Uma série de descobertas e invenções na história humana moldaram a história humana. Algumas delas não apenas afetam nossa linguagem e pensamento, mas também afetam potencialmente nossa constituição biológica.
Por exemplo, a descoberta do fogo permitiu ao homem primitivo cozinhar alimentos. Alimentos cozidos fornecem mais energia para o cérebro, promovendo assim o desenvolvimento da inteligência humana.
Da invenção da roda à criação da máquina a vapor, a humanidade deu início à Revolução Industrial. A eletricidade abriu caminho para os desenvolvimentos tecnológicos que temos hoje, e a impressão acelerou a disseminação de novas ideias e culturas, estimulando o desenvolvimento da inovação humana.
No entanto, o progresso não vem apenas da descoberta de novas dimensões físicas, mas também de novas ideias.
A história do mundo ocidental vai desde a queda do Império Romano até a Idade Média, passando por um renascimento durante o Renascimento e o Iluminismo.
Mas com o crescimento do conhecimento humano, a espécie humana começou a perceber sua própria insignificância.
Mais de dois mil anos depois de Sócrates, os humanos começaram a "saber que nada sabiam", e nossa Terra não era mais vista como o centro do universo. O próprio universo está se expandindo e nós somos apenas um grão de poeira nele.
Mude a percepção da realidade
Mas a maior mudança na percepção humana do mundo ocorreu no século XX.
Em 1931, Kurt Gödel publicou o teorema da incompletude.
Apenas quatro anos depois, para continuar o tema da "completude", Einstein, Podolsky e Rosen publicaram um artigo intitulado "Can Quantum-Mechanical Deion of Physical Reality Be Considered Complete?" de?)
Posteriormente, Niels Bohr refutou este artigo, provando a validade da física quântica.
O teorema de Gödel mostra que nem mesmo a matemática pode provar tudo de forma conclusiva – os humanos sempre terão fatos improváveis – enquanto a teoria quântica mostra que nosso mundo carece de certeza, impedindo-nos de prever certos eventos, como a velocidade dos elétrons.
Apesar da famosa declaração de Einstein de que "Deus não joga dados com o universo", em essência, as limitações humanas estão em plena exibição quando se trata de simplesmente prever ou entender as coisas na física.
Não importa o quanto os humanos tentem projetar um universo matemático que seja executado pelas regras formuladas por humanos, esse universo abstrato é sempre incompleto e há axiomas objetivos que não podem ser provados e não podem ser negados escondidos nele.
Além da formulação abstrata da matemática, o mundo humano também é expresso pela filosofia que descreve a realidade.
Mas os humanos se veem incapazes de descrever, articular completamente, entender ou até mesmo definir essas representações.
No início do século XX, o conceito de "verdade" ainda era incerto, e conceitos como "arte", "beleza" e "vida" careciam de um consenso básico no nível de definição.
O mesmo é verdade para muitos outros conceitos importantes, "sabedoria" e "consciência" também não podem ser claramente definidos pelos próprios humanos.
Definição de inteligência
A fim de preencher a lacuna na definição de inteligência, em 2007, Legg e Hart propuseram a definição de inteligência de máquina no livro “Inteligência Geral”: “Inteligência mede a capacidade de um agente (Agente) de atingir objetivos em um ambiente em mudança ."
Da mesma forma, em "Resolução de problemas e inteligência", Hambrick, Burgoyne e Altman argumentam que a resolução de problemas não é apenas um aspecto ou característica da inteligência, mas a essência da inteligência.
Essas duas declarações são semelhantes na descrição da linguagem e ambas acreditam que "alcançar um objetivo" pode ser associado a "resolver um problema".
No livro "Mainstream Science on Intelligence: An Editorial with 52 Signatories", Gottfredson resumiu as definições de inteligência de vários pesquisadores de uma perspectiva mais ampla:
"Inteligência é uma habilidade mental muito geral que inclui raciocínio, planejamento, resolução de problemas, pensamento abstrato, compreensão de ideias complexas, aprendizado rápido e aprendizado com a experiência. Não é apenas conhecimento de livros, habilidades acadêmicas estreitas ou habilidades para fazer testes. , reflete uma capacidade mais ampla e profunda de entender o que está ao seu redor – a capacidade de 'capturar', 'entender' as coisas ou 'descobrir' o que fazer”.
Esta definição leva a construção da inteligência para além de meras "habilidades de resolução de problemas" e introduz duas dimensões principais: a capacidade de aprender com a experiência e a capacidade de compreender o ambiente circundante.
Em outras palavras, a inteligência não deve ser vista como uma capacidade abstrata de encontrar soluções para problemas gerais, mas sim como uma capacidade concreta de aplicar o que aprendemos com a experiência anterior às capacidades do nosso ambiente para as diferentes situações que possam surgir.
Isso ressalta a ligação intrínseca entre inteligência e aprendizado.
No livro "Como Aprendemos", Stanislas Dehaene define a aprendizagem como "aprender é o processo de formar um modelo do mundo", o que significa que a inteligência é também uma habilidade que requer a compreensão do ambiente circundante e a criação de um modelo interno para descrever o ambiente.
Portanto, a inteligência também requer a capacidade de criar modelos do mundo, mas não apenas essa capacidade.
**Quão inteligentes são as máquinas atuais? **
Ao discutir inteligência artificial geral (AGI) e inteligência artificial estreita (Narrow AI), geralmente enfatizamos a diferença entre elas.
A inteligência artificial estreita (ou inteligência artificial fraca) é muito comum e bem-sucedida, muitas vezes superando os humanos em tarefas específicas.
Por exemplo, este exemplo bem conhecido, em 2016, a inteligência artificial de sentido estreito AlphaGo derrotou o campeão mundial Li Shidol com uma pontuação de 4 a 1 no jogo Go, que é um bom exemplo.
No entanto, em 2023, o jogador de xadrez amador Kellin Perline usou táticas com as quais a inteligência artificial não conseguia lidar para vencer uma partida para humanos no campo Go, o que mostra que a inteligência artificial estreita tem limitações em alguns casos.
Falta-lhe a capacidade humana de reconhecer táticas incomuns e ajustar-se de acordo.
Além disso, no nível mais básico, até mesmo um cientista de dados novato entende que todo modelo de aprendizado de máquina do qual a inteligência artificial depende precisa encontrar um equilíbrio entre viés e variação.
Isso significa aprender com dados, entender e generalizar soluções, não apenas memorizar.
A IA estreita usa o poder de computação e a capacidade de memória dos computadores para gerar modelos complexos com base em grandes quantidades de dados observados com relativa facilidade.
No entanto, uma vez que as condições mudam ligeiramente, esses modelos geralmente não são generalizáveis.
Seria como se tivéssemos inventado uma teoria da gravidade para descrever a Terra com base em observações, apenas para descobrir que os objetos são muito mais leves na Lua.
Se usarmos variáveis em vez de números com base em nosso conhecimento teórico da gravidade, podemos entender como usar os valores corretos para prever rapidamente a magnitude da gravidade em cada planeta ou lua.
Mas se usarmos apenas equações numéricas sem variáveis, não seremos capazes de generalizar adequadamente essas equações para outros planetas sem reescrevê-las.
Em outras palavras, a inteligência artificial pode não ser capaz de realmente "aprender", mas apenas destilar informações ou experiências. AI não entende formando um modelo abrangente do mundo, mas apenas criando um resumo para expressar.
**Nós realmente já alcançamos o AGI? **
AGI agora é geralmente entendido como se referindo a: um sistema de inteligência artificial que pode entender e raciocinar em vários campos cognitivos no nível humano ou superior, ou seja, inteligência artificial forte.
E nossa inteligência artificial atual para tarefas específicas é apenas uma inteligência artificial fraca, como o AlphaGO de Go.
AGI representa um sistema de inteligência artificial com inteligência de nível humano que cobre vários campos no campo do pensamento abstrato.
Isso significa que o que precisamos para AGI é um modelo do mundo que seja consistente com a experiência e possa fazer previsões precisas.
Como Everitt, Lea e Hutter apontam na "Revisão da Literatura de Segurança" (Revisão da Literatura de Segurança da AGI): A AGI ainda não chegou.
Para a pergunta "Quão longe estamos do verdadeiro AGI?", as diferentes previsões variam amplamente.
Mas é consistente com os pontos de vista da maioria dos pesquisadores de inteligência artificial e instituições autorizadas, ou seja, os seres humanos estão a pelo menos alguns anos de distância da verdadeira inteligência artificial geral.
Após o lançamento do GPT-4, enfrentando a inteligência artificial mais poderosa da atualidade, muitas pessoas consideram o GPT-4 como a centelha da AGI.
Em 13 de abril, a Microsoft, parceira da OpenAI, lançou um artigo "Sparks of Artificial General Intelligence: Early experiment with GPT-4" (Sparks of General Artificial Intelligence: Early experiment with GPT-4).
Endereço de papel:
que menciona:
"O GPT-4 não apenas domina a linguagem, mas também resolve tarefas de ponta que abrangem matemática, codificação, visão, medicina, direito, psicologia e outros campos, sem exigir instruções especiais.
E em todas as tarefas acima, o nível de desempenho do GPT-4 é quase igual ao nível humano. Com base na amplitude e profundidade dos recursos do GPT-4, acreditamos que ele pode ser visto como uma versão quase completa, mas não completa, da inteligência artificial geral. "
Mas, como comentou Maarten Sap, professor da Carnegie Mellon University, a "centelha da AGI" é apenas um exemplo de algumas grandes empresas que incluem trabalhos de pesquisa como relações públicas.
Por outro lado, o pesquisador e empresário de máquinas Rodney Brooks aponta um equívoco: “Ao avaliar a funcionalidade de sistemas como o ChatGPT, muitas vezes igualamos desempenho a capacidade”.
Equacionar erroneamente desempenho com habilidade significa que o GPT-4 gera descrições somativas do mundo que considera uma compreensão do mundo real.
Isso tem a ver com os dados nos quais o modelo de IA é treinado.
A maioria dos modelos de hoje são treinados apenas em texto e não têm a capacidade de falar, ouvir, cheirar e viver no mundo real.
Esta situação é semelhante à alegoria da caverna de Platão: as pessoas que vivem na caverna só podem ver a sombra na parede, mas não podem reconhecer a existência real das coisas.
Modelos de mundo treinados apenas em texto têm apenas a garantia de serem gramaticalmente corretos. Mas, em essência, não entende a que se refere a linguagem e carece do senso comum do contato direto com o ambiente.
Principais limitações do modelo grande atual
O desafio mais controverso dos modelos de linguagem grandes (LLMs) é sua tendência a alucinar.
Alucinações referem-se a situações em que um modelo falsifica referências e fatos, ou confunde inferências lógicas, inferências causais, etc., e gera conteúdo sem sentido.
A ilusão de grandes modelos de linguagem decorre de sua falta de compreensão das relações causais entre os eventos.
No artigo "Is ChatGPT a Good Causal Reasoner? A Comprehensive uation", os pesquisadores confirmaram este fato:
Grandes modelos de linguagem como o ChatGPT, independentemente de haver uma relação na realidade, tendem a assumir que existe uma relação causal entre os eventos.
Endereço de papel:
Os pesquisadores finalmente concluíram:
"O ChatGPT é um excelente explicador causal, mas não é um bom indutor causal."
Da mesma forma, esta conclusão também pode ser estendida a outros LLMs.
Isso significa que o LLM essencialmente só tem a capacidade de indução causal por meio da observação, mas não a capacidade de dedução causal.
Isso também leva às limitações do LLM.Se inteligência significa aprender com a experiência e transformar o conteúdo aprendido em um modelo de mundo para entender o ambiente circundante, então a inferência causal, como elemento básico do aprendizado, não é possível para a inteligência.
Os LLMs existentes carecem desse aspecto, e é por isso que Yann LeCun acredita que o atual modelo de linguagem grande não pode se tornar AGI.
para concluir
Conforme revelado pelo nascimento da mecânica quântica no início do século 20, a realidade é muitas vezes diferente da nossa intuição formada pela observação diária.
A linguagem, o conhecimento, os dados de texto, até mesmo o vídeo, o áudio e outros materiais que construímos são apenas uma parte muito limitada da realidade que podemos experimentar.
Assim como exploramos, aprendemos e dominamos uma realidade que desafia nossa intuição e experiência, a AGI só será verdadeiramente realizada quando pudermos construir sistemas que tenham a capacidade de questionar sua própria realidade, capazes de auto-indagação.
E, pelo menos nesta fase, devemos construir um modelo que possa fazer inferências causais e entender o mundo.
Essa perspectiva é mais um passo à frente na história da humanidade, implicando uma maior compreensão da natureza do nosso mundo.
Embora o surgimento da AGI enfraqueça nosso valor único e a importância de nossa existência, por meio do progresso contínuo e da expansão dos limites cognitivos, entenderemos com mais clareza o status dos seres humanos no universo e a relação entre os seres humanos e o relacionamento com o universo.
Referências:
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
GPT-4 apenas a centelha de AGI? LLM acabará saindo, o modelo mundial é o futuro
Fonte original: Xinzhiyuan
Na cognição humana, parece que a inteligência artificial geral (AGI) tem sido usada há muito tempo para definir a forma final de inteligência artificial e o objetivo final de desenvolvimento.
Quanto a quando a AGI vai chegar, ela só existe nos cenários narrativos de um futuro próximo lançados pelos chefes, parece estar ao alcance, mas está longe.
Hoje, no conhecido site estrangeiro de podcasts Substack, um veterano da indústria de inteligência artificial chamado Valentino Zocca, do ponto de vista narrativo da história humana, escreveu um artigo majestoso, que conta de forma abrangente e profunda a história dos seres humanos e artificiais em geral inteligência. A distância entre a inteligência.
Ele acredita que, se os humanos quiserem realmente alcançar o mundo da AGI, eles precisam construir um "sistema que possa questionar sua própria realidade e ser capaz de explorar a si mesmos".
Nesse grande processo de exploração, talvez ninguém tenha qualificação e habilidade para dar um roteiro específico.
Como os cientistas da OpenAI Kenneth Stanley e Joel Lehman explicam em seu livro recente, "Por que a grandeza não pode ser planejada", a busca pela grandeza tem uma direção, mas os resultados específicos podem ser inesperados.
**A que distância estamos da AGI? **
Há cerca de 200.000 anos, o Homo sapiens começou a andar ereto sobre a terra e, ao mesmo tempo, também começou a viajar no campo do pensamento e do conhecimento.
Uma série de descobertas e invenções na história humana moldaram a história humana. Algumas delas não apenas afetam nossa linguagem e pensamento, mas também afetam potencialmente nossa constituição biológica.
Por exemplo, a descoberta do fogo permitiu ao homem primitivo cozinhar alimentos. Alimentos cozidos fornecem mais energia para o cérebro, promovendo assim o desenvolvimento da inteligência humana.
Da invenção da roda à criação da máquina a vapor, a humanidade deu início à Revolução Industrial. A eletricidade abriu caminho para os desenvolvimentos tecnológicos que temos hoje, e a impressão acelerou a disseminação de novas ideias e culturas, estimulando o desenvolvimento da inovação humana.
No entanto, o progresso não vem apenas da descoberta de novas dimensões físicas, mas também de novas ideias.
A história do mundo ocidental vai desde a queda do Império Romano até a Idade Média, passando por um renascimento durante o Renascimento e o Iluminismo.
Mas com o crescimento do conhecimento humano, a espécie humana começou a perceber sua própria insignificância.
Mais de dois mil anos depois de Sócrates, os humanos começaram a "saber que nada sabiam", e nossa Terra não era mais vista como o centro do universo. O próprio universo está se expandindo e nós somos apenas um grão de poeira nele.
Mude a percepção da realidade
Mas a maior mudança na percepção humana do mundo ocorreu no século XX.
Em 1931, Kurt Gödel publicou o teorema da incompletude.
Apenas quatro anos depois, para continuar o tema da "completude", Einstein, Podolsky e Rosen publicaram um artigo intitulado "Can Quantum-Mechanical Deion of Physical Reality Be Considered Complete?" de?)
Posteriormente, Niels Bohr refutou este artigo, provando a validade da física quântica.
O teorema de Gödel mostra que nem mesmo a matemática pode provar tudo de forma conclusiva – os humanos sempre terão fatos improváveis – enquanto a teoria quântica mostra que nosso mundo carece de certeza, impedindo-nos de prever certos eventos, como a velocidade dos elétrons.
Apesar da famosa declaração de Einstein de que "Deus não joga dados com o universo", em essência, as limitações humanas estão em plena exibição quando se trata de simplesmente prever ou entender as coisas na física.
Não importa o quanto os humanos tentem projetar um universo matemático que seja executado pelas regras formuladas por humanos, esse universo abstrato é sempre incompleto e há axiomas objetivos que não podem ser provados e não podem ser negados escondidos nele.
Além da formulação abstrata da matemática, o mundo humano também é expresso pela filosofia que descreve a realidade.
Mas os humanos se veem incapazes de descrever, articular completamente, entender ou até mesmo definir essas representações.
No início do século XX, o conceito de "verdade" ainda era incerto, e conceitos como "arte", "beleza" e "vida" careciam de um consenso básico no nível de definição.
O mesmo é verdade para muitos outros conceitos importantes, "sabedoria" e "consciência" também não podem ser claramente definidos pelos próprios humanos.
Definição de inteligência
A fim de preencher a lacuna na definição de inteligência, em 2007, Legg e Hart propuseram a definição de inteligência de máquina no livro “Inteligência Geral”: “Inteligência mede a capacidade de um agente (Agente) de atingir objetivos em um ambiente em mudança ."
Da mesma forma, em "Resolução de problemas e inteligência", Hambrick, Burgoyne e Altman argumentam que a resolução de problemas não é apenas um aspecto ou característica da inteligência, mas a essência da inteligência.
Essas duas declarações são semelhantes na descrição da linguagem e ambas acreditam que "alcançar um objetivo" pode ser associado a "resolver um problema".
"Inteligência é uma habilidade mental muito geral que inclui raciocínio, planejamento, resolução de problemas, pensamento abstrato, compreensão de ideias complexas, aprendizado rápido e aprendizado com a experiência. Não é apenas conhecimento de livros, habilidades acadêmicas estreitas ou habilidades para fazer testes. , reflete uma capacidade mais ampla e profunda de entender o que está ao seu redor – a capacidade de 'capturar', 'entender' as coisas ou 'descobrir' o que fazer”.
Esta definição leva a construção da inteligência para além de meras "habilidades de resolução de problemas" e introduz duas dimensões principais: a capacidade de aprender com a experiência e a capacidade de compreender o ambiente circundante.
Em outras palavras, a inteligência não deve ser vista como uma capacidade abstrata de encontrar soluções para problemas gerais, mas sim como uma capacidade concreta de aplicar o que aprendemos com a experiência anterior às capacidades do nosso ambiente para as diferentes situações que possam surgir.
Isso ressalta a ligação intrínseca entre inteligência e aprendizado.
No livro "Como Aprendemos", Stanislas Dehaene define a aprendizagem como "aprender é o processo de formar um modelo do mundo", o que significa que a inteligência é também uma habilidade que requer a compreensão do ambiente circundante e a criação de um modelo interno para descrever o ambiente.
Portanto, a inteligência também requer a capacidade de criar modelos do mundo, mas não apenas essa capacidade.
**Quão inteligentes são as máquinas atuais? **
Ao discutir inteligência artificial geral (AGI) e inteligência artificial estreita (Narrow AI), geralmente enfatizamos a diferença entre elas.
A inteligência artificial estreita (ou inteligência artificial fraca) é muito comum e bem-sucedida, muitas vezes superando os humanos em tarefas específicas.
Por exemplo, este exemplo bem conhecido, em 2016, a inteligência artificial de sentido estreito AlphaGo derrotou o campeão mundial Li Shidol com uma pontuação de 4 a 1 no jogo Go, que é um bom exemplo.
No entanto, em 2023, o jogador de xadrez amador Kellin Perline usou táticas com as quais a inteligência artificial não conseguia lidar para vencer uma partida para humanos no campo Go, o que mostra que a inteligência artificial estreita tem limitações em alguns casos.
Falta-lhe a capacidade humana de reconhecer táticas incomuns e ajustar-se de acordo.
Além disso, no nível mais básico, até mesmo um cientista de dados novato entende que todo modelo de aprendizado de máquina do qual a inteligência artificial depende precisa encontrar um equilíbrio entre viés e variação.
Isso significa aprender com dados, entender e generalizar soluções, não apenas memorizar.
A IA estreita usa o poder de computação e a capacidade de memória dos computadores para gerar modelos complexos com base em grandes quantidades de dados observados com relativa facilidade.
No entanto, uma vez que as condições mudam ligeiramente, esses modelos geralmente não são generalizáveis.
Seria como se tivéssemos inventado uma teoria da gravidade para descrever a Terra com base em observações, apenas para descobrir que os objetos são muito mais leves na Lua.
Se usarmos variáveis em vez de números com base em nosso conhecimento teórico da gravidade, podemos entender como usar os valores corretos para prever rapidamente a magnitude da gravidade em cada planeta ou lua.
Mas se usarmos apenas equações numéricas sem variáveis, não seremos capazes de generalizar adequadamente essas equações para outros planetas sem reescrevê-las.
Em outras palavras, a inteligência artificial pode não ser capaz de realmente "aprender", mas apenas destilar informações ou experiências. AI não entende formando um modelo abrangente do mundo, mas apenas criando um resumo para expressar.
**Nós realmente já alcançamos o AGI? **
AGI agora é geralmente entendido como se referindo a: um sistema de inteligência artificial que pode entender e raciocinar em vários campos cognitivos no nível humano ou superior, ou seja, inteligência artificial forte.
E nossa inteligência artificial atual para tarefas específicas é apenas uma inteligência artificial fraca, como o AlphaGO de Go.
AGI representa um sistema de inteligência artificial com inteligência de nível humano que cobre vários campos no campo do pensamento abstrato.
Isso significa que o que precisamos para AGI é um modelo do mundo que seja consistente com a experiência e possa fazer previsões precisas.
Como Everitt, Lea e Hutter apontam na "Revisão da Literatura de Segurança" (Revisão da Literatura de Segurança da AGI): A AGI ainda não chegou.
Para a pergunta "Quão longe estamos do verdadeiro AGI?", as diferentes previsões variam amplamente.
Mas é consistente com os pontos de vista da maioria dos pesquisadores de inteligência artificial e instituições autorizadas, ou seja, os seres humanos estão a pelo menos alguns anos de distância da verdadeira inteligência artificial geral.
Após o lançamento do GPT-4, enfrentando a inteligência artificial mais poderosa da atualidade, muitas pessoas consideram o GPT-4 como a centelha da AGI.
Em 13 de abril, a Microsoft, parceira da OpenAI, lançou um artigo "Sparks of Artificial General Intelligence: Early experiment with GPT-4" (Sparks of General Artificial Intelligence: Early experiment with GPT-4).
que menciona:
"O GPT-4 não apenas domina a linguagem, mas também resolve tarefas de ponta que abrangem matemática, codificação, visão, medicina, direito, psicologia e outros campos, sem exigir instruções especiais.
E em todas as tarefas acima, o nível de desempenho do GPT-4 é quase igual ao nível humano. Com base na amplitude e profundidade dos recursos do GPT-4, acreditamos que ele pode ser visto como uma versão quase completa, mas não completa, da inteligência artificial geral. "
Mas, como comentou Maarten Sap, professor da Carnegie Mellon University, a "centelha da AGI" é apenas um exemplo de algumas grandes empresas que incluem trabalhos de pesquisa como relações públicas.
Por outro lado, o pesquisador e empresário de máquinas Rodney Brooks aponta um equívoco: “Ao avaliar a funcionalidade de sistemas como o ChatGPT, muitas vezes igualamos desempenho a capacidade”.
Equacionar erroneamente desempenho com habilidade significa que o GPT-4 gera descrições somativas do mundo que considera uma compreensão do mundo real.
Isso tem a ver com os dados nos quais o modelo de IA é treinado.
A maioria dos modelos de hoje são treinados apenas em texto e não têm a capacidade de falar, ouvir, cheirar e viver no mundo real.
Esta situação é semelhante à alegoria da caverna de Platão: as pessoas que vivem na caverna só podem ver a sombra na parede, mas não podem reconhecer a existência real das coisas.
Principais limitações do modelo grande atual
O desafio mais controverso dos modelos de linguagem grandes (LLMs) é sua tendência a alucinar.
Alucinações referem-se a situações em que um modelo falsifica referências e fatos, ou confunde inferências lógicas, inferências causais, etc., e gera conteúdo sem sentido.
A ilusão de grandes modelos de linguagem decorre de sua falta de compreensão das relações causais entre os eventos.
No artigo "Is ChatGPT a Good Causal Reasoner? A Comprehensive uation", os pesquisadores confirmaram este fato:
Grandes modelos de linguagem como o ChatGPT, independentemente de haver uma relação na realidade, tendem a assumir que existe uma relação causal entre os eventos.
Os pesquisadores finalmente concluíram:
"O ChatGPT é um excelente explicador causal, mas não é um bom indutor causal."
Da mesma forma, esta conclusão também pode ser estendida a outros LLMs.
Isso significa que o LLM essencialmente só tem a capacidade de indução causal por meio da observação, mas não a capacidade de dedução causal.
Isso também leva às limitações do LLM.Se inteligência significa aprender com a experiência e transformar o conteúdo aprendido em um modelo de mundo para entender o ambiente circundante, então a inferência causal, como elemento básico do aprendizado, não é possível para a inteligência.
Os LLMs existentes carecem desse aspecto, e é por isso que Yann LeCun acredita que o atual modelo de linguagem grande não pode se tornar AGI.
para concluir
Conforme revelado pelo nascimento da mecânica quântica no início do século 20, a realidade é muitas vezes diferente da nossa intuição formada pela observação diária.
A linguagem, o conhecimento, os dados de texto, até mesmo o vídeo, o áudio e outros materiais que construímos são apenas uma parte muito limitada da realidade que podemos experimentar.
Assim como exploramos, aprendemos e dominamos uma realidade que desafia nossa intuição e experiência, a AGI só será verdadeiramente realizada quando pudermos construir sistemas que tenham a capacidade de questionar sua própria realidade, capazes de auto-indagação.
E, pelo menos nesta fase, devemos construir um modelo que possa fazer inferências causais e entender o mundo.
Essa perspectiva é mais um passo à frente na história da humanidade, implicando uma maior compreensão da natureza do nosso mundo.
Embora o surgimento da AGI enfraqueça nosso valor único e a importância de nossa existência, por meio do progresso contínuo e da expansão dos limites cognitivos, entenderemos com mais clareza o status dos seres humanos no universo e a relação entre os seres humanos e o relacionamento com o universo.
Referências: