Diálogo com Hippakis, vencedor do Prêmio Turing: A maior ameaça trazida pela IA é transformar humanos em "escravos de escravos"

Fonte: Tecnologia Tencent See More

Desde o início de 2023, o ChatGPT mergulhou o mundo em um frenesi de IA. Com a estreia do GPT4, seus poderosos recursos emergentes fazem as pessoas sentirem que em apenas alguns anos, a IA se tornará uma existência onipotente.

Mas onde está o limite superior da IA com base no grande paradigma do modelo de linguagem Transformer? Ele pode realmente nos substituir completamente? Tem havido muitas respostas para essas perguntas. Algumas pessoas pensam que o grande modelo de linguagem trará uma nova era, muito próxima da inteligência artificial que pode completar todo o trabalho humano; mas algumas pessoas pensam que é apenas um papagaio aleatório, que não consegue entender o mundo. Atualmente, não importa o ponto de vista, falta uma interpretação suficiente e um sistema bem formado.

A fim de permitir que as pessoas vejam essa questão de forma mais completa, Joseph Hifakis, um acadêmico estrangeiro da Academia Chinesa de Ciências, escreveu "Entendendo e Mudando o Mundo", expondo seu entendimento de décadas sobre a inteligência artificial levando à AGI a partir da perspectiva de princípios cognitivos pensando em caminhos potenciais. Joseph Schiffakis ganhou o Prêmio Turing dez anos antes de Hinton et al. Desta vez, ele expôs muito claramente a partir da perspectiva dos princípios cognitivos sua "capacidade e incapacidade de inteligência artificial" e "o caminho que leva à AGI". ” pensamento de décadas.

丨Foco

  1. Os seres humanos e a inteligência artificial são complementares, em vez de substitutos um do outro. Os seres humanos possuem conhecimento de senso comum e a capacidade abstrata de formar modelos, que não podem ser alcançados pelo atual paradigma da inteligência artificial, portanto, não podem formar inovações baseadas em princípios. A inteligência artificial pode prever coisas complexas que podem ter um grande número de variáveis sem dominar os princípios. Isso é o que os humanos não conseguem devido à limitação da capacidade cognitiva.Isso é chamado de "oráculo AI" por Hippakis, e pode trazer uma "nova ciência". 2. A maior ameaça que a IA trará é que a dependência dos seres humanos dela pode fazer com que desistamos de nossos próprios julgamentos indefinidamente, percamos o poder de tomada de decisão e, eventualmente, nos tornemos "escravos de escravos". Para evitar isso, os humanos devem ser capazes de dominar todos os processos de desenvolvimento e aplicação do conhecimento, garantindo que essas máquinas não tomem decisões importantes para nós sozinhas. 3. De acordo com a situação de capacidades complementares, para os seres humanos, o melhor cenário futuro é uma cooperação harmoniosa entre máquinas e seres humanos, e uma nova prosperidade pode ser alcançada por meio dessa cooperação. Nesse processo, a sociedade deve desenvolver e aplicar tecnologia com o objetivo de melhorar a vida humana.

01 A IA atual está longe de ser AGI

**Tecnologia Tencent: O que o surgimento do ChatGPT significa para a inteligência artificial? É um novo paradigma ou mais uma aplicação específica de um paradigma existente? **

Joseph Schiffakis: Acho que o surgimento do ChatGPT e de outros modelos de linguagem é um passo importante no desenvolvimento da inteligência artificial. **Na verdade, passamos por uma mudança de paradigma de forma que praticamente qualquer consulta em linguagem natural pode ser respondida, muitas vezes com uma resposta muito relevante para a pergunta. Grandes modelos de linguagem resolvem problemas de longa data no processamento de linguagem natural. **Esta é uma área em que os pesquisadores não tiveram sucesso por décadas, tradicionalmente abordada pela escola de pensamento simbolista, que separa a sintaxe e a semântica da linguagem para construir regras para a inteligência artificial.

Agora, os grandes modelos de linguagem adotam uma abordagem diferente e consideram que o significado de uma palavra é definido por todos os contextos em que ela é usada. Eles usam aprendizado de máquina para realizar cálculos de distribuições de probabilidade. Para palavras, essa distribuição de probabilidade é usada para prever a próxima palavra mais provável em uma frase. Este é um método muito simples, mas eficaz. É um pouco ingênuo, mas acaba sendo ótimo para resumir o texto. Claro, a natureza da solução que emprega também determina suas limitações. Os modelos de linguagem são ótimos para criar resumos de algum texto ou até mesmo escrever poesia. Se você fizer um resumo da história chinesa do século 20, pode fazer um bom trabalho. Mas, por outro lado, se você fizer algumas perguntas muito precisas ou resolver alguns problemas lógicos muito simples, pode dar errado. Podemos entender isso porque esse tipo de pergunta é um modelo independente do contexto, portanto, não podemos verificar a coerência do texto e as respostas que ele fornece.

**Tecnologia Tencent: Agora existem muitas novas tecnologias, como árvores lógicas (LOT), que podem ajudar as máquinas a se orientarem para entender os processos lógicos. Agora, grandes modelos de linguagem estão se treinando para desenvolver processos lógicos mais específicos ou complexos. Existem muitas camadas em uma rede neural e, quanto mais alto o nível, mais abstrato é o entendimento. É possível que haja algo como um modelo ou uma compreensão estrutural do mundo nesses neurônios de nível superior? **

Joseph Schiffakis: Em meu livro, explico que humanos e máquinas desenvolvem e aplicam diferentes tipos de conhecimento. Esse conhecimento permite que humanos e máquinas resolvam diferentes tipos de problemas, dependendo de quão válido e geral seja. **Uma distinção importante é entre "conhecimento científico e técnico" e "conhecimento experiencial tateado adquirido através da aprendizagem". Por exemplo, quando falo, quando caminho, meu cérebro realmente resolve problemas muito difíceis, mas não entendo como eles funcionam, e As redes neurais geram o mesmo conhecimento empírico implícito, permitindo-nos resolver problemas sem entender como eles trabalham. **

Isso é o que chamamos de conhecimento baseado em dados ou orientado por dados. Pelo contrário, é muito importante que o melhor conhecimento científico e técnico seja baseado na utilização de modelos matemáticos que proporcionem uma compreensão profunda dos fenómenos físicos dos objetos e componentes. Por exemplo, quando você constrói uma ponte, pode ter certeza (por seus princípios) de que a ponte não cairá nos próximos séculos. No entanto, com redes neurais, podemos fazer certas previsões, mas não entendemos como elas funcionam e é impossível construir uma teoria que explique o comportamento das redes neurais. **Essa propriedade torna modelos de linguagem grandes severamente limitados em aplicativos críticos sem envolvimento humano.

A questão é se esses sistemas GPT-LM podem alcançar inteligência de nível humano. Este é o problema. Acho que há muita confusão sobre o que é inteligência e como alcançá-la. Porque se não tivermos um conceito claro de inteligência, não podemos desenvolver teorias sobre como ela funciona e não podemos definir claramente a inteligência.

E hoje há muita confusão. Recentemente, escrevi um artigo discutindo esse assunto. Na verdade, se você abrir um dicionário, como o Oxford Dictionary, verá que **inteligência é definida como a capacidade de aprender, entender e pensar sobre o mundo, atingir objetivos e agir com propósito. **

**As máquinas podem fazer coisas impressionantes. Eles podem superar os humanos em jogos. Eles são capazes de realizar várias tarefas. Grandes conquistas também foram feitas recentemente. Eles podem realizar tarefas relacionadas a habilidades sensoriais, como reconhecimento visual. No entanto, as máquinas não podem superar os humanos quando se trata de consciência situacional, adaptação às mudanças ambientais e pensamento criativo. **Simplesmente, GPT é muito bom em traduzir linguagem natural, mas não pode dirigir um carro. Você não pode usar o GPT para dirigir um carro. Ainda há uma grande distância entre eles. Acho que ainda temos um longo caminho a percorrer. **Hoje temos apenas inteligência artificial fraca, temos apenas alguns componentes da inteligência geral. Precisamos de algo mais. **

Acho que um grande passo em direção à inteligência geral serão os sistemas autônomos. O conceito está agora claro, os sistemas autónomos surgem da necessidade de automatizar ainda mais as organizações existentes, substituindo os humanos por agentes autónomos, o que também é previsto pela Internet das Coisas. Na verdade, estamos falando de carros autônomos, redes inteligentes, fábricas inteligentes, fazendas inteligentes, redes de telecomunicações mais inteligentes. **Esses sistemas são muito diferentes do Narrow AI, pois esses sistemas são compostos de agentes restritos em tempo real e precisam lidar com muitos objetivos diferentes. Esses objetivos envolvem mudanças em ações e atividades em muitos domínios diferentes, e o GPT não é bom nisso, é bom em lidar com linguagem natural e transformação de documentos. **Além disso, precisamos de sistemas que possam trabalhar harmoniosamente com agentes humanos. Tudo isso não é possível com outros modelos de linguagem. Portanto, ainda estamos muito longe da inteligência artificial geral. Claro, tudo se resume ao que exatamente consideramos inteligência, porque se a inteligência for definida apenas como conversas e jogos, então chegamos à inteligência artificial geral, mas discordo dessa definição.

**Tecnologia Tencent: O teste padrão de inteligência no passado é o teste de Turing. Obviamente GPT passou no teste de Turing em termos de diálogo, mas não é uma inteligência autônoma. Nesse caso, como podemos julgar a inteligência da IA? **

Joseph Schiffakis: Recentemente, escrevi um artigo argumentando que o teste de Turing não é suficiente. **Proponho outro teste, que chamo de teste de substituição. Na verdade, a ideia é que se eu pudesse substituir uma máquina por outro agente realizando uma tarefa, diria que esse agente é tão inteligente quanto o agente que executa a tarefa. **Se eu pudesse substituir um humano por uma máquina para dirigir um carro, ensinar um humano ou ser um bom cirurgião, diria que uma máquina é tão inteligente quanto um humano.

Então, se você pegar essa definição, em vez de testar, você pensaria que a inteligência humana é na verdade uma combinação de habilidades. Então você entende o quão longe estamos da inteligência geral? Neste teste alternativo, algumas ações podem ter que ser executadas por uma máquina, como um robô. Quando você quer fazer jardinagem, precisa de um robô para fazer isso. O GPT é apenas um modelo de linguagem, não inclui essas partes do robô.

**Tecnologia Tencent: De acordo com sua definição, veremos a lacuna entre a inteligência artificial e a inteligência humana desaparecer apenas quando a computação e os sistemas puderem executar automaticamente grandes quantidades de texto e se adaptar a ambientes em mudança. E agora aplicativos como AutoGPT ou Baby AGI podem dividir a tarefa em diferentes etapas e tentar atingir o objetivo da tarefa por meio de diferentes processos. É bastante automatizado de certa forma. Você acha que está se aproximando da AGI no processo? **

Joseph Schiffakis: Há muitos problemas aqui, incluindo problemas de engenharia de sistemas. **Não basta ter um agente superinteligente, porque você também deve garantir que seu comportamento possa ser explicado. **Este também é um problema que discuto extensivamente em minha tese, que é o problema da inteligência artificial explicável ou inteligência artificial segura de que todo mundo está falando.

O que as pessoas não entendem é que **com redes neurais, não podemos entender seu comportamento. Obviamente, você não pode explicar por que produz tal saída, porque não pode ter um modelo matemático para descrever seu comportamento. Claro, entendemos perfeitamente como as funções matemáticas de cada nó da rede neural são calculadas. **É apenas uma combinação linear de entradas, mais algumas funções não lineares, para que possamos entender o comportamento de cada nó. **Mas quando tentamos entender as propriedades emergentes de toda a rede neural, nos desesperamos. **Mas este não é um problema específico da IA, é um problema geral da ciência.

Você não pode inferir as propriedades da água apenas pelas propriedades dos átomos de oxigênio e hidrogênio. Mesmo que você entenda isso completamente, há um problema de escala e complexidade. Este é o ponto de desespero. **Não podemos usar a lógica da combinação de tecnologia ou reducionismo para entender o comportamento geral da rede neural por meio do comportamento dos elementos nela. Portanto, a única maneira de aplicá-lo a uma rede neural é testá-la, porque não podemos verificar seu comportamento e não podemos raciocinar sobre isso. **Mas se apenas testes forem aplicados, isso significa que você está adotando uma abordagem puramente experimental, não de compreensão teórica. Portanto, o tipo de conteúdo que você pode realmente testar varia muito: por exemplo, você não pode testar problemas de segurança holísticos porque não pode analisar o comportamento geral. Mas você pode fazer testes de segurança defensivamente.

Sempre aplicamos testes a hardware e software. Mas, para testar, você tem que ter critérios de quanto tempo deve durar o teste. Para hardware e software, temos modelos e padrões de abrangência. Mas para redes neurais, não temos esse padrão. Não estou dizendo que este é um problema muito difícil de resolver, **Para redes neurais, temos algumas possibilidades alternativas, como exemplos adversários. Mas essas manipulações quebram uma certa robustez em seu comportamento. **Então você vê, se eu fizer uma pergunta, você dará uma resposta. Se eu modificar um pouco sua pergunta, você daria algumas respostas semelhantes se fosse um ser humano. Mas sabemos que quando mudamos ligeiramente a entrada para um neurônio, a resposta pode ser muito diferente. Portanto, isso também é algo a considerar.

02 A emergência nunca pode ser compreendida

**Tecnologia Tencent: Você acha inexplicável o surgimento desse conceito, ou seja, a transformação de capacidades básicas em capacidades mais avançadas? **

Joseph Schiffakis: Sim. Você tira um assunto como a física. Física é uma matéria muito madura. Os físicos tentam fazer uma conexão lógica entre a teoria das partículas, a teoria quântica ou a relatividade geral, e acho que nunca conseguirão isso porque há um problema de escala. Acho que existem problemas semelhantes em qualquer tipo de sistema.

**Tencent Technology: Então, na sua opinião, por causa desse fenômeno inexplicável, não podemos realmente prever o que o grande modelo de linguagem pode fazer? **

Joseph Schiffakis: Obviamente, não podemos construir um modelo para prever o que ele pode fazer. Não podemos construir modelos, quero dizer modelos matemáticos. Aqui, a comunidade de IA usa a palavra modelo para significar uma rede neural, o que é uma fonte de confusão.

Acho que devemos adotar outra abordagem holística. Já que não podemos formar um modelo relevante, **talvez possamos ter uma maneira de formar uma teoria baseada em testes e observações empíricas. É suposto ser uma teoria de teste sobre propriedades estatísticas. **Mas, pelo que entendi, temos algumas necessidades que são tecnicamente difíceis de atender nas redes neurais atuais.

**Tecnologia Tencent: Sim. Então, para entender essas habilidades que emergem deles, precisamos estabelecer uma disciplina como a psicologia para entendê-la? **

Joseph Schiffakis: Exatamente. Esta é uma boa pergunta. Mas será um pouco problemático usar o próprio GPT para estabelecer tal entendimento. Porque, de fato, algumas pessoas agora estão dizendo que um GPT passa com sucesso no exame para se tornar um advogado ou médico, então por que esse GPT não pode se tornar um médico ou advogado?

Acho que esse é um argumento muito interessante, mas envolve a questão da robustez que mencionei anteriormente. Também passando no exame, a habilidade entre humanos e redes neurais é muito diferente.

A questão da robustez é que se você pedir para uma pessoa sã responder a pergunta, se você mudar um pouco a pergunta, a resposta vai ser parecida. A GPT não garante a uniformidade das respostas. Outro problema é que os humanos podem confiar na lógica para controlar o que fazem e o que devem dizer. Mas como uma rede neural, normalmente como o ChatGPT, não tem controle semântico sobre o que faz, ela pode fazer coisas obviamente erradas. Nenhuma pessoa razoável cometeria esse erro. Portanto, a conclusão de todo o argumento é que, se o GPT puder controlar logicamente a consistência do que diz e for correspondentemente robusto, permitir que o GPT seja um advogado seria ótimo. Mas na verdade estamos longe desse nível de inteligência artificial. **

**Tecnologia Tencent: Por que o ChatGPT é tão difícil de controlar? É porque é um recurso de computação distribuída de um computador? **

Joseph Schiffakis: GPT é um tipo diferente de computador. É um computador natural. Não é um computador que executa programas enquanto você os escreve, você tem controle absoluto sobre o que o sistema pode ou não fazer. Ao treinar uma rede neural, você perde esse controle. Esses sistemas podem ser criativos em certo sentido porque possuem graus de liberdade.

Agora, se pudermos controlar esses graus de liberdade e entender como eles se comportam, estaremos bem. **O problema é que não podemos controlar esse enorme grau de liberdade das redes neurais, e é quase impossível controlá-lo teoricamente. **Você pode fazer uma aproximação aproximada de como eles se comportam, mas não terá resultados exatos. Se você tiver um programa de computador tradicional, mesmo que seja um programa longo, ainda poderá extrair o modelo semântico e entender o que está acontecendo nele. Isto é uma distinção muito importante.

**Tencent Technology: Você pode falar sobre o conceito de máquinas naturais em detalhes? **

Joseph Schiffakis: **Máquinas naturais são inteligências que fazem uso de fenômenos naturais. Por exemplo, uma rede neural é uma máquina natural semelhante a um computador quântico ou outros computadores. Antigamente, quando eu era estudante, também tínhamos muitos computadores. Na construção dessa máquina natural, usaremos alguns princípios em fenômenos físicos, pois qualquer fenômeno físico contém algum conteúdo de informação. Por exemplo, quando jogo uma pedra, a pedra é como um computador, calcula uma parábola, que forma um algoritmo. Você pode observar qualquer fenômeno e pode usar fenômenos naturais para construir computadores. Mas esses computadores não são pré-programados. Eles exploram certas leis da física ou da matemática. É o caso das redes neurais. **

**Tencent Technology: Vamos falar sobre algum outro conteúdo em seu livro.Você discutiu algumas questões de pesquisa e inovação. Todos sabemos que, embora muitas ideias de redes neurais venham da Europa ou do Japão, as empresas que as utilizam e produzem produtos, como OpenAI e Deepmind, estão todas nos Estados Unidos. Qual você acha que é a razão para isso? **

Joseph Schiffakis: Há uma diferença entre atenção e inovação. **Porque a inovação é a capacidade de aplicar a pesquisa para desenvolver novos produtos ou serviços para alcançar avanços tecnológicos. **

Eu acho que é uma vantagem muito forte dos EUA, eles fizeram um ótimo trabalho de inovação. Isso começou na Califórnia, onde existe o que chamo de ecossistema de inovação. **O ecossistema de inovação reúne instituições acadêmicas muito boas, grandes empresas de tecnologia, start-ups, venture capital e capital. Essa consistência permite a tradução eficaz e eficiente de novos resultados e aplicações. Outros países também adotaram esse modelo. A ideia de um ecossistema de inovação é comum, e países menores como Israel e Suíça tiveram muito sucesso. ** Então, para resumir, acho que para alcançar a inovação, você deve vincular grandes universidades a grandes indústrias. Depende não só de recursos materiais, mas também de fatores culturais, a educação e as instituições devem reconhecer a criatividade individual e o empreendedorismo.

03 Oráculo de rede neural: uma nova ciência que não pode ser compreendida

**Tecnologia Tencent: Você acabou de mencionar que as redes neurais são o processo de simulação de cérebros biológicos e do mundo físico. Como essa simulação é possível quando nossa compreensão dos cérebros biológicos ainda é muito limitada? A que distância esta rede neural está do nosso cérebro biológico? **

Joseph Schiffakis: Essa é uma boa pergunta. Acabei de dizer que as redes neurais são uma espécie de computador natural, que adota um paradigma diferente dos computadores tradicionais. Especificamente, as redes neurais são inspiradas pelo funcionamento neural em nossos cérebros. Ele imita alguns dos processos naturais pelos quais os nervos funcionam. **No entanto, as redes neurais apenas imitam os princípios computacionais do cérebro, que é mais complexo porque possui diferentes estruturas e funções em diferentes regiões. E essas diferentes funções são construídas em cima de uma arquitetura mais complexa, que ainda estamos tentando entender. **E a rede neural do cérebro é um modelo de computação paralela. As redes neurais também são bastante diferentes a esse respeito.

Também deve ser entendido que ** se estudarmos apenas o cérebro no nível biológico, não acho que podemos captar totalmente todas as intenções humanas. **Como exemplo, use seu laptop para executar um software. Em seguida, darei a você instrumentos eletrônicos para estudar como esse hardware funciona por meio de medições. Se você compilou o programa, todo o conhecimento está presente na forma de sinais elétricos no nível do hardware. Mas só analisando esse sinal elétrico é impossível achar o código fonte do software problemático, porque você tem esse problema de escala. **Acho que essa é a chave para entender a inteligência humana, temos que estudar o cérebro, mas não só o cérebro. Portanto, o fenômeno computacional do cérebro é uma combinação de sinais elétricos, fenômenos físico-químicos e fenômenos psicológicos. **

**E o problema hoje é como conectar fenômenos mentais à computação cerebral. Este é um grande desafio na minha opinião. Se não conseguirmos isso, acho que nunca seremos capazes de entender a inteligência humana. **

**Tencent Technology: Você mencionou que a inteligência artificial está abrindo um novo caminho para o desenvolvimento do conhecimento humano, rompendo as limitações do cérebro humano ao lidar com problemas complexos. Em que pontos você acha que a IA pode superar completamente os humanos? **

Joseph Schiffakis: Sim. Em meu livro, explico que **máquinas podem nos ajudar a superar algumas das limitações de nosso pensamento. **Isso foi confirmado por psicólogos. As limitações aqui incluem a mente humana sendo limitada pela complexidade cognitiva. **Nós, humanos, não podemos entender a relação entre mais de cinco parâmetros independentes. É por isso que as teorias que desenvolvemos são muito simples. Não temos uma teoria com milhares de parâmetros independentes formados. **

**Acho que agora é possível desenvolver uma teoria com milhares de parâmetros. Acho que hoje podemos construir o que chamo de "oráculo de rede neural" com a ajuda de supercomputadores e inteligência artificial. Um oráculo de rede neural é uma rede neural treinada para entender e analisar fenômenos complexos ou sistemas complexos. Esses fenômenos complexos podem depender de milhares de parâmetros. ** Tomando fenômenos físicos como exemplo, existem alguns projetos interessantes agora, como o treinamento de redes neurais para prever terremotos. Os participantes desses projetos não precisam possuir muito conhecimento científico, apenas precisam alimentar o modelo com o banco de dados. Eles têm dados de terremotos de todo o mundo em suas mãos. Eles publicaram um artigo explicando que, com um procedimento de treinamento muito simples, eles poderiam fazer previsões melhores do que usando as teorias complexas existentes. **

** Então, acho que essa é uma direção muito importante no futuro. Teremos mais "oráculos" que nos ajudam a prever o desenvolvimento de fenômenos complexos ou sistemas complexos. ** Por exemplo, teremos sistemas inteligentes de gêmeos digitais que nos ajudarão a fazer previsões, mas não entenderão (a lógica das previsões). Portanto ** teremos um novo tipo de ciência. **Acho interessante poder usar esse tipo de ciência, mas também precisamos controlar a qualidade do conhecimento produzido. **Você deve pensar nisso, porque o ser humano não terá mais o privilégio exclusivo de produzir conhecimento. Agora o homem tem que competir com as máquinas. **

Portanto, a questão importante para nossa sociedade é se podemos cooperar com as máquinas e dominar o desenvolvimento e a evolução do conhecimento desenvolvido pelas máquinas. **Ou desenvolveremos uma situação em que a ciência voltada para o homem e a científica voltada para a máquina coexistam. **Seria um cenário interessante se tivéssemos ciência paralela alimentada por essas máquinas.

**Tecnologia Tencent: Você mencionou que a mente humana também é um sistema de computação. Ambos os sistemas são muito semelhantes em seus componentes em comparação com as máquinas automáticas. Então, quais são as capacidades únicas dos humanos em comparação com a forte inteligência artificial? **

Joseph Schiffakis: Essa é uma pergunta muito boa. Como tenho trabalhado em sistemas autônomos, tentei projetar carros autônomos. Para um carro autônomo, você teria funções como percepção, transformando informações sensoriais em conceitos. Você teria uma função reflexiva que modela o mundo exterior e toma decisões. Tomar decisões significa gerenciar muitos objetivos diferentes. Para atingir esses objetivos, você precisa de planejamento e muito mais. De fato, existem muitas semelhanças entre sistemas autônomos e a mente humana.

Existem, no entanto, algumas diferenças importantes entre humanos e sistemas autônomos. **Uma diferença muito importante é que os humanos possuem o que eu chamaria de conhecimento de senso comum. O conhecimento do senso comum é a rede de conhecimento que desenvolvemos desde o nascimento. Temos um mecanismo, não sabemos como funciona. Mas através da experiência diária, você enriquece essa rede e ganha o conhecimento do senso comum para entender o mundo. ** Para um ser humano, quando ele pensa, ele conecta informações sensoriais com esse modelo conceitual de senso comum. Os resultados da análise são então retroalimentados do modelo conceitual para as informações sensoriais. Isso é muito diferente das redes neurais. Deixe-me dar um exemplo: eu mostro uma placa de pare parcialmente coberta de neve e você imediatamente diz que é uma placa de pare, sem dúvida.

Agora, se você deseja treinar uma rede neural para reconhecer uma placa de pare parcialmente coberta de neve, isso significa que, como a rede neural não pode conectar informações sensoriais com o modelo conceitual, você terá que treinar a rede neural para entender todas as condições meteorológicas condições. **É por isso que as crianças são mais fáceis de aprender do que as redes neurais. Se você mostrar um carro a uma criança uma vez, ela dirá que é um carro na próxima vez. **Porque eles formam um modelo abstrato do que é um carro através da observação. Eles podem relacionar informações sensoriais a esse modelo conceitual. **Este é um dos maiores desafios enfrentados pela inteligência artificial hoje. **Este também é um problema importante para carros autônomos. Os carros autônomos devem ser capazes de coletar informações sensoriais e vincular essas informações a mapas e muito mais. Tomar decisões baseadas apenas em informações sensoriais pode ser perigoso. Já tivemos exemplos disso antes.

Não está claro por que os humanos são capazes de entender situações complexas sem muita análise e computação. Podemos fazer isso porque podemos conectar informações sensoriais com certas informações conceituais, informações abstratas. Então, onde não podemos errar de forma alguma, as redes neurais podem dar muito errado. Lembro-me de uma vez em que meu Tesla parou de repente porque pensou que a combinação da lua e das árvores era um semáforo amarelo. Isso absolutamente não acontece com os humanos, porque os humanos podem contextualizar as informações para entendê-las. Eu imediatamente entendi que era a lua, porque os semáforos não podem estar flutuando no céu.

Então, quando alguém diz que esses sistemas podem competir com os humanos de alguma forma, talvez possa. **Mas a inteligência humana é caracterizada por sua capacidade de entender o mundo e fazer perguntas com propósito. A inteligência artificial ainda está longe desse objetivo. **

**Tecnologia Tencent: Porque você estudou direção autônoma, que já inclui compreensão do ambiente, cognição e percepção. Lecun argumenta que, como somos animais visuais, nossa compreensão do mundo é amplamente baseada na visão. Se grandes modelos de linguagem podem ser multimodais e aprender com o ambiente, eles podem entender o próprio mundo? **

Joseph Schiffakis: **Acho que se a IA não puder conectar conhecimento concreto com conhecimento simbólico, será impossível entender o mundo apenas contando com grandes modelos de linguagem. A IA só pode fazer isso combinando conhecimento concreto, isto é, conhecimento em bancos de dados, com conhecimento simbólico. Se não puder, a inteligência humana superará as máquinas. Tenho certeza disso. **Sei que muitas pessoas vão discordar de mim porque a Inteligência Computacional pode analisar e extrair dados através de milhões de parâmetros. Os humanos não fazem isso bem. Mas os humanos são bons em lidar com problemas abstratos.

**A inteligência humana depende da capacidade de usar analogias e metáforas. **Mesmo que não entendamos como funciona a criatividade humana, ainda posso dizer que é muito importante. **Porque na criatividade humana deve ser feita uma distinção entre descoberta e invenção. **A máquina pode descobrir algo a partir de dados maiores e mais complexos usando a análise de dados. Mas a invenção é outra questão. Invenção significa que eu inventei uma teoria. Acho que estamos longe de entender essa parte da inteligência humana.

Mas a capacidade de descobrir também é útil, porque pode ajudar os humanos a adivinhar padrões mais gerais. Isso é algo que nossas próprias mentes não podem descobrir. Mas não acho que as máquinas serão capazes de criar novas teorias científicas ou criar novas máquinas. **Eles fornecerão uma síntese do conhecimento que possuem. Como um processo de destilação, eles detêm uma vasta quantidade de conhecimento, que então destilam e apresentam a você. ** Isso é incrível. Mas isso não é suficiente. Alcançar mais possibilidades ainda requer capacidades humanas.

Em um artigo que escrevi, expliquei que existem diferentes tipos de inteligência. A inteligência humana é muito especial porque a base para o desenvolvimento da inteligência humana é o mundo especial em que nos esforçamos para viver. **Se nascêssemos em outro mundo, talvez desenvolvêssemos outra inteligência. Inteligência é a capacidade de gerar conhecimento e resolver problemas. **Claro, agora que vemos máquinas que podem resolver alguns problemas que não podemos, elas realmente possuem outro tipo de inteligência. É ótimo, temos algum tipo de complementaridade. **

04 O desenvolvimento da ciência e tecnologia deve priorizar a melhoria da vida humana

**Tecnologia Tencent: Acabamos de ter algumas discussões filosóficas e agora vamos discutir algumas questões sobre o impacto moral da IA na sociedade. A primeira pergunta é que, ao contrário do otimismo de que novas tecnologias criarão novos empregos suficientes, você menciona que a inteligência artificial causará sérios problemas de desemprego. E se esses problemas podem ser difíceis de resolver sem mudar o sistema socioeconômico. Você pode explicar por que você diz isso? Porque muita gente se preocupa com isso. **

Joseph Schiffakis: O desenvolvimento da IA aumentará a produtividade. Existem algumas leis muito simples na economia: se a produtividade aumenta, você precisa de cada vez menos pessoas para fazer o mesmo trabalho. Este ponto é muito claro.

Agora, algumas pessoas pensam que a IA criará algumas oportunidades de trabalho, especialmente para pessoas de alta qualidade, criará algumas novas oportunidades de trabalho. **Mas se você pesar os empregos criados pela IA em relação aos empregos perdidos por causa dela, o impacto da IA deve ser negativo. **

Todos agora concordam que a IA causará desemprego. Isso é óbvio. **Mas ao longo da história da humanidade a tecnologia tem sido capaz de aumentar a produtividade, o que acaba por melhorar a qualidade de vida das pessoas. **Durante séculos, as pessoas trabalharam menos horas. Devemos considerar a solução desse problema por meio de reformas econômicas e sociais apropriadas. Inclusive a reforma da educação, porque tem que educar as pessoas para se adaptar a essa nova era.

**Tecnologia Tencent: Na revolução industrial, a vida das pessoas não melhorou muito no início. Eles trabalham em fábricas e podem trabalhar 14 horas por dia. Você acha que as condições de vida das pessoas serão piores nos primórdios da inovação tecnológica? **

Joseph Schiffakis: Não, acho que a Revolução Industrial em geral melhorou a qualidade da vida humana. Este é o cerne da questão. **Acho que o problema da sociedade hoje é que ela não leva esse objetivo a sério, acham que o progresso tecnológico deveria ser prioridade. Mas acho que a maior prioridade é como melhorar a vida humana, que deveria ser a primeira prioridade. Pelo menos eu sou um humanitário. **

**Tecnologia da Tencent: também sou humanitário e entendo a gravidade desse problema. Você acha que a IA pode ter consequências sérias além do desemprego? **

Joseph Schiffakis: É possível. Mas o problema é que algumas pessoas dizem que a inteligência artificial representará uma ameaça para os seres humanos, e até nós podemos nos tornar escravos das máquinas. Eu não gosto dessa afirmação. Digo em meu livro que a tecnologia é neutra. Você tem energia atômica, pode usar energia atômica para gerar eletricidade e pode usá-la para fazer bombas e matar pessoas. Esta é a sua decisão. Se você realmente pensar sobre isso, todas essas pessoas que dizem que a inteligência artificial é uma ameaça para os seres humanos são completamente estúpidas. Porque o uso da tecnologia é uma responsabilidade humana. **

**Acho que essas pessoas estão dizendo isso apenas porque também querem reduzir a responsabilidade humana por isso. ** Porque eles querem que as pessoas aceitem a IA, o que é uma pena. As pessoas devem assumir a responsabilidade por possíveis problemas. Não sei o que está acontecendo na China, mas infelizmente no mundo ocidental as pessoas não são muito sensíveis a isso. Eles acham que a tecnologia (o impacto negativo) é predeterminada, o que é muito ruim. Eu também disse em meu livro que o maior risco não é que os humanos sejam governados por máquinas, mas que os humanos aceitem que as máquinas tomem todas as decisões importantes. Se eu tivesse um escravo que pudesse fazer o que eu quisesse, como naqueles mitos árabes, no final eu seria o escravo do meu escravo. **Então o perigo vem das pessoas. Também já vi isso nas escolas francesas, se uma criança tem acesso a um chatbot, ela fica impossibilitada de escrever, organizar o pensamento e acaba ficando dependente da máquina. Este não é um cenário cor-de-rosa para a humanidade.

**Tencent Technology: Há alguns dias, muitas figuras conhecidas no campo da IA, incluindo Sam Altman, assinaram uma declaração sobre a ameaça de extinção da IA. Em seu livro, você disse que a mídia atual e os membros da indústria são exagerando as capacidades e ameaças da IA. Uma delas? Você acha que o atual paradigma da IA tem a possibilidade de provocar uma crise da civilização humana? **

Joseph Schiffakis: **Os perigos representados pela IA são claros e podem vir principalmente de seu uso indevido. **Infelizmente, hoje não temos regulamentação relevante contra esse perigo. Como o governo não sabe como essas coisas são desenvolvidas, a falta de transparência significa que os regulamentos não podem ser aplicados. É muito ruim para a sociedade. É muito provável que a IA seja mal utilizada, então também assinei uma petição em apoio a uma investigação da empresa.

A tecnologia é muito boa e não tenho nada contra a tecnologia. É ótimo termos chatbots e devemos progredir nessa direção. **Inteligência artificial, incluindo inteligência artificial geral, é uma coisa boa e não tenho nada contra. O que sou contra é o uso indevido dessas tecnologias. Vários países e instituições internacionais devem aplicar os regulamentos, embora haja algumas dificuldades porque o próprio modelo de linguagem grande carece de interpretabilidade. Mas ainda podemos exigir algum tipo de transparência das empresas de desenvolvimento, como a forma como os conjuntos de dados são construídos e como esses mecanismos são treinados. **

**Tecnologia Tencent: Recentemente, o Congresso dos EUA realizou uma audiência sobre inteligência artificial e pessoas comuns. Incluindo Sam Altman, Marcus participou e projetos de lei relacionados estão sendo aprovados na Europa. Você acha que isso é um bom começo? **

Joseph Schiffakis: Mas o problema é que **quando as pessoas falam sobre inteligência artificial segura, muitas vezes não estão falando sobre a mesma coisa. **Como engenheiro, segurança tem uma definição muito clara para mim. Outros podem pensar que IA segura significa confiar na IA tanto quanto nos humanos. A lógica subjacente a essa ideia é tratar a inteligência artificial como um ser humano, não como uma máquina. Existem muitos outros artigos que dizem que não importa o que a IA faz, o que importa é a intenção da IA, então você deve ser capaz de separar a intenção do resultado e assim por diante. Então há muita discussão. **Espero que toda essa discussão leve a alguma regulamentação séria, não apenas a uma lista de desejos. **

**Tecnologia Tencent: Então, vamos conversar sobre possibilidades mais brilhantes. Se a inteligência artificial não for mal utilizada, de que forma ela pode mudar nossas vidas? **

Joseph Schiffakis: Se não fizermos mau uso da inteligência artificial, o futuro é bastante promissor. Esta é uma grande revolução. Tem um enorme potencial para desenvolver conhecimento para enfrentar alguns dos grandes desafios que a humanidade enfrenta hoje, como mudanças climáticas, gestão de recursos, questões populacionais, pandemias e muito mais.

Eu disse antes que existe uma clara complementaridade entre humanos e máquinas. **Para humanos, o melhor cenário é uma cooperação harmoniosa entre máquinas e humanos. E nesse processo, os humanos serão capazes de dominar todos os processos de desenvolvimento e aplicação do conhecimento, garantindo que essas máquinas não tomem decisões importantes para nós sozinhas. **

O desafio que temos pela frente é encontrar o equilíbrio certo, encontrar o equilíbrio certo de papéis entre humanos e máquinas. Espero que possamos fazer isso com sucesso.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)