Fonte da imagem: gerada pela ferramenta Unbounded AI
Grandes modelos são ilusórios e suas manifestações são diversas, como conflitos com fatos, e suas causas são muitas, como falta de conhecimento relevante ou erros de alinhamento, deixando pontos ainda mais obscuros. Mas o ponto mais crítico relacionado ao aplicativo não são estes, mas: Parece que a alucinação é algo que não pode ser resolvido no curto prazo, mesmo para OpenAI. Isso requer pensar sobre suas condições atuais e invariantes quando for implementado. Uma vez considerado como pré-condições e invariantes, você descobrirá que, assim como os humanos, as ilusões não são de todo ruins.
Com a tendência e contra a tendência
Consideramos se as alucinações são úteis ou prejudiciais ao produto como o eixo vertical e adicionamos a responsabilidade pelos problemas como o eixo horizontal para formar um sistema de coordenadas simples e, em seguida, colocamos vários agentes de inteligência artificial neste sistema de coordenadas, então provavelmente se parece com esse:
Pode haver disputas sobre as posições dos diferentes agentes artificiais, mas alguns valores extremos não devem ser um grande problema.
Para o Metaverso, é um jogo de alto nível. O comportamento incomum dos personagens vai realmente estimular a diversidade da narrativa do jogo e se tornar parte do alimento para enriquecer o conteúdo do mundo. Para consulta, é muito problemático. Se for usado fora da estrutura de conhecimento médico existente, então a condição do paciente torna-se grave, o que não é apenas prejudicial, mas também tem consequências graves. Na verdade, existem mais coisas semelhantes à consulta no espaço real, incluindo atendimento ao cliente, consulta fiscal, etc.
Em Procurando o volante inteligente: da exaustão de dados à multimodalidade e à autogeração mencionamos que ninguém, exceto AlphaGo, girou o volante inteligente e porque, uma vez girado, o volante inevitavelmente produzirá deuses em campos específicos, então As pessoas que estão preocupadas com este aplicativo de inteligência artificial estão preocupadas com a possibilidade de haver outro volante inteligente como na imagem abaixo:
A resposta também pode ser encontrada no diagrama de quadrantes acima: quanto mais próximo da direção do metaverso, mais fácil será. A ilusão pode criar novos dados com baixos custos de responsabilidade, e os novos dados podem ser integrados na cena, que por sua vez pode ser usada como combustível para impulsionar o volante. **
A posição no quadrante é a posição
A posição no quadrante é muito crítica para a implementação de produtos de IA.
**Esta posição determina consideravelmente seus custos operacionais e até mesmo a velocidade de operação. E as restrições que enfrenta são muito rígidas e imutáveis. **
No sentido habitual, todos consideramos os produtos como um conjunto de características, expressas em termos do que podem ou não fazer, parâmetros de desempenho funcional, etc. Num nível mais avançado, a marca deriva de preferências estéticas. Mas não é abrangente. Num nível mais profundo, o produto é também o ponto de convergência de um sistema de direitos, responsabilidades e benefícios. Isto não é tão óbvio nos produtos do lado C como no lado B.
Raramente foi mencionado no passado porque só existe um tipo de agente inteligente no sistema económico: as pessoas. Todo o sistema económico é baseado nos direitos, responsabilidades e benefícios determinados por indivíduos e pessoas colectivas. Mas agora este sistema enfrenta novos desafios: a ascensão da inteligência artificial causou fissuras neste sistema de direitos e responsabilidades e o seu funcionamento está estagnado.
O exemplo mais simples é a condução autónoma, que foi frequentemente discutida no passado. Haverá um novo e complexo reequilíbrio de direitos, responsabilidades e interesses entre utilizadores, fabricantes e prestadores de serviços de condução autónoma. (Acontece que a responsabilidade pelos acidentes é basicamente do usuário. Quem dirige o carro é o responsável. Isso não acontece mais com a direção autônoma)
**Isso será muito problemático, porque a inteligência artificial não é objeto de direitos e interesses, mas parece ter que arcar com as responsabilidades correspondentes. Isto leva subconscientemente todas as empresas a tentarem usar a tecnologia para se protegerem, fazendo parecer que certas coisas más podem evitar acontecer.Mas, na verdade, isto é semelhante a Dom Quixote a lutar contra moinhos de vento, o que é basicamente impossível. **
O reequilíbrio dos direitos, responsabilidades e benefícios dos usuários e da Parte A determinará, na verdade, a direção da alocação limitada de recursos da empresa como um bastão. (custos sociais gerais que realmente criam uma localização específica)
Não é constrangedor ter que fazer isso quando a entrada e a saída não são boas?
A principal razão para este constrangimento é que a tecnologia não pode compensar completamente os direitos e responsabilidades.
Direitos e responsabilidades que não podem ser protegidos
Por que é impossível que a tecnologia compense completamente direitos e responsabilidades?
É claro que isto ocorre porque a tecnologia sempre tem um processo de maturação, mas a razão mais crítica é que, embora o digital e a inteligência tornem os problemas explícitos, os direitos e as responsabilidades são ampliados. **
Quando confrontados com resultados numéricos claramente representáveis, cada cliente desejará resolver problemas sem limites, e este limite foi suprimido no passado.
Podemos tomar o atendimento ao cliente como exemplo:
Ao contratar milhares ou centenas de pessoas para prestar atendimento ao cliente, o serviço em si deve apresentar problemas de rendimento. Mas neste momento, todos podem basicamente aceitar uma certa quantidade de erros. Todos sabem que as pessoas cometerão erros. Além disso, o pessoal de atendimento ao cliente não é fácil de encontrar, por isso todos mantêm uma certa tolerância para esta taxa de rendimento. Se o pessoal de atendimento ao cliente não prestar um bom serviço e perder um pedido, o pessoal de atendimento correspondente será demitido ou o dinheiro será deduzido no máximo. É difícil recuperar danos causados pelo atendimento ao cliente.
Quando o atendimento ao cliente foi substituído pela inteligência artificial, as coisas permaneceram as mesmas, mas a relação de poder e responsabilidade mudou silenciosamente.
Mesmo que a taxa de rendimento da inteligência artificial exceda a da inteligência artificial anterior, na perspectiva da Parte A, ainda haverá motivação suficiente para responsabilizar as empresas que fornecem serviços de inteligência artificial. As empresas de tecnologia por trás terão que encontrar maneiras de tornar os órgãos de inteligência artificial livres de erros.
Isto é usar a tecnologia para proteger direitos e responsabilidades.
**A essência é usar a tecnologia para resolver problemas em campos quase ilimitados. Com o passar do tempo, ficou cada vez mais confuso porque eu não conseguia entender. A indústria da inteligência artificial tem repetido essa história desde o despertar dos alto-falantes inteligentes. **
A situação real é que mesmo que os antigos motores de busca não cometam erros, por exemplo, se um determinado tipo de conteúdo aparecer uma vez e depois for destruído, empresas como Google e Baidu morrerão inúmeras vezes.
No entanto, a tolerância ao sistema de poder e responsabilidade de ** tem, na verdade, muitas razões. Tem história, cultura e realidade empresarial. É muito rígido e dificilmente mudará **. E se não pode mudar, não é muito adequado para uma entidade puramente artificial. O método de compromisso que consigo pensar é colocar a pessoa de volta. Mesmo que a pessoa não faça nada e apenas aja como um espetáculo, ela está cumprindo suas responsabilidades profissionais. O corpo artificial a serve e ela é responsável por todos os resultados.
Desta forma, a seleção e o posicionamento são críticos, porque o próprio sistema de autoridade e responsabilidade é o custo, a direção e a satisfação do cliente (** "Pensar é o problema, fazer é a resposta" está errado, Lei Jun disse que não é possível** Basta fazer. Fim do tópico antigo que está errado). Sob a premissa de que a ilusão faz parte da inteligência, se você realmente for para um campo onde o sistema de poder e responsabilidade é muito pesado, na verdade será metade do resultado com metade do esforço.
Partindo dessa perspectiva, podemos ir um pouco mais além e falar sobre o modelo de aplicação das novas tecnologias.
Modelo de aplicação de nova tecnologia
Ao discutir o modelo de aplicação, voltemos primeiro aos próprios humanos.
Os subsistemas centrais da civilização humana: política, economia e cultura são, na verdade, todos criados através de processos repetidos de primeiro virtualidade e depois realidade, e depois realidade e virtualidade. Há 300 anos, não havia separação de poderes, liberdade, democracia e socialismo. É claro que não havia carros, comboios de alta velocidade ou bicicletas.
Estes são baseados na imaginação e em algum tipo de racionalidade lógica, além de outra onda de pessoas que encontraram a conexão entre imaginação, leis físicas e jogos de negócios, e então a imaginação brilhará na realidade. Trens, eletricidade, carros, telefones celulares, etc., todos vieram ao mundo dessa forma.
Depois, relembraremos 12 de fevereiro de 1912, quando Puyi abdicou, para ver o papel da imaginação.
Muitos dos produtos que têm um impacto profundo sobre nós hoje foram inventados antes de 1912. Os produtos incluem motores a vapor, automóveis, eletricidade, penicilina, telefones, câmeras, baterias, etc. Os personagens incluem Nobel, Edison, Tesla, Ford, etc. Esses produtos geralmente não tiveram sucesso após seu nascimento. Por exemplo, carros a vapor frequentemente explodiam. Edison certa vez atacou principalmente a corrente alternada como pessoas perigosas e fáceis de eletrocutar. No entanto, o ambiente relativamente tolerante permitiu que esses produtos sobrevivessem.
**Imagine se Cixi e outros acreditassem que a volta dos trens interferia no feng shui dos ancestrais, então não haveria tal diversidade. O uso da inquisição literária e de outros métodos pela Dinastia Qing para suprimir o pensamento foi realmente eficaz. Alcançou a estabilidade que esperava até certo ponto. No entanto, embora a estabilidade fosse muito boa, a eficiência de todo o sistema era muito baixa. A abdicação de Puyi em 1912 pode ser visto assim: Resultados de desempenho ruins. **
Que iluminação isso nos dá?
**É mais apropriado que as novas tecnologias comecem em locais com baixos custos sociais gerais. Quanto mais flexível for o sistema de direitos e responsabilidades, menor será o custo da tentativa e erro e mais propício será a recuperação de produtos imaturos impulsionados por novas tecnologias. **
A questão dos custos sociais gerais é muito complicada e não será discutida aqui. (Como evitar acreditar que quando o trem aparecer, ele destruirá o feng shui.)
Para os indivíduos que são sujeitos inovadores, é obviamente necessário evitar sistemas complexos de direitos e responsabilidades.
Como a tecnologia é imatura, se você ainda a usar para proteger os riscos de direitos e responsabilidades complexos, será definitivamente ingrata.
Voltando à inteligência artificial, como seria ser mais específico?
**Se o ambiente em si é frouxo ou não, pode não ser crítico neste momento. O complexo sistema de direitos e responsabilidades pode facilitar a geração de fluxo de caixa. Mas pode tornar-se mais crítico mais tarde. Como o volante inteligente subjacente funciona, esta é realmente a diferença entre 1,01 elevado à 99ª potência e 0,99 elevado à 99ª potência. **
Kevin Kelly expressou esse ponto de vista em What Technology Wants: Mesmo que os benefícios trazidos pela tecnologia sejam apenas um pouco maiores do que as desvantagens, à medida que ela se tornar mais poderosa, o impacto será muito significativo.
O mesmo se aplica aos corpos artificiais: esta pequena diferença pode mais tarde ser a diferença entre se o volante inteligente pode girar ou não.
Simplificando, o próprio modelo de aplicação da inteligência artificial é: **Encontrar alucinações que sejam benéficas, protegendo direitos e responsabilidades em áreas menos complexas, e depois crescer de dentro para fora, em vez de encorajar o crescimento. **
Resumo
**Desta perspectiva, é verdade que a ilusão é inteligência, pelo menos a força motriz por trás do volante inteligente. **Em muitos casos, é a ilusão que nos dá uma sensação de inteligência. Para remover completamente a ilusão e ainda manter a inteligência, realmente temos que alcançar um corpo superunitário (a sabedoria suprema dos Kree). Este é um método muito bom. ideal., mas acho que se for assumido que a inteligência artificial não pode construir um modelo mundial completo, então é impossível remover essa ilusão. Portanto, em vez de esperar usar a tecnologia para resolver esse problema, é melhor revisar o modelo de aplicação de acordo com o progresso da tecnologia.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Ilusão é inteligência: a linha divisória entre seguir a tendência e ir contra a tendência na implementação da IA
Fonte: Li Zhiyong
Grandes modelos são ilusórios e suas manifestações são diversas, como conflitos com fatos, e suas causas são muitas, como falta de conhecimento relevante ou erros de alinhamento, deixando pontos ainda mais obscuros. Mas o ponto mais crítico relacionado ao aplicativo não são estes, mas: Parece que a alucinação é algo que não pode ser resolvido no curto prazo, mesmo para OpenAI. Isso requer pensar sobre suas condições atuais e invariantes quando for implementado. Uma vez considerado como pré-condições e invariantes, você descobrirá que, assim como os humanos, as ilusões não são de todo ruins.
Com a tendência e contra a tendência
Consideramos se as alucinações são úteis ou prejudiciais ao produto como o eixo vertical e adicionamos a responsabilidade pelos problemas como o eixo horizontal para formar um sistema de coordenadas simples e, em seguida, colocamos vários agentes de inteligência artificial neste sistema de coordenadas, então provavelmente se parece com esse:
Para o Metaverso, é um jogo de alto nível. O comportamento incomum dos personagens vai realmente estimular a diversidade da narrativa do jogo e se tornar parte do alimento para enriquecer o conteúdo do mundo. Para consulta, é muito problemático. Se for usado fora da estrutura de conhecimento médico existente, então a condição do paciente torna-se grave, o que não é apenas prejudicial, mas também tem consequências graves. Na verdade, existem mais coisas semelhantes à consulta no espaço real, incluindo atendimento ao cliente, consulta fiscal, etc.
Em Procurando o volante inteligente: da exaustão de dados à multimodalidade e à autogeração mencionamos que ninguém, exceto AlphaGo, girou o volante inteligente e porque, uma vez girado, o volante inevitavelmente produzirá deuses em campos específicos, então As pessoas que estão preocupadas com este aplicativo de inteligência artificial estão preocupadas com a possibilidade de haver outro volante inteligente como na imagem abaixo:
A posição no quadrante é a posição
A posição no quadrante é muito crítica para a implementação de produtos de IA.
**Esta posição determina consideravelmente seus custos operacionais e até mesmo a velocidade de operação. E as restrições que enfrenta são muito rígidas e imutáveis. **
No sentido habitual, todos consideramos os produtos como um conjunto de características, expressas em termos do que podem ou não fazer, parâmetros de desempenho funcional, etc. Num nível mais avançado, a marca deriva de preferências estéticas. Mas não é abrangente. Num nível mais profundo, o produto é também o ponto de convergência de um sistema de direitos, responsabilidades e benefícios. Isto não é tão óbvio nos produtos do lado C como no lado B.
Raramente foi mencionado no passado porque só existe um tipo de agente inteligente no sistema económico: as pessoas. Todo o sistema económico é baseado nos direitos, responsabilidades e benefícios determinados por indivíduos e pessoas colectivas. Mas agora este sistema enfrenta novos desafios: a ascensão da inteligência artificial causou fissuras neste sistema de direitos e responsabilidades e o seu funcionamento está estagnado.
O exemplo mais simples é a condução autónoma, que foi frequentemente discutida no passado. Haverá um novo e complexo reequilíbrio de direitos, responsabilidades e interesses entre utilizadores, fabricantes e prestadores de serviços de condução autónoma. (Acontece que a responsabilidade pelos acidentes é basicamente do usuário. Quem dirige o carro é o responsável. Isso não acontece mais com a direção autônoma)
**Isso será muito problemático, porque a inteligência artificial não é objeto de direitos e interesses, mas parece ter que arcar com as responsabilidades correspondentes. Isto leva subconscientemente todas as empresas a tentarem usar a tecnologia para se protegerem, fazendo parecer que certas coisas más podem evitar acontecer.Mas, na verdade, isto é semelhante a Dom Quixote a lutar contra moinhos de vento, o que é basicamente impossível. **
O reequilíbrio dos direitos, responsabilidades e benefícios dos usuários e da Parte A determinará, na verdade, a direção da alocação limitada de recursos da empresa como um bastão. (custos sociais gerais que realmente criam uma localização específica)
Não é constrangedor ter que fazer isso quando a entrada e a saída não são boas?
A principal razão para este constrangimento é que a tecnologia não pode compensar completamente os direitos e responsabilidades.
Direitos e responsabilidades que não podem ser protegidos
Por que é impossível que a tecnologia compense completamente direitos e responsabilidades?
É claro que isto ocorre porque a tecnologia sempre tem um processo de maturação, mas a razão mais crítica é que, embora o digital e a inteligência tornem os problemas explícitos, os direitos e as responsabilidades são ampliados. **
Quando confrontados com resultados numéricos claramente representáveis, cada cliente desejará resolver problemas sem limites, e este limite foi suprimido no passado.
Podemos tomar o atendimento ao cliente como exemplo:
Quando o atendimento ao cliente foi substituído pela inteligência artificial, as coisas permaneceram as mesmas, mas a relação de poder e responsabilidade mudou silenciosamente.
Mesmo que a taxa de rendimento da inteligência artificial exceda a da inteligência artificial anterior, na perspectiva da Parte A, ainda haverá motivação suficiente para responsabilizar as empresas que fornecem serviços de inteligência artificial. As empresas de tecnologia por trás terão que encontrar maneiras de tornar os órgãos de inteligência artificial livres de erros.
Isto é usar a tecnologia para proteger direitos e responsabilidades.
**A essência é usar a tecnologia para resolver problemas em campos quase ilimitados. Com o passar do tempo, ficou cada vez mais confuso porque eu não conseguia entender. A indústria da inteligência artificial tem repetido essa história desde o despertar dos alto-falantes inteligentes. **
A situação real é que mesmo que os antigos motores de busca não cometam erros, por exemplo, se um determinado tipo de conteúdo aparecer uma vez e depois for destruído, empresas como Google e Baidu morrerão inúmeras vezes.
No entanto, a tolerância ao sistema de poder e responsabilidade de ** tem, na verdade, muitas razões. Tem história, cultura e realidade empresarial. É muito rígido e dificilmente mudará **. E se não pode mudar, não é muito adequado para uma entidade puramente artificial. O método de compromisso que consigo pensar é colocar a pessoa de volta. Mesmo que a pessoa não faça nada e apenas aja como um espetáculo, ela está cumprindo suas responsabilidades profissionais. O corpo artificial a serve e ela é responsável por todos os resultados.
Desta forma, a seleção e o posicionamento são críticos, porque o próprio sistema de autoridade e responsabilidade é o custo, a direção e a satisfação do cliente (** "Pensar é o problema, fazer é a resposta" está errado, Lei Jun disse que não é possível** Basta fazer. Fim do tópico antigo que está errado). Sob a premissa de que a ilusão faz parte da inteligência, se você realmente for para um campo onde o sistema de poder e responsabilidade é muito pesado, na verdade será metade do resultado com metade do esforço.
Partindo dessa perspectiva, podemos ir um pouco mais além e falar sobre o modelo de aplicação das novas tecnologias.
Modelo de aplicação de nova tecnologia
Ao discutir o modelo de aplicação, voltemos primeiro aos próprios humanos.
Os subsistemas centrais da civilização humana: política, economia e cultura são, na verdade, todos criados através de processos repetidos de primeiro virtualidade e depois realidade, e depois realidade e virtualidade. Há 300 anos, não havia separação de poderes, liberdade, democracia e socialismo. É claro que não havia carros, comboios de alta velocidade ou bicicletas.
Estes são baseados na imaginação e em algum tipo de racionalidade lógica, além de outra onda de pessoas que encontraram a conexão entre imaginação, leis físicas e jogos de negócios, e então a imaginação brilhará na realidade. Trens, eletricidade, carros, telefones celulares, etc., todos vieram ao mundo dessa forma.
Depois, relembraremos 12 de fevereiro de 1912, quando Puyi abdicou, para ver o papel da imaginação.
Muitos dos produtos que têm um impacto profundo sobre nós hoje foram inventados antes de 1912. Os produtos incluem motores a vapor, automóveis, eletricidade, penicilina, telefones, câmeras, baterias, etc. Os personagens incluem Nobel, Edison, Tesla, Ford, etc. Esses produtos geralmente não tiveram sucesso após seu nascimento. Por exemplo, carros a vapor frequentemente explodiam. Edison certa vez atacou principalmente a corrente alternada como pessoas perigosas e fáceis de eletrocutar. No entanto, o ambiente relativamente tolerante permitiu que esses produtos sobrevivessem.
**Imagine se Cixi e outros acreditassem que a volta dos trens interferia no feng shui dos ancestrais, então não haveria tal diversidade. O uso da inquisição literária e de outros métodos pela Dinastia Qing para suprimir o pensamento foi realmente eficaz. Alcançou a estabilidade que esperava até certo ponto. No entanto, embora a estabilidade fosse muito boa, a eficiência de todo o sistema era muito baixa. A abdicação de Puyi em 1912 pode ser visto assim: Resultados de desempenho ruins. **
Que iluminação isso nos dá?
**É mais apropriado que as novas tecnologias comecem em locais com baixos custos sociais gerais. Quanto mais flexível for o sistema de direitos e responsabilidades, menor será o custo da tentativa e erro e mais propício será a recuperação de produtos imaturos impulsionados por novas tecnologias. **
A questão dos custos sociais gerais é muito complicada e não será discutida aqui. (Como evitar acreditar que quando o trem aparecer, ele destruirá o feng shui.)
Para os indivíduos que são sujeitos inovadores, é obviamente necessário evitar sistemas complexos de direitos e responsabilidades.
Como a tecnologia é imatura, se você ainda a usar para proteger os riscos de direitos e responsabilidades complexos, será definitivamente ingrata.
Voltando à inteligência artificial, como seria ser mais específico?
**Se o ambiente em si é frouxo ou não, pode não ser crítico neste momento. O complexo sistema de direitos e responsabilidades pode facilitar a geração de fluxo de caixa. Mas pode tornar-se mais crítico mais tarde. Como o volante inteligente subjacente funciona, esta é realmente a diferença entre 1,01 elevado à 99ª potência e 0,99 elevado à 99ª potência. **
Kevin Kelly expressou esse ponto de vista em What Technology Wants: Mesmo que os benefícios trazidos pela tecnologia sejam apenas um pouco maiores do que as desvantagens, à medida que ela se tornar mais poderosa, o impacto será muito significativo.
O mesmo se aplica aos corpos artificiais: esta pequena diferença pode mais tarde ser a diferença entre se o volante inteligente pode girar ou não.
Simplificando, o próprio modelo de aplicação da inteligência artificial é: **Encontrar alucinações que sejam benéficas, protegendo direitos e responsabilidades em áreas menos complexas, e depois crescer de dentro para fora, em vez de encorajar o crescimento. **
Resumo
**Desta perspectiva, é verdade que a ilusão é inteligência, pelo menos a força motriz por trás do volante inteligente. **Em muitos casos, é a ilusão que nos dá uma sensação de inteligência. Para remover completamente a ilusão e ainda manter a inteligência, realmente temos que alcançar um corpo superunitário (a sabedoria suprema dos Kree). Este é um método muito bom. ideal., mas acho que se for assumido que a inteligência artificial não pode construir um modelo mundial completo, então é impossível remover essa ilusão. Portanto, em vez de esperar usar a tecnologia para resolver esse problema, é melhor revisar o modelo de aplicação de acordo com o progresso da tecnologia.