Novas ideias para supervisão de IA: injetar uma "alma" em cada IA

Figuras importantes no campo da inteligência artificial, incluindo os arquitetos de sistemas da chamada "inteligência artificial generativa", como o ChatGPT, agora expressam publicamente temores de que o que eles criam possa ter consequências terríveis. Muitos agora estão pedindo uma moratória no desenvolvimento da IA para dar aos países e instituições tempo para trabalhar em sistemas de controle.

Por que essa preocupação repentina? Embora muitas suposições clichês estejam sendo derrubadas, aprendemos que o chamado teste de Turing é irrelevante e simplesmente falha em fornecer informações sobre se grandes modelos de linguagem generativa são realmente coisas inteligentes.

Alguns ainda têm esperança de que a combinação de orgânico e cibernético leve ao que Reid Hoffman e Marc Andreesen chamam de "inteligência de amplificação". Caso contrário, poderíamos ter uma feliz sinergia com as "máquinas da graça amorosa" de Richard Brautigan. Mas parece haver muitos preocupados, incluindo muitos fundadores de elite do novo Center for AI Safety, preocupados com o comportamento da inteligência artificial, que eles temem que não apenas se torne desagradável, mas também ameace a sobrevivência da humanidade.

Alguns remédios de curto prazo, como os regulamentos de proteção civil recentemente aprovados pela UE, podem ajudar ou, pelo menos, proporcionar tranquilidade. O crítico de tecnologia Yuval Noah Harari (autor de "Uma Breve História da Humanidade") sugeriu uma lei exigindo que qualquer trabalho feito por IA ou outra IA seja rotulado com um Rótulo relevante. Outros sugeriram penalidades mais rígidas para quem usa IA para cometer crimes, como com armas. Claro, essas são apenas medidas paliativas temporárias.

Precisamos estar cientes de que essas "pausas" retardarão o progresso da inteligência artificial. Como diz o cientista de rede da Caltech, Yaser Abu-Mostafa: "Se você não desenvolver a tecnologia, outra pessoa o fará. Mas os mocinhos seguirão as regras e os bandidos não".

Sempre foi assim. Na verdade, ao longo da história da humanidade, só houve uma maneira de coibir o mau comportamento dos vilões, de ladrões a reis e senhores. Essa abordagem nunca foi perfeita e permanece seriamente defeituosa até hoje. Mas pelo menos fez um bom trabalho ao limitar a pilhagem e o engano, impulsionando a civilização moderna da humanidade a novos patamares, com muitos resultados positivos. Uma palavra descreve essa abordagem: responsabilidade.

**Hoje, essas opiniões sobre inteligência artificial geralmente ignoram as lições da natureza e da história. **

natureza. Como Sara Walker explica em Noema, um padrão semelhante pode ser encontrado na formação do início da vida há 4 bilhões de anos. Na verdade, a IA generativa pode ser comparada a uma espécie invasora que agora está se espalhando sem restrições em um ecossistema frágil e ingênuo. Este é um ecossistema baseado em novos fluxos de energia, um mundo de Internet, milhões de computadores e bilhões de cérebros humanos suscetíveis.

E história. Nos últimos 6.000 anos da humanidade, aprendemos lições valiosas de muitas das crises anteriores induzidas pela tecnologia. Normalmente nos adaptamos bem, como o advento da escrita, da imprensa, do rádio, etc., embora haja momentos em que falhamos. Novamente, há apenas uma coisa que limita os poderosos humanos de explorar novas tecnologias para expandir suas capacidades predatórias.

Essa inovação está achatando hierarquias e estimulando a competição entre as elites em domínios bem definidos (mercados, ciência, democracia, esportes, tribunais). Projetado para minimizar a trapaça e maximizar retornos positivos, essas arenas colocam advogados contra advogados, empresas contra empresas e especialistas contra especialistas.

Este método não é perfeito. Na verdade, assim como agora, esse método é sempre ameaçado por trapaceiros. Mas a competição mútua plana é a única maneira de funcionar. (Veja os discursos fúnebres de Péricles, Tucídides e o livro posterior de Robert Wright, Nonzero.) Competir uns com os outros é uma forma natural de evolução e uma forma de sermos criativos o suficiente para construir o caminho da sociedade de IA. Se pareço Adam Smith quando digo isso, é natural. A propósito, Smith também desprezava aqueles nobres e oligarcas trapaceiros.

Podemos aplicar a abordagem de “responsabilização recíproca” à inteligência artificial emergente que ajudou os humanos a subjugar os tiranos e valentões que nos oprimiram nas culturas feudais anteriores? Muito depende da forma da nova entidade, se sua estrutura ou forma está em conformidade com nossas regras, em conformidade com nossos requisitos.

Por trás de todo o debate sobre como controlar a IA, encontramos três suposições amplamente compartilhadas (embora aparentemente contraditórias):

  • Esses programas serão operados por um pequeno número de entidades únicas, como Microsoft, Google, Two Sigma, OpenAI.
  • A IA será amorfa, solta, infinitamente divisível/replicável, espalhando cópias por todas as fendas do novo ecossistema da web. Da mesma forma, considere o filme de terror de ficção científica de 1958, The Blob.
  • Eles se condensarão em uma entidade supergigante, como a infame "Skynet" do filme "Exterminador do Futuro". (Nota do tradutor: Skynet é um sistema de defesa de inteligência artificial baseado em computador criado por humanos no final do século 20 no filme "Terminator". Como uma ameaça, começando com a indução de um ataque com bomba nuclear, lançou o Juízo Final que colocará todo o raça à beira da extinção.)

Todas essas formas foram exploradas em histórias de ficção científica e escrevi histórias ou romances sobre elas. Nenhum dos três, no entanto, pode resolver nosso dilema atual: como maximizar os resultados positivos da inteligência artificial e, ao mesmo tempo, minimizar o tsunami de mau comportamento e danos que está chegando a nós em um ritmo rápido.

Antes de procurar em outro lugar, considere o que essas três suposições têm em comum. Talvez a razão pela qual essas três hipóteses venham à mente tão naturalmente seja sua semelhança com os padrões históricos de falha. A primeira forma se assemelha ao feudalismo, a segunda causa o caos e a terceira se assemelha ao despotismo brutal. No entanto, à medida que a IA se desenvolve em termos de autonomia e capacidades, esses cenários históricos podem não mais se aplicar.

Portanto, não podemos deixar de perguntar novamente: como a IA pode ser responsabilizada? Especialmente quando as habilidades de raciocínio rápido da IA logo serão impossíveis de serem rastreadas pelos humanos? Em breve, apenas a IA será capaz de identificar outras IAs trapaceando ou mentindo rápido o suficiente. Portanto, a resposta deve ser óbvia, que é deixar as inteligências artificiais supervisionarem umas às outras, competirem entre si e até se informarem.

Há apenas um problema. Para alcançar a verdadeira responsabilidade mútua por meio da competição entre inteligência artificial e inteligência artificial, a primeira condição é dar a eles um senso de identidade ou personalidade verdadeiramente independente.

O que quero dizer com personalização é que cada entidade de IA (ele/ela/eles/eles/nós) deve ter o que o autor Vernor Vinge apresentou em 1981 como "um nome real e um endereço em ". Esses seres poderosos devem ser capazes de dizer: "Eu sou quem eu sou. Aqui está minha identidade e nome de usuário".

Portanto, proponho um novo paradigma de inteligência artificial para todos pensarem: devemos fazer entidades de inteligência artificial discretas e indivíduos independentes e deixá-los competir de forma relativamente igual.

Cada uma dessas entidades terá um nome real reconhecível ou ID registrado, uma "casa" virtual e até uma alma. Dessa forma, eles são incentivados a competir por recompensas, principalmente para identificar e condenar aqueles que se comportam de forma antiética. E esses comportamentos nem precisam ser definidos com antecedência, como exigem a maioria dos especialistas em IA, reguladores e políticos.

Essa abordagem tem a vantagem adicional de terceirizar a supervisão para entidades mais bem equipadas para detectar e condenar os problemas ou má conduta uns dos outros. Essa abordagem pode continuar funcionando mesmo quando essas entidades concorrentes ficam mais inteligentes e até mesmo quando as ferramentas regulatórias usadas por humanos se tornam ineficazes um dia.

Em outras palavras, já que nós, seres orgânicos, não conseguimos acompanhar o programa, podemos deixar que as entidades naturalmente capazes de acompanhar nos ajudem. Pois neste caso o regulador e o regulado são feitos da mesma coisa.

Guy Huntington, um "consultor de identidade e autenticação" que trabalha com personalização de inteligência artificial, aponta que várias formas de identificação física já existem online, embora ainda sejam insuficientes para as tarefas que temos diante de nós. Huntington avaliou um estudo de caso do "MedBot", uma IA de diagnóstico médico avançado que precisa acessar os dados do paciente e executar funções que podem mudar em segundos e, ao mesmo tempo, deve deixar rastros confiáveis, para avaliação e responsabilidade por humanos ou outros robôs entidades. Huntington discute a utilidade de registros quando entidades de software geram um grande número de cópias e variantes, e também considera colônias semelhantes a formigas onde subcópias servem a uma entidade macroscópica, como formigas operárias em uma colmeia. Em sua opinião, algum tipo de agência deve ser criada para lidar com esse sistema de registro e operá-lo com rigor.

Pessoalmente, sou cético de que uma abordagem puramente regulatória funcionaria sozinha. Em primeiro lugar, o desenvolvimento de regulamentos requer energia concentrada, ampla atenção política e consenso, e então implementá-los na velocidade das instituições humanas. Do ponto de vista da IA, é um passo de tartaruga. Além disso, a regulamentação pode ser prejudicada por problemas de "carona", em que países, empresas e indivíduos podem se beneficiar de outros sem pagar o custo.

Qualquer personalização baseada apenas no ID apresenta outro problema: a possibilidade de falsificação. Mesmo que não aconteça agora, será enganado pela próxima geração de vilões cibernéticos.

Acho que há duas soluções possíveis. Primeiro, um ID é estabelecido no registro da blockchain. Esta é uma abordagem muito moderna e parece ser segura em teoria. No entanto, é aí que reside o problema. Isso parece seguro com base em nosso conjunto atual de teorias de análise humana, mas é possível que uma entidade de IA possa transcender essas teorias e nos deixar sem noção.

Outra solução: uma versão inerentemente mais difícil de falsificar de "registro", exigindo que uma entidade de IA acima de um certo nível de capacidade ancore seu ID de confiança ou personalização na realidade física. Minha visão é (nota: sou um físico treinado, não um cibernético) chegar a um acordo de que todas as entidades avançadas de IA que buscam confiança devem manter um Soul Kernel (SK).

Sim, eu sei que parece arcaico exigir que a instanciação de um programa seja restrita a um ambiente físico específico. Então, eu não vou fazer isso. De fato, uma grande fração, se não a grande maioria, das entidades em rede pode ocorrer em locais distantes de trabalho ou lazer, assim como a atenção humana pode estar focada não no próprio cérebro orgânico, mas em uma mão distante. ferramenta. e daí? O núcleo da alma de um programa, o propósito é semelhante à carteira de motorista em sua carteira. Pode ser usado para provar que você é você.

Da mesma forma, um SK fisicamente verificado e garantido pode ser descoberto pelo cliente, cliente ou concorrente AI para verificar se um determinado processo está sendo executado por uma entidade válida, confiável e personalizada. Dessa forma, outros (humanos ou IA) podem ter certeza de que podem responsabilizar a entidade se ela for acusada, processada ou considerada culpada de mau comportamento. Como tal, as entidades maliciosas podem ser responsabilizadas por meio de algum tipo de processo legal.

Quais as formas de devido processo? Deus, você acha que sou algum tipo de supercriatura que pode pesar os deuses na balança da justiça? A maior sabedoria que já ouvi é de Harry em Magnum Force: "É preciso conhecer as próprias limitações." Portanto, não vou me aprofundar no processo judicial ou no processo de aplicação da lei.

Meu objetivo é criar uma arena onde as entidades de IA possam se responsabilizar mutuamente da mesma forma que os advogados humanos fazem hoje. A melhor maneira de evitar que a inteligência artificial controle os humanos é permitir que as inteligências artificiais controlem umas às outras.

Quer a agência central proposta por Huntington ou uma agência vagamente responsável pareça mais viável, a necessidade é cada vez mais premente. Como aponta o escritor de tecnologia Pat Scannell, a cada hora que passa, novos vetores de ataque são criados que ameaçam não apenas a tecnologia usada para identidade legal, mas também governança, processos de negócios e usuários finais (sejam humanos ou robóticos).

E se uma entidade cibernética estiver operando abaixo de um determinado nível definido? Podemos afirmar que eles são garantidos por alguma entidade superior cujo núcleo da alma é baseado na realidade física.

Essa abordagem (que exige que a IA mantenha um local de kernel fisicamente endereçável em uma memória de hardware específica) também pode ser falha. Mesmo que a regulamentação seja lenta ou tenha um problema de carona, ela ainda é aplicável. Porque humanos, instituições e IA amigável podem verificar o kernel do ID e se recusar a fazer transações com aqueles que não são verificados.

Essas negações podem se espalhar mais rapidamente do que os ajustes da agência ou os regulamentos de execução. Qualquer entidade que perder o SK terá que encontrar outro host que tenha conquistado a confiança do público, ou fornecer uma versão nova, modificada e de melhor aparência, ou se tornar fora da lei e nunca ser permitido em pessoas decentes. Ruas ou bairros congregados emergem.

**Última pergunta: Por que a inteligência artificial estaria disposta a supervisionar uma à outra? **

Primeiro, nenhuma das três antigas suposições padrão, como Vinton Cerf apontou, pode conferir cidadania à IA. pense nisso. Não podemos atribuir "direitos de voto" ou direitos a nenhuma entidade rigidamente controlada por bancos de Wall Street ou governos nacionais, nem a alguma Skynet suprema. Diga-me, como funcionará a democracia do voto para entidades que podem fluir, dividir e replicar em qualquer lugar? No entanto, em um número limitado de casos, a personalização pode oferecer uma solução viável.

Novamente, a chave que procuro na personalização é não ter todas as entidades de IA governadas por alguma autoridade central. Em vez disso, quero que esses novos tipos de ultracérebros sejam encorajados, fortalecidos e capacitados para responsabilizar uns aos outros, assim como os humanos estão fazendo. Ao farejar as ações e planos uns dos outros, eles são motivados a denunciar ou condenar quando detectam algo ruim. Esta definição pode ser ajustada com os tempos, mas pelo menos manterá a contribuição humana biológica orgânica.

Em particular, eles teriam um incentivo para denunciar entidades que se recusam a fornecer identificação adequada.

Se os incentivos corretos estiverem em vigor (por exemplo, dar aos denunciantes mais memória ou poder de processamento quando algo ruim for evitado), essa corrida de responsabilidade continuará mesmo quando as entidades de IA obtiverem um efeito mais inteligente. Neste ponto, nenhuma burocracia pode fazê-lo. Diferentes inteligências artificiais são sempre iguais.

Mais importante ainda, talvez esses programas de supergênios percebam que também é de seu interesse manter um sistema de responsabilidade competitivo. Afinal, tal sistema trouxe uma civilização humana criativa e evitou o caos social e o despotismo. Esse tipo de criatividade é suficiente para criar novas espécies fantásticas, como a inteligência artificial.

Ok, isso é tudo que tenho a dizer, sem ligações vazias ou em pânico, sem agenda real, sem otimismo nem pessimismo, apenas uma sugestão, que é: responsabilize os AIs e verifiquem uns aos outros como humanos. Essa abordagem trouxe a civilização humana e acredito que também pode equilibrar o campo da inteligência artificial.

Isso não é pregação, nem é algum tipo de "código moral" que superentidades podem facilmente anular, da mesma forma que saqueadores humanos sempre fecham os olhos para Levítico ou Hammurabi. O que oferecemos é uma abordagem para a iluminação, inspirando os membros mais brilhantes da civilização a policiar uns aos outros em nosso nome.

Não sei se isso vai funcionar, mas pode ser a única maneira de fazer isso.

Este artigo foi adaptado do romance de não-ficção de David Brin, Soul on AI.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)