Bill Gates: Os riscos da inteligência artificial são reais, mas administráveis

Escrito por: Bill Gates

Fonte: Gatesnotes

Fonte da imagem: Gerada pela ferramenta Unbounded AI

Aprendemos muito sobre como lidar com os problemas apresentados por inovações revolucionárias.

Os riscos apresentados pela inteligência artificial podem parecer esmagadores. O que acontece com as pessoas cujos empregos são retirados por máquinas inteligentes? A inteligência artificial afetará os resultados das eleições? E se a futura inteligência artificial decidir que os humanos não são mais necessários e quiser se livrar de nós?

Estas são questões legítimas e as preocupações que suscitam devem ser levadas a sério. Mas temos boas razões para acreditar que podemos resolver esses problemas: não é a primeira vez que uma grande inovação traz novas ameaças que devem ser controladas, e já as encontramos antes.

Seja com o advento do automóvel ou com o advento do computador pessoal e da internet, as pessoas viveram outros momentos transformadores que, apesar de muitas reviravoltas, acabaram para melhor. Logo após os primeiros carros pegarem a estrada, aconteceram as primeiras batidas. Mas, em vez de proibir os carros, adotamos limites de velocidade, padrões de segurança, requisitos de carteira de motorista, leis sobre dirigir alcoolizado e outras regras de trânsito.

Estamos agora nos estágios iniciais de outra transformação profunda, a era da inteligência artificial. É semelhante à era da incerteza antes dos limites de velocidade e dos cintos de segurança. A IA está mudando tão rapidamente que não está claro o que acontecerá a seguir. Estamos enfrentando grandes questões sobre como a tecnologia atual funciona, como as pessoas a usarão maliciosamente e como a inteligência artificial mudará a sociedade e os indivíduos.

Em momentos como esses, é natural sentir-se desconfortável. Mas a história mostra que é possível enfrentar os desafios colocados pelas novas tecnologias.

Certa vez, escrevi um artigo sobre como a inteligência artificial mudará completamente nossas vidas. Isso ajudará a resolver problemas de saúde, educação, mudança climática e muito mais que pareciam intratáveis no passado. A Fundação Gates fez disso uma prioridade, e nosso CEO Mark Suzman recentemente compartilhou seus pensamentos sobre o papel da IA na redução da desigualdade.

Falarei mais sobre os benefícios da IA no futuro, mas neste post quero abordar algumas das preocupações que ouço e leio com frequência, muitas das quais compartilho, e explicar como as vejo.

Uma coisa que ficou clara de tudo o que foi escrito sobre os riscos da IA até agora é que ninguém tem todas as respostas. Outro ponto claro é que o futuro da inteligência artificial não é tão sombrio quanto alguns imaginam, nem tão promissor quanto outros imaginam. Os riscos são reais, mas estou otimista de que podem ser administrados. Ao abordar cada uma dessas preocupações, retornarei aos seguintes temas:

  • Muitos dos problemas levantados pela inteligência artificial têm precedentes históricos. Terá um enorme impacto na educação, por exemplo, mas também as calculadoras portáteis de décadas atrás e, mais recentemente, permitindo que os computadores entrem nas salas de aula. Podemos aprender com os sucessos do passado.
  • Muitos problemas causados pela inteligência artificial também podem ser resolvidos com a ajuda da inteligência artificial.
  • Precisamos adaptar as leis antigas e adotar novas - assim como as leis antifraude existentes devem se adaptar ao mundo online.

Neste artigo, focarei nos riscos existentes ou iminentes. Não vou discutir o que acontece quando desenvolvemos uma IA que pode aprender qualquer tópico ou tarefa, ao contrário da IA dedicada de hoje. Quer cheguemos a este ponto na próxima década ou em um século, a sociedade precisa pensar profundamente. E se uma IA superinteligente definir seus próprios objetivos? E se eles entrarem em conflito com os humanos? Devemos construir uma super inteligência artificial?

No entanto, pensar nesses riscos de longo prazo não deve prejudicar os riscos mais imediatos.

Informações e falsificações profundas geradas por IA podem destruir as eleições e a democracia

O uso da tecnologia para espalhar mentiras e desinformação não é novidade. As pessoas fazem isso por meio de livros e folhetos há séculos. Isso ficou mais fácil com o advento dos processadores de texto, impressoras a laser, e-mail e redes sociais.

A inteligência artificial pegou o problema de falsificar texto e o ampliou para que quase qualquer pessoa possa criar áudio e vídeo falsos, conhecidos como deepfakes. Se você receber uma mensagem de voz que soe como se seu filho estivesse dizendo "Fui sequestrado, envie $ 1.000 para esta conta bancária nos próximos 10 minutos e não chame a polícia", o terrível impacto emocional que isso pode ter será muito mais poderoso do que um e-mail dizendo a mesma coisa.

Em uma escala maior, os deepfakes gerados por IA podem ser usados para tentar influenciar as eleições. É claro que não é preciso tecnologia sofisticada para lançar dúvidas sobre o legítimo vencedor de uma eleição, mas a inteligência artificial tornará isso muito mais fácil.

Já surgiram vídeos falsos de imagens falsas de políticos conhecidos. Imagine que, na manhã da eleição, um vídeo mostrando um candidato roubando um banco se torne viral. Era falso, mas levou horas para as organizações de notícias e a campanha provarem isso. Quantas pessoas vão ver esse vídeo e mudar de voto no último minuto? Isso pode fazer pender a balança, especialmente se a corrida for acirrada.

Recentemente, quando o cofundador da OpenAI, Sam Altman, testemunhou perante um comitê do Senado dos EUA, senadores de ambos os partidos falaram sobre o impacto da IA nas eleições e na democracia. Espero que este tema continue na agenda de todos.

Certamente não resolvemos o problema de desinformação e deepfakes. Mas duas coisas me deixam cautelosamente otimista. Uma é que as pessoas têm a capacidade de aprender a não aceitar nada pelo valor de face. Durante anos, os usuários de e-mail foram envolvidos em golpes que se apresentavam como príncipes nigerianos prometendo compartilhar números de cartão de crédito em troca de grandes recompensas. Mas, eventualmente, a maioria das pessoas aprende a pensar duas vezes. À medida que os enganos se tornaram mais sofisticados, muitos alvos se tornaram mais desonestos. Precisamos construir a mesma capacidade para deepfakes.

Outra coisa que acho esperançosa é que a inteligência artificial pode ajudar a identificar deepfakes e criar deepfakes. Por exemplo, a Intel desenvolveu um detector de deepfake e a agência governamental DARPA está desenvolvendo uma tecnologia para identificar se o vídeo ou o áudio foi adulterado.

Será um processo iterativo: alguém encontrará uma maneira de detectar a falsificação, alguém descobrirá como combatê-la, alguém desenvolverá contramedidas e assim por diante. Não vai ser perfeito, mas também não vamos perder o juízo.

IA tornará mais fácil atacar humanos e governos

Hoje, quando os hackers esperam encontrar uma vulnerabilidade explorável no software, eles o fazem por "força bruta" - escrevendo código e atacando possíveis pontos fracos até que a vulnerabilidade seja descoberta. Isso envolve muitos desvios, por isso leva tempo e paciência.

Os profissionais de segurança que desejam combater os hackers devem fazer o mesmo. Cada patch de software que você instala em seu telefone ou laptop representa horas de pesquisa.

Os modelos de IA acelerarão esse processo, ajudando os hackers a escrever códigos mais eficientes. Eles também são capazes de explorar as informações públicas de um indivíduo, como onde trabalham e amigos, para desenvolver ataques de phishing mais avançados do que os disponíveis atualmente.

A boa notícia é que a IA é uma faca de dois gumes. As equipes de segurança do governo e do setor privado precisam ter as ferramentas mais recentes para encontrar e corrigir vulnerabilidades de segurança antes que os criminosos as explorem. Espero que a indústria de segurança de software expanda o trabalho que já faz nessa área, deve ser sua preocupação número um.

Claro, também é por isso que não devemos tentar impedir temporariamente as pessoas de implementar novos desenvolvimentos em inteligência artificial, como alguns sugeriram. Os cibercriminosos não param de criar novas ferramentas. Aqueles que querem usar inteligência artificial para projetar armas nucleares e ataques de bioterrorismo não vão parar. Os esforços para detê-los precisam continuar no mesmo ritmo.

Há também um risco relacionado em nível global: uma corrida armamentista em inteligência artificial que poderia ser usada para projetar e lançar ataques cibernéticos contra outros estados. O governo de cada país deseja ter a tecnologia mais poderosa disponível para impedir ataques adversários. Essa motivação de "não deixar ninguém em primeiro lugar" pode desencadear uma corrida para criar armas cibernéticas cada vez mais perigosas. As coisas vão piorar para todos.

É uma ideia assustadora, mas temos a história como guia. Por mais falho que seja o regime mundial de não-proliferação nuclear, ele evitou a guerra nuclear total da qual minha geração cresceu aterrorizada. Os governos devem considerar a criação de uma agência global de IA semelhante à Agência Internacional de Energia Atômica.

IA vai tirar os empregos das pessoas

O principal impacto da inteligência artificial no trabalho nos próximos anos será ajudar as pessoas a realizarem seus trabalhos com mais eficiência. Isso é verdade se você estiver trabalhando em uma fábrica ou no escritório lidando com chamadas de vendas e contas a pagar. Eventualmente, a IA será capaz de se expressar bem, redigir e-mails e gerenciar sua caixa de entrada para você. Simplesmente escrevendo uma solicitação em inglês ou qualquer outro idioma, você pode obter o PPT que deseja.

Como argumentei em meu artigo de fevereiro, o aumento da produtividade é bom para a sociedade. Dá às pessoas mais tempo para fazer outras coisas no trabalho e em casa. A necessidade de pessoas prestativas nunca desaparecerá - como ensinar, cuidar dos doentes e cuidar dos idosos. Mas alguns trabalhadores precisam de suporte e reciclagem durante a transição para um local de trabalho orientado por IA. Esse é o trabalho dos governos e das empresas de administrar para que os trabalhadores não sejam deixados para trás - sem o tipo de interrupção na vida das pessoas que acontece quando os empregos na indústria americana são perdidos.

Além disso, tenha em mente que esta não é a primeira vez que as novas tecnologias levam a mudanças significativas no mercado de trabalho. Não acho que o impacto da inteligência artificial será tão grande quanto o da revolução industrial, mas certamente será semelhante ao impacto da introdução do computador pessoal. Os aplicativos de processamento de texto não eliminaram o trabalho de escritório, mas o mudaram para sempre. Empregadores e empregados tiveram que se adaptar, e o fizeram. A transformação trazida pela IA será uma transição acidentada, mas há todos os motivos para acreditar que podemos reduzir a interrupção da vida e dos meios de subsistência das pessoas.

A IA herdará nossos preconceitos e os inventará

Alucinações – quando uma IA faz afirmações com confiança que simplesmente não se encaixam nos fatos – geralmente acontecem porque a máquina não entende sua solicitação. Peça a uma IA para escrever um conto sobre férias na lua e ela pode lhe dar uma resposta imaginativa. Mas se você pedir à AI para escrever seus planos de viagem para a Tanzânia, ela pode enviar você para um hotel que nem existe.

Outro risco da inteligência artificial é que ela reflete ou mesmo reforça os preconceitos das pessoas sobre certos gêneros, raças, etnias, etc.

Para entender por que alucinações e preconceitos ocorrem, é importante saber como funcionam os modelos de IA mais comuns atualmente. Eles são essencialmente versões muito sofisticadas de código que permitem que seu aplicativo de e-mail preveja a próxima palavra que você está prestes a digitar: eles verificam grandes quantidades de texto - em alguns casos, quase todo o texto disponível na web - e, em seguida, analisam para encontrar padrões na linguagem humana.

Quando você faz uma pergunta à IA, ela analisa as palavras que você usa e, em seguida, procura trechos de texto frequentemente associados a essas palavras. Se você escrever "listar os ingredientes para panquecas", a IA pode perceber que palavras como "farinha, açúcar, sal, fermento em pó, leite e ovos" ocorrem frequentemente com a frase. Então, com base no que sabe sobre a ordem em que essas palavras costumam aparecer, ele gera uma resposta. (Modelos AI que funcionam dessa maneira usam os chamados Transformers. GPT-4 é um desses modelos).

Esse processo explica por que a IA pode ter alucinações ou ser tendenciosa. Não tem contexto para a pergunta que você fez ou o que você disse. Se você disser à IA que cometeu um erro, ela pode dizer "desculpe, cometi um erro de digitação". Mas isso é apenas uma ilusão, na realidade não insere nada. Ele diz isso porque digitalizou texto suficiente para saber que "desculpe, cometi um erro de digitação" é uma frase que as pessoas costumam escrever depois que outra pessoa as corrigiu.

Da mesma forma, os modelos de IA herdam vieses embutidos no texto em que foram treinados. Se alguém ler muitos artigos sobre médicos, e os artigos mencionarem principalmente médicos do sexo masculino, sua resposta assumirá que a maioria dos médicos são homens.

Embora alguns pesquisadores argumentem que as alucinações são um problema inerente, eu discordo. Estou otimista de que, com o tempo, os modelos de IA possam aprender a distinguir o fato da ficção. Por exemplo, a OpenAI fez pesquisas promissoras nessa área.

Outros grupos, incluindo o Alan Turing Institute e o National Institute of Standards and Technology, também estão trabalhando para combater o viés. Uma abordagem é incorporar valores humanos e raciocínio de alto nível na IA. É semelhante a como os humanos autoconscientes funcionam: talvez você pense que a maioria dos médicos é do sexo masculino, mas está consciente o suficiente dessa suposição para saber que precisa combatê-la conscientemente. A inteligência artificial pode operar de maneira semelhante, especialmente se os modelos forem projetados por pessoas de diferentes origens.

No final, todos que usam IA precisam estar cientes da questão do viés e se tornar um usuário informado. Os papéis que você pede a uma IA para redigir podem estar cheios de preconceitos e erros factuais. Você precisa examinar os vieses da IA, bem como os seus.

Os alunos não aprenderão a escrever porque a IA fará isso por eles

Muitos professores temem que a IA interrompa sua colaboração com os alunos. Em uma época em que qualquer pessoa com conexão à Internet pode usar IA para escrever um primeiro rascunho decente de uma tese, o que impede um aluno de entregá-lo como seu?

Já existem ferramentas de IA que podem aprender a dizer se um ensaio foi escrito por um ser humano ou por um computador, para que os professores possam saber quando os alunos estão fazendo sua própria lição de casa. Mas alguns professores não estão tentando desencorajar os alunos a usar IA em sua escrita – eles estão realmente encorajando isso.

Em janeiro, uma professora de inglês veterana chamada Cherie Shields escreveu na Education Week sobre como ela usa o ChatGPT em sua sala de aula. O ChatGPT ajuda seus alunos em tudo, desde começar a escrever até escrever esboços e até mesmo fornecer feedback sobre suas tarefas.

“Os professores devem adotar a tecnologia de IA como outra ferramenta que os alunos podem usar”, escreveu ela. "Assim como ensinamos os alunos a fazer uma boa pesquisa no Google, os professores devem criar lições claras sobre como os bots do ChatGPT podem ajudar na redação. Reconhecer a existência da IA e ajudar os alunos a usá-la pode revolucionar a maneira como ensinamos." Todo professor tem tempo para aprender e usar novas ferramentas, mas educadores como Cherie Shields argumentam que aqueles que tiverem tempo se beneficiarão muito.

Isso me lembra as décadas de 1970 e 1980, quando as calculadoras eletrônicas se tornaram populares. Alguns professores de matemática temiam que os alunos parassem de aprender aritmética básica, mas outros abraçaram a nova tecnologia e se concentraram no pensamento por trás da aritmética.

A IA também pode ajudar na escrita e no pensamento crítico. Especialmente nos primeiros dias, quando alucinações e preconceitos ainda são um problema, os educadores podem fazer com que a IA gere redações e, em seguida, verifique os fatos com os alunos. Organizações sem fins lucrativos educacionais, como a Khan Academy, que financio, e o Projeto OER fornecem aos professores e alunos ferramentas on-line gratuitas que enfatizam fortemente o teste de afirmações. Não há habilidade mais importante do que saber diferenciar o real do falso.

Realmente precisamos garantir que o software educacional ajude a fechar a lacuna de desempenho, e não piorá-la. O software de hoje é voltado principalmente para alunos que já estão motivados para aprender. Ele pode criar um plano de estudo para você, indicar bons recursos e testar seu conhecimento. No entanto, ainda não sabe como envolver você em assuntos que ainda não lhe interessam. Esse é um problema que os desenvolvedores precisam resolver para que todos os tipos de alunos possam se beneficiar da IA.

**Qual é o próximo? **

Acredito que temos mais motivos para estar otimistas de que podemos gerenciar os riscos da IA enquanto maximizamos seus benefícios. Mas precisamos agir rápido.

Os governos precisam desenvolver experiência em IA para desenvolver leis e regulamentos informados para lidar com essa nova tecnologia. Eles precisam lidar com desinformação e deepfakes, ameaças de segurança, mudanças no mercado de trabalho e o impacto na educação. Apenas um exemplo: a lei precisa esclarecer quais usos de deepfakes são legais e como os deepfakes são rotulados para que todos entendam que o que veem ou ouvem é falso.

Os líderes políticos precisam ser capazes de se engajar em um diálogo informado e ponderado com os constituintes. Eles também precisam decidir o quanto cooperar com outros países nessas questões, em vez de agirem sozinhos.

No setor privado, as empresas de IA precisam trabalhar com segurança e responsabilidade. Isso inclui proteger a privacidade das pessoas, garantir que os modelos de IA reflitam valores humanos fundamentais, minimizar o viés para beneficiar o maior número possível de pessoas e impedir que a tecnologia seja explorada por criminosos ou terroristas. Empresas em muitos setores da economia precisam ajudar seus funcionários a fazer a transição para um local de trabalho centrado em IA, para que ninguém fique para trás. Os clientes devem sempre saber que estão interagindo com IA e não com humanos.

Por fim, encorajo todos a prestarem o máximo de atenção possível ao desenvolvimento da inteligência artificial. Esta é a inovação mais transformadora que veremos em nossa vida, e um debate público saudável dependerá da compreensão de todos sobre esta tecnologia, seus benefícios e riscos. Os benefícios da inteligência artificial serão enormes, e a melhor razão para acreditar que podemos controlar o risco é que o fizemos.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)