Postagem mais recente do blog de Bill Gates: Os riscos da IA existem, mas são controláveis

Autor: Jin Qiong

O ChatGPT é popular há mais de meio ano. Além do rápido desenvolvimento, além de resolver problemas técnicos, a conformidade pode ser o próximo grande problema - depois que o Congresso intimou Sam Altman, agora a FTC (Federal Trade Commission) também conduz oficialmente o ChatGPT investigação.

Isso ecoa o que Bill Gates disse há alguns dias. Em seu último post no blog, ele disse: A IA é a inovação mais transformadora. É verdade que existem riscos, mas os riscos também são controláveis.

Na postagem do blog, Bill Gates discute principalmente os riscos e desafios da inteligência artificial e como lidar com eles, além de fornecer alguns exemplos e sugestões.

Bill Gates primeiro expressou sua afirmação das preocupações das pessoas sobre a IA hoje - agora estamos em uma era de profundas mudanças na inteligência artificial, que é uma era incerta. Mas ele está otimista de que esses riscos são administráveis.

Em segundo lugar, Bill Gates também listou os riscos causados pela IA atual, incluindo falsificação profunda e desinformação gerada pela inteligência artificial, que pode destruir eleições e a democracia, tornar mais fácil para indivíduos e governos lançar ataques e tirar empregos das pessoas. herda preconceitos humanos e inventa coisas, os alunos não aprenderão a escrever porque a IA fará isso por eles, etc.

Finalmente, Bill Gates também apresentou uma série de propostas para regular a IA. No nível do governo nacional, os governos precisam acumular experiência em inteligência artificial para formular leis e regulamentos para lidar com a IA, lidar com desinformação e deep fakes, ameaças à segurança, mudanças no mercado de trabalho e o impacto na educação.

Em termos de soluções, os líderes governamentais precisam cooperar com outros países, não sozinhos, e ter a capacidade de ter um diálogo informado e ponderado com as pessoas.

Além disso, para as empresas, as empresas de IA devem ter uma atitude responsável, e o trabalho deve ser realizado para garantir a segurança, incluindo a proteção da privacidade das pessoas e assim por diante.

A seguir está o texto completo, traduzido do GPT-4, editado por 36 Krypton:

Os riscos apresentados pela IA parecem esmagadores. E aqueles que perdem seus empregos para serem substituídos por máquinas inteligentes? A IA afetará os resultados das eleições? E se a futura IA decidir que os humanos não são mais necessários e quiser se livrar de nós?

Essas são questões legítimas e precisamos levar a sério as preocupações que elas levantam. Mas temos todos os motivos para acreditar que podemos lidar com eles: não é a primeira vez que uma grande inovação introduz novas ameaças que devem ser contidas, e já as encontramos antes.

Seja com o advento do automóvel ou com o advento do computador pessoal e da internet, as pessoas viveram outros momentos transformadores que, apesar de muitas reviravoltas, acabaram para melhor. Logo após os primeiros carros pegarem a estrada, aconteceram as primeiras batidas. Mas, em vez de proibir os carros, adotamos limites de velocidade, padrões de segurança, requisitos de carteira de motorista, leis sobre dirigir alcoolizado e outras regras de trânsito.

Estamos agora nos estágios iniciais de outra transformação profunda, a era da IA, semelhante à era da incerteza antes dos limites de velocidade e dos cintos de segurança. A IA está mudando tão rapidamente que não está claro o que acontecerá a seguir. Estamos enfrentando grandes questões sobre como a tecnologia atual funciona, como as pessoas a usam para fins maliciosos e como a inteligência artificial pode nos mudar como membros da sociedade e como indivíduos.

Em momentos como esses, é natural sentir-se desconfortável. Mas a história mostra que é possível enfrentar os desafios colocados pelas novas tecnologias.

Escrevi sobre como a inteligência artificial vai revolucionar nossas vidas, ajudando a resolver problemas de saúde, educação, mudança climática e muito mais que pareciam intratáveis no passado. A Fundação Gates está priorizando esse assunto, e nosso CEO, Mark Suzman, compartilhou recentemente suas reflexões sobre o papel da IA na redução da desigualdade.

Falarei mais sobre os benefícios da IA no futuro, mas neste post quero falar sobre as preocupações mais comuns que ouço e leio, muitas das quais compartilho, e explicar como me sinto preocupado com elas.

De tudo o que foi escrito até agora sobre os riscos da inteligência artificial, uma coisa está clara: ninguém tem todas as respostas. Outro ponto que está claro para mim é que o futuro da inteligência artificial não é tão sombrio quanto alguns imaginam, nem tão cor-de-rosa quanto outros imaginam. Os riscos são reais, mas estou otimista de que podem ser administrados. À medida que discuto cada questão, uma por uma, retornarei a alguns tópicos:

  • Muitos dos problemas levantados pela inteligência artificial têm precedentes históricos. Terá um enorme impacto na educação, por exemplo, mas também as calculadoras portáteis décadas atrás e, mais recentemente, permitindo que os computadores entrem nas salas de aula, podemos aprender com os sucessos do passado.
  • Muitos problemas causados pela inteligência artificial também podem ser resolvidos com a ajuda da inteligência artificial.
  • Precisamos adaptar as leis antigas e promulgar novas - assim como as leis antifraude existentes devem se adaptar ao mundo online.

Neste artigo, focarei nos riscos existentes ou iminentes. Não vou discutir o que acontecerá quando desenvolvermos uma IA capaz de aprender qualquer assunto ou tarefa. Em vez disso, estou falando sobre IA de propósito específico hoje.

Quer cheguemos a esse ponto em uma década ou em um século, a sociedade precisará enfrentar algumas questões profundas. E se uma super IA estabelecesse seus próprios objetivos? E se eles entrarem em conflito com os objetivos humanos? Deveríamos estar construindo super IA?

No entanto, os riscos imediatos não devem ser negligenciados ao considerar esses riscos de longo prazo. Agora, volto-me para esses riscos de curto prazo.

Conteúdo falso e desinformação gerados por IA podem destruir as eleições e a democracia

O uso da tecnologia para espalhar mentiras e desinformação não é novidade. As pessoas têm espalhado mentiras por meio de livros e folhetos há séculos. Essa prática tornou-se mais fácil com o advento dos processadores de texto, impressoras a laser, e-mail e redes sociais.

A inteligência artificial ampliou esse problema de texto falso, tornando possível para quase qualquer pessoa criar áudio e vídeo falsos, conhecidos como deepfakes. Se você receber uma mensagem de voz que se pareça com seu filho dizendo "Fui sequestrado, envie $ 1.000 para esta conta bancária nos próximos 10 minutos e não chame a polícia", isso gerará muito mais do que o mesmo conteúdo. O terrível impacto emocional do correio.

Em uma escala maior, os deepfakes gerados por IA podem ser usados para tentar influenciar os resultados das eleições. Claro, não é preciso tecnologia sofisticada para lançar dúvidas sobre o legítimo vencedor de uma eleição, mas a inteligência artificial tornará o processo muito mais fácil.

Já surgiram vídeos falsos que contêm imagens fabricadas de políticos conhecidos. Imagine que na manhã de uma eleição importante, um vídeo de um candidato roubando um banco se torne viral. Mesmo sendo falso, levou horas para organizações de notícias e campanhas provarem isso. Quantas pessoas vão ver esse vídeo e mudar de voto no último minuto? Isso pode mudar o resultado de uma corrida, especialmente se a corrida for acirrada.

Quando o cofundador da Open AI, Sam Altman, testemunhou perante um comitê do Senado dos EUA recentemente, senadores de ambos os partidos levantaram preocupações sobre o impacto da IA nas eleições e na democracia. Espero que este tema continue a interessar a todos. Realmente não resolvemos o problema de desinformação e deepfakes. Mas duas coisas me deixam cautelosamente otimista. Uma delas é que as pessoas têm a capacidade de aprender a não confiar em tudo. Durante anos, os usuários de e-mail foram enganados por alguém que se passava por um príncipe nigeriano, prometendo grandes recompensas por compartilhar números de cartão de crédito. Mas, eventualmente, a maioria das pessoas aprende a verificar novamente esses e-mails. À medida que os enganos se tornam mais sofisticados e muitos alvos mais desonestos, precisamos criar a mesma consciência para os deepfakes.

Outra coisa que me deixa esperançoso é que a IA pode não apenas criar deepfakes, mas também ajudar a identificá-los. Por exemplo, a Intel desenvolveu um detector de deepfake, enquanto a agência governamental DARPA está trabalhando em como identificar se um vídeo ou áudio foi adulterado.

Será um processo circular: alguém encontra uma maneira de detectar a falsificação, outra pessoa descobre como combatê-la, alguém desenvolve uma contramedida e assim por diante. Não será um sucesso perfeito, mas também não seremos amarrados.

IA torna mais fácil para humanos e governos lançarem ataques

Hoje, quando os hackers querem encontrar um bug no software, eles escrevem código por meio da força bruta, atacando possíveis pontos fracos até encontrar o bug. Isso envolve muitos desvios, por isso leva tempo e paciência.

Os profissionais de segurança que desejam combater os hackers devem fazer o mesmo. Cada patch de software que você instala em seu telefone ou laptop representa muito tempo gasto procurando-o por alguém benigno ou malicioso.

Os modelos de IA acelerarão esse processo, ajudando os hackers a escrever códigos mais eficientes. Eles também poderão usar informações públicas sobre indivíduos, como onde trabalham e quem são seus amigos, para desenvolver ataques de phishing mais avançados do que vemos hoje.

A boa notícia é que a IA pode ser usada tanto para fins maliciosos quanto bons. As equipes de segurança do governo e do setor privado precisam ter as ferramentas mais recentes para encontrar e corrigir vulnerabilidades de segurança antes que os criminosos as explorem. Espero que a indústria de segurança de software expanda o trabalho que já faz nessa área, deve ser sua principal preocupação.

É por isso que não devemos tentar impedir temporariamente que as pessoas implementem novos desenvolvimentos em inteligência artificial, como alguns sugeriram. Os cibercriminosos não vão parar de fabricar novas ferramentas, nem aqueles que querem usar IA para projetar armas nucleares e ataques bioterroristas, e detê-los precisa continuar no mesmo ritmo.

Também existem riscos relacionados em nível global: uma corrida armamentista de IA pode ser usada para projetar e lançar ataques cibernéticos contra outros estados. O governo de cada país deseja ter a tecnologia mais poderosa disponível para impedir ataques adversários. Essa motivação de "não deixar ninguém em primeiro lugar" pode desencadear uma corrida para criar armas cibernéticas cada vez mais perigosas. Desta forma, todos ficarão em situação pior.

É uma ideia assustadora, mas temos a história como lição. Apesar de suas falhas, o regime mundial de não proliferação de armas nucleares evitou a guerra nuclear total da qual minha geração cresceu aterrorizada. Os governos devem considerar a criação de uma agência global de IA semelhante à Agência Internacional de Energia Atômica.

IA tirará empregos das pessoas

O principal impacto da inteligência artificial no trabalho nos próximos anos será ajudar as pessoas a realizarem seus trabalhos com mais eficiência. Isso é verdade se você estiver trabalhando em uma fábrica ou no escritório lidando com chamadas de vendas e contas a pagar. Eventualmente, a habilidade da IA em expressar pensamentos será boa o suficiente para escrever e-mails e gerenciar sua caixa de entrada para você. Você poderá escrever uma solicitação em inglês simples ou em qualquer outro idioma e gerar um relatório de trabalho informativo.

Como disse em meu artigo de fevereiro, o aumento da produtividade é bom para a sociedade. Isso deixa mais tempo para as pessoas fazerem outras coisas, seja no trabalho ou em casa. E a necessidade de pessoas prestativas, como ensinar, cuidar dos doentes e cuidar dos idosos, nunca desaparecerá.

Mas alguns trabalhadores precisam de suporte e reciclagem durante a transição para um local de trabalho orientado por IA. Esse é o trabalho dos governos e das empresas para administrá-lo bem, para que os trabalhadores não sejam deixados para trás, sem o tipo de interrupção na vida das pessoas que aconteceu quando os empregos na indústria dos EUA foram perdidos.

Além disso, tenha em mente que esta não é a primeira vez que as novas tecnologias levam a mudanças significativas no mercado de trabalho. Não acho que o impacto da inteligência artificial será tão grande quanto o da revolução industrial, mas com certeza será tão grande quanto o advento do computador pessoal. Os aplicativos de processamento de texto não eliminaram o trabalho de escritório, mas o mudaram para sempre. Empregadores e empregados tiveram que se adaptar, e o fizeram. A transformação trazida pela IA será uma transição acidentada, mas há todos os motivos para acreditar que podemos reduzir a interrupção da vida e dos meios de subsistência das pessoas.

IA herda nossos preconceitos e os inventa

Alucinações, que é quando uma IA faz com confiança alguma afirmação que simplesmente não é verdadeira e geralmente acontece porque a máquina não entende o contexto do seu pedido. Se você pedisse a uma IA para escrever um conto sobre férias na lua, ela poderia lhe dar uma resposta muito imaginativa. Mas se você permitir que ele o ajude a planejar uma viagem à Tanzânia, ele pode tentar deixá-lo em um hotel que não existe.

Outro risco da IA é que ela reflete ou mesmo exacerba preconceitos existentes sobre certas identidades de gênero, raças, etnias, etc.

Para entender por que tais ilusões e vieses surgem, é importante entender como funcionam os modelos de IA atuais mais comuns. Eles são essencialmente versões muito complexas de código que permitem que seu aplicativo de e-mail preveja a próxima palavra que você digitará: em alguns casos, quase todo o texto disponível na web, e eles escaneiam grandes quantidades de texto, analisam, localizam padrões na linguagem humana.

Quando você faz uma pergunta ao AI, ele analisa as palavras que você usa e, em seguida, procura o texto frequentemente associado a essas palavras. Se você escrever "listar ingredientes para panquecas", pode notar que as palavras "farinha, açúcar, sal, fermento em pó, leite e ovos" aparecem frequentemente com a frase. Em seguida, com base no que sabe sobre a ordem em que essas palavras geralmente aparecem, ele gera uma resposta (os modelos de IA que funcionam dessa maneira usam os chamados transformadores, e o GPT-4 é um desses modelos).

Esse processo explica por que a IA pode alucinar ou ser tendenciosa, sem qualquer compreensão contextual das perguntas que você faz ou das coisas que você diz. Se você disser que cometeu um erro de digitação, provavelmente dirá "desculpe, cometi um erro de digitação". Mas isso é apenas uma ilusão, não digita nada errado, diz isso porque escaneou texto suficiente para saber que "desculpe, digitei errado" é uma das coisas que as pessoas costumam escrever depois de corrigir a frase.

Da mesma forma, os modelos de IA herdam vieses inerentes ao texto em que foram treinados. Se alguém ler muitos artigos sobre médicos, e os artigos mencionarem principalmente médicos do sexo masculino, sua resposta assumirá que a maioria dos médicos são homens.

Embora alguns pesquisadores argumentem que as alucinações são um problema inerente, eu discordo. Estou otimista de que, com o tempo, podemos ensinar modelos de IA a distinguir fato de ficção. Por exemplo, a Open AI fez um trabalho promissor nisso.

Outras organizações, incluindo o Instituto Alan Turing e o Instituto Nacional de Padrões e Tecnologia, estão combatendo o viés. Uma abordagem é incorporar valores humanos e raciocínio de alto nível à IA. É semelhante a como os humanos autoconscientes funcionam: talvez você pense que a maioria dos médicos é do sexo masculino, mas está consciente o suficiente dessa suposição para saber que precisa combatê-la conscientemente. A inteligência artificial pode funcionar de maneira semelhante, especialmente se os modelos forem projetados por pessoas de diferentes origens.

No final, todos que usam IA precisam estar cientes da questão do viés e ser um usuário informado. Um artigo que você pede a uma IA para redigir pode ser tão tendencioso quanto cheio de erros factuais. Você precisa verificar os vieses de sua IA, assim como os seus.

Os alunos não aprenderão a escrever porque a IA fará isso por eles

Muitos professores temem que a IA atrapalhe seu trabalho com os alunos. Em uma época em que qualquer pessoa com conexão à Internet pode usar inteligência artificial para escrever um primeiro rascunho respeitável de uma dissertação, o que impede um aluno de entregá-lo como seu?

Já existem algumas ferramentas de IA que estão aprendendo a dizer se uma redação foi escrita por um ser humano ou por um computador, para que os professores possam saber se seus alunos estão fazendo seu próprio trabalho. Mas, em vez de tentar desencorajar seus alunos a usar a IA na escrita, alguns professores estão realmente incentivando isso.

Em janeiro, uma veterana professora de inglês chamada Cherie Shields publicou um artigo na Education Week. publicou um artigo sobre como ela usa o Chat GPT em sua sala de aula. Bate-papo GPT ajuda seus alunos a começar um ensaio para escrever um esboço e até mesmo fornecer feedback sobre suas atribuições.

Ela escreve: "Os professores devem adotar a tecnologia de IA como outra ferramenta que os alunos podem usar. Assim como ensinamos os alunos a fazer uma boa pesquisa no Google, os professores devem criar clareza sobre como os bots do Chat GPT podem ajudar na redação de ensaios". a existência da IA e ajudar os alunos a usá-la pode revolucionar a maneira como ensinamos.” Nem todo professor tem tempo para aprender e usar novas ferramentas, mas educadores como Cherie Shields apresentam um bom argumento de que os professores que têm tempo se beneficiarão muito.

Isso me lembra a época em que as calculadoras eletrônicas se tornaram populares nas décadas de 1970 e 1980. Alguns professores de matemática temem que os alunos parem de aprender aritmética básica, mas outros adotam a nova tecnologia e se concentram no pensamento por trás da aritmética.

A IA também pode ajudar na escrita e no pensamento crítico. Especialmente nos primeiros dias, quando alucinações e preconceitos ainda são um problema, os educadores podem fazer com que a IA gere redações e, em seguida, verifique os fatos com os alunos. Organizações sem fins lucrativos educacionais, como a Khan Academy e o OER Project, fornecem aos professores e alunos ferramentas on-line gratuitas que dão grande ênfase ao teste de alegações, e nenhuma habilidade é mais importante do que saber diferenciar o verdadeiro do falso.

Nós realmente precisamos garantir que o software educacional ajude a fechar a lacuna de desempenho, e não piorá-la. O software de hoje é voltado principalmente para alunos que já estão motivados para aprender. Ele pode criar um plano de estudo para você, conectá-lo a bons recursos e testar seus conhecimentos. No entanto, ainda não sabe como envolver você em assuntos que ainda não lhe interessam. Esse é um problema que os desenvolvedores precisam resolver para que todos os tipos de alunos possam se beneficiar da IA.

**O que fazer a seguir? **

Acredito que temos mais motivos para estar otimistas de que podemos gerenciar os riscos da IA enquanto maximizamos seus benefícios, mas precisamos agir rapidamente.

Os governos precisam desenvolver experiência em IA para desenvolver leis e regulamentos para lidar com essa nova tecnologia. Eles precisam lidar com desinformação e deepfakes, ameaças de segurança, mudanças no mercado de trabalho e o impacto na educação. Apenas um exemplo: a lei precisa esclarecer quais usos de deepfakes são legais e como os deepfakes devem ser rotulados para que todos entendam que o que veem ou ouvem é falso.

Os líderes políticos precisam ser capazes de se engajar em um diálogo informado e ponderado com os constituintes. Eles também precisam decidir o quanto cooperar com outros países nessas questões, em vez de agirem sozinhos.

No setor privado, as empresas de IA precisam fazer seu trabalho com segurança e responsabilidade. Isso inclui proteger a privacidade das pessoas, garantir que seus modelos de IA reflitam valores humanos fundamentais, minimizar o viés para beneficiar o maior número possível de pessoas e impedir que a tecnologia seja explorada por criminosos ou terroristas. Empresas em muitos setores da economia precisarão ajudar seus funcionários na transição para um local de trabalho centrado em IA, para que ninguém fique para trás. E os clientes devem sempre saber se estão interagindo com uma IA ou com um humano.

Por fim, encorajo todos a prestarem o máximo de atenção possível ao desenvolvimento da inteligência artificial. Esta é a inovação mais transformadora que veremos em nossa vida, e um debate público saudável dependerá da compreensão de todos sobre a própria tecnologia, seus benefícios e seus riscos. Os benefícios da inteligência artificial serão enormes, e a melhor razão para acreditar que podemos controlar os riscos é que conseguimos.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)