Os vencedores do Prêmio Turing estão discutindo, e LeCun: A teoria da extinção da IA de Bengio, Hinton, etc. é ridícula

Fonte: Coração da Máquina

Fonte da imagem: Gerada por Unbounded AI

LeCun disse que a grande maioria dos pares académicos apoia muito a I&D de IA aberta, mas ainda há opositores.

Sobre a questão dos riscos da IA, os figurões de todas as esferas da vida também têm opiniões diferentes. Algumas pessoas assumiram a liderança na assinatura de uma carta conjunta pedindo uma moratória imediata sobre os laboratórios de IA, uma visão apoiada pelo triunvirato de aprendizagem profunda Geoffrey Hinton, Yoshua Bengio e outros.

Apenas alguns dias atrás, Bengio, Hinton e outros emitiram uma carta conjunta "Managing AI Risks in an Era of Rapid Development", pedindo aos pesquisadores que tomem medidas urgentes de governança para priorizar práticas éticas e de segurança antes de desenvolver sistemas de IA, e pedindo aos governos que tomem medidas para gerenciar os riscos representados pela IA.

O artigo menciona algumas medidas urgentes de governança, como o envolvimento de instituições estatais para evitar que as pessoas usem indevidamente a IA. Para alcançar uma regulamentação eficaz, os governos precisam ter uma compreensão abrangente dos desenvolvimentos da IA. Os reguladores devem tomar uma série de medidas, tais como o registo de modelos, a proteção eficaz dos denunciantes e o acompanhamento do desenvolvimento de modelos e da utilização de supercomputadores. Os reguladores também precisam de acesso a sistemas avançados de IA para avaliar as suas capacidades perigosas antes da implantação.

Não só isso, mas um pouco mais atrás, em maio deste ano, a organização americana sem fins lucrativos Center for Artificial Intelligence Security emitiu um comunicado alertando que a inteligência artificial deve ser considerada como um risco de extinção da humanidade como uma epidemia, e aqueles que apoiaram a declaração também incluíram Hinton, Bengio e outros.

Em maio, Hinton também pediu demissão de seu emprego no Google para falar sobre os riscos representados pela IA. Em entrevista ao New York Times, ele disse: "A maioria das pessoas pensa que está longe. Eu costumava pensar que isso ainda estava longe, talvez 30 a 50 anos ou até mais. Mas, obviamente, não penso assim agora."

Previsivelmente, aos olhos de figurões da IA como Hinton, gerenciar os riscos representados pela IA é uma questão muito urgente.

No entanto, Yann LeCun, um dos três grandes em deep learning, está muito otimista sobre o desenvolvimento da IA. Ele se opôs amplamente à assinatura de uma carta conjunta sobre os riscos da IA, argumentando que o desenvolvimento da IA está longe de ser uma ameaça para a humanidade.

Ainda agora, LeCun respondeu a algumas perguntas de internautas sobre os riscos da IA em uma comunicação com usuários X.

O internauta perguntou a LeCun sobre a opinião de LeCun sobre o artigo "'This is his climate change': The experts helping Rishi Sunak seal his legacy", que argumenta que a carta conjunta emitida por Hinton, Bengio e outros mudou a perceção das pessoas sobre a IA, deixando de ver a IA como um assistente para a IA como uma ameaça potencial no início. O artigo prossegue dizendo que, nos últimos meses, observadores no Reino Unido encontraram mais e mais informações sobre a atmosfera apocalíptica que a IA está criando. Em março, o governo do Reino Unido publicou um livro branco prometendo não sufocar a inovação em IA. Apenas dois meses depois, no entanto, o Reino Unido começou a falar sobre colocar grades de proteção na IA e instou os EUA a abraçar seu plano para regras globais de IA.

Endereço do artigo:

A reação de LeCun ao artigo foi esta, ele não queria que as preocupações do Reino Unido sobre os riscos fatalistas da IA se espalhassem para outros países.

Depois disso, há a comunicação entre os usuários LeCun e X que mencionamos anteriormente, e aqui estão todas as respostas de LeCun:

"Altman, Hassabis e Amodei estão envolvidos em lobby corporativo maciço. Eles estão tentando regular a indústria de IA. E você, Geoff e Yoshua estão dando "munição" para aqueles que fazem lobby por uma proibição da pesquisa aberta de IA.

Se sua campanha de medo for bem-sucedida, inevitavelmente levará ao que você e eu consideramos um resultado catastrófico: um punhado de empresas assumirá o controle da IA.

A grande maioria dos pares académicos apoia muito a I&D de IA aberta. Poucas pessoas acreditam no cenário apocalíptico que você prega. Você, Yoshua, Geoff e Stuart são as únicas exceções.

Como muitas pessoas, sou um grande defensor de plataformas abertas de IA porque acredito em uma combinação de forças: criatividade das pessoas, democracia, forças de mercado e regulamentações de produtos. Também sei que é possível produzir sistemas de IA seguros e sob nosso controle. Já apresentei propostas concretas nesse sentido. Tudo isso motivará as pessoas a fazerem a coisa certa.

Você escreve como se a IA tivesse sido criada do nada, que é um fenômeno natural fora do nosso controle. Mas não é o caso. Está progredindo por causa de todos que você e eu conhecemos. Nós e eles temos o poder de construir a "coisa certa". Exigir regulamentação de pesquisa e desenvolvimento (em oposição à implantação de produtos) implica a suposição de que essas pessoas e as organizações que servem são incompetentes, imprudentes, autodestrutivas ou más. Mas não é o caso.

Eu apresentei muitos argumentos para provar que o cenário apocalíptico que você tem medo é ridículo. Eu não vou entrar nisso aqui. Mas o ponto principal é que, se um sistema de IA forte é impulsionado por metas, incluindo guarda-corpos, então eles são seguros e controláveis porque definem esses guarda-corpos e metas. (Os LLMs autorregressivos atuais não são orientados por objetivos, então não vamos inferir das fraquezas dos LLMs autorregressivos).

Quando se trata de código aberto, o efeito de suas atividades será exatamente o oposto do que você está procurando. No futuro, os sistemas de IA serão um tesouro de todo o conhecimento e cultura humanos, e o que precisamos é de uma plataforma de código aberto e gratuita para que todos possam contribuir para isso. A abertura é a única forma de as plataformas de IA refletirem toda a gama de conhecimento e cultura humanos. Isso requer que as contribuições para essas plataformas sejam crowdsourced, semelhante à Wikipédia. A menos que a plataforma esteja aberta, isso não funcionará.

Se as plataformas de IA de código aberto forem regulamentadas, outro cenário está fadado a acontecer, que é que um punhado de empresas controlará a plataforma de IA e, por extensão, a dependência digital total das pessoas. O que isso significa para a democracia? O que significa isto para a diversidade cultural? É isso que me mantém acordado à noite."

Abaixo do longo tweet de LeCun, também há muitas pessoas que "apoiam" seus pontos de vista.

Irina Rish, professora do Departamento de Ciência da Computação e Pesquisa Operacional da Universidade de Montreal, também é membro do núcleo do Mila - Quebec Institute for AI. Ela disse que talvez os pesquisadores que apoiam a IA de código aberto devam parar de ficar em silêncio e devem liderar o caminho no desenvolvimento da IA emergente.

O fundador da Amazon, Beff Jezos, também disse na seção de comentários que essas avaliações são importantes e necessárias.

Internautas disseram que, no início, discutir questões de segurança pode enriquecer a imaginação de todos sobre a tecnologia futura, mas a ficção científica sensacional não deve levar ao surgimento de políticas de monopólio.

O moderador do blogue, Lex Fridman, tem mais a esperar neste debate.

As discussões sobre os riscos da IA também moldarão o futuro da IA. Quando uma ideia rouba os holofotes, as pessoas seguem-na cegamente. Só quando as duas partes puderem continuar a envolver-se em discussões racionais é que poderão verdadeiramente ver a "verdadeira face" da IA.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)