Mais de 370 pessoas, incluindo LeCun e Ng Enda, assinaram uma carta conjunta: O controlo rigoroso da IA é perigoso e a abertura é o antídoto

Fonte original: Heart of the Machine

Fonte da imagem: Gerado por Unbounded AI

Nos últimos dias, a discussão sobre como supervisionar a IA tornou-se cada vez mais acalorada, e os grandes têm opiniões muito diferentes.

Por exemplo, o triunvirato do Prêmio Turing Geoffrey Hinton, Yoshua Bengio e Yann LeCun tem duas visões. Hinton e Bengio são uma equipa que apela fortemente a uma regulamentação mais apertada da IA, o que pode levar ao risco de "extinção da IA". LeCun não compartilha de suas opiniões, argumentando que uma forte regulamentação da IA inevitavelmente levará a um monopólio de gigantes, com o resultado de que apenas algumas empresas controlam a pesquisa e o desenvolvimento de IA.

A fim de expressar suas ideias, muitas pessoas assinaram uma carta conjunta para transmitir seus pontos de vista, por exemplo, nos últimos dias, Bengio, Hinton e outros emitiram uma carta conjunta "Managing AI Risk in a Rapid Evolving Era", pedindo aos pesquisadores que tomem medidas urgentes de governança antes de desenvolver sistemas de IA.

Ao mesmo tempo, uma carta aberta intitulada "Declaração Conjunta sobre a Segurança e Abertura da Inteligência Artificial" está atualmente a fermentar nas redes sociais.

Link para a carta aberta:

Até agora, mais de 370 pessoas, incluindo LeCun, um dos três gigantes do deep learning, e Andrew Ng, professor do Departamento de Ciência da Computação da Universidade de Stanford, assinaram a carta aberta. A lista está em constante atualização.

"O acesso aberto, transparente e amplo torna a plataforma de software mais segura e confiável. Esta carta aberta da Fundação Mozilla, que também assinei, defende plataformas e sistemas de IA abertos."

O conteúdo da carta aberta é o seguinte:

Estamos em um momento crítico na governança da IA. Para mitigar os danos atuais e futuros dos sistemas de IA, precisamos abraçar a abertura, a transparência e o amplo acesso. Esta tem de ser uma prioridade global.
É verdade que os modelos disponíveis publicamente são arriscados e vulneráveis – os modelos de IA podem ser usados indevidamente por atores mal-intencionados ou implantados por desenvolvedores mal equipados. No entanto, repetidamente, vimos isso com todos os tipos de tecnologias proprietárias – o aumento do acesso público e da censura torna a tecnologia mais segura, não mais perigosa. A ideia de que o controle rigoroso e proprietário dos modelos de IA subjacentes é a única maneira de nos proteger de danos em massa é, na melhor das hipóteses, ingênua, e perigosa, na pior.

Além disso, a história do desenvolvimento humano ensina-nos que a adoção rápida de uma regulamentação errada pode conduzir a uma concentração de poder, o que pode prejudicar a concorrência e a inovação. Um modelo aberto pode informar o debate público e melhorar o desenvolvimento da estratégia. Se o nosso objetivo é a segurança, a proteção e a responsabilização, então a abertura e a transparência são fatores importantes para alcançar esse objetivo.
Estamos no meio de uma discussão dinâmica sobre o que significa ser "aberto" na era da IA. Este importante debate não deve ser abrandado. Em vez disso, deve ser acelerado, encorajando-nos a experimentar, aprender e desenvolver novas formas de alavancar a abertura na corrida da segurança da IA.

Precisamos construir um conjunto de abordagens de código aberto e abertura que possam servir como blocos de construção para:

  1. Acelerar a compreensão dos riscos e perigos das capacidades de IA através de investigação independente, colaboração e partilha de conhecimentos. 2. Reforçar o escrutínio público e a responsabilização, ajudando os reguladores a adotar ferramentas para monitorizar sistemas de IA em grande escala. 3. Reduzir a barreira à entrada de novos intervenientes e concentrar-se na criação de uma IA responsável.
    Como signatários desta carta aberta, somos um grupo diversificado de cientistas, estrategistas, engenheiros, ativistas, empresários, educadores e jornalistas, para citar alguns. Representamos diferentes perspetivas sobre como gerenciar e publicar IA de código aberto. No entanto, concordamos plenamente numa coisa: uma abordagem aberta, responsável e transparente é essencial para nos manter seguros na era da IA.
    Quando se trata de segurança de IA, a abertura é o antídoto, não o veneno.

Assinado por:

  • Arthur Mensch, cofundador e CEO da startup francesa MistralAI
  • Andrew Ng, fundador da DeepLearning.AI, fundador e CEO da Landing AI, professor de ciência da computação na Universidade de Stanford
  • Yann Lecun, vencedor do Prêmio Turing, cientista-chefe de IA da Meta
  • Julien Chaumond, CTO Abraçando Face
  • Brian Behlendorf, membro fundador do Apache, CTO da OpenSSF
  • Eric Von Hippel é economista americano e professor da MIT Sloan School of Management
  • ......

No momento, esta carta aberta, que só apareceu por alguns dias, continua a fermentar, e tem atraído grande atenção e discussão na comunidade estrangeira de IA, para que você possa continuar a prestar atenção à atualização da lista.

Se concordar com a ideia da carta conjunta, pode também apresentar a sua própria assinatura.

Levará tempo para responder se uma forte regulamentação da IA fará mais mal do que bem, ou se os benefícios superam as desvantagens.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)