O discurso de Cambridge do "pai do ChatGPT" foi boicotado, e os figurões acadêmicos lutaram ferozmente pela segurança da IA

Fonte do artigo: Titanium Media

Autor: Lin Zhijia

Editor: Ma Jinnan

Este artigo foi publicado pela primeira vez na Titanium Media APP

Andrew Ng, fundador do Google Brain e professor da Universidade de Stanford, apontou que regular a IA destrói a inovação. Musk, por outro lado, acredita que a IA é mais perigosa do que as armas nucleares (bombas nucleares).

Com o governo dos EUA emitindo novas regulamentações de IA, houve um ressurgimento recente da controvérsia sobre a regulamentação de grandes modelos de IA.

Na madrugada de 2 de novembro, hora de Pequim, quando Sam Altman, o "pai do ChatGPT" e CEO da OpenAI, participou num evento em Cambridge, Inglaterra, foi fortemente combatido por ativistas anti-IA, e foi "esmagado" à sua frente no auditório, e alguns manifestantes exigiram que a competição de IA fosse interrompida.

Alguns manifestantes chegaram a pendurar faixas e soltar panfletos nas varandas, e a cena foi caótica por um tempo. Claro, Ultraman estava muito calmo e completou o evento com calma.

Em seu discurso, Altman disse que, mesmo que os modelos de IA sejam poderosos o suficiente no futuro, eles exigirão um enorme poder de computação para serem executados. Se o limiar para o poder de computação for aumentado, o risco de crime deliberado pode ser reduzido e a responsabilização também pode ser melhorada. Mais cedo, o cofundador da OpenAI, Ilya Sutskever, disse sem rodeios que o ChatGPT pode ser consciente e a IA terá riscos potenciais.

Ao mesmo tempo, Yann LeCun, cientista-chefe da Meta AI e vencedor do "Prêmio Turing" de 2018, recentemente criticou repetidamente Altman, o CEO da DeepMind, Demis Hassabis, o CEO da Anthropic e outros em plataformas sociais por "lobby corporativo em larga escala" ao governo dos EUA, o que pode eventualmente levar apenas alguns gigantes da big tech a serem capazes de controlar a tecnologia de IA.

Yang Likun apontou que essas pessoas espalham medo. "Se eles tiverem sucesso, você e eu inevitavelmente levaremos a uma catástrofe – um punhado de empresas assumirá o controle da IA."

Posteriormente, Hassabis retrucou: "Eu discordo fortemente da maioria dos comentários de Yang Likun. Ele ressaltou que o Google DeepMind não está tentando alcançar a "captura regulatória" ao discutir a melhor forma de usar IA, e é mais importante começar a discutir como regular a potencial super IA agora.

Em um momento em que a competição por modelos grandes de IA está se tornando cada vez mais feroz, a indústria entrou em uma "fusão", e todos estão envolvidos em batalhas ferozes em torno do tema dos gigantes que controlam a IA.

A IA é a maior ameaça à humanidade? Musk: IA será mais inteligente do que os humanos

Nos últimos 12 meses, o ChatGPT tomou o mundo de assalto, e a IA generativa se tornou completamente um tópico central no mundo da tecnologia este ano.

Agora, a Apple também está adotando a IA.

Na conferência de resultados do quarto trimestre na manhã de 3 de novembro, horário de Pequim, o CEO da Apple, Tim Cook, disse que a Apple realizou vários trabalhos em IA generativa e está investindo muito dinheiro para fazê-lo de forma responsável. "Com o tempo, você verá que os produtos da Apple com essas tecnologias em seu núcleo evoluirão."

Anteriormente, a Bloomberg informou que a Apple está silenciosamente alcançando os concorrentes no campo da IA, por um lado, aumentou o recrutamento relacionado à IA, por outro lado, acelerou a maturidade e a implementação da tecnologia de IA por meio de fusões e aquisições de startups, e começou a desenvolver grandes modelos de linguagem internamente, conhecidos internamente como AppleGPT.

Ao mesmo tempo, a equipe xAI criada por Elon Musk, o homem mais rico do mundo em tecnologia e CEO da Tesla, com um patrimônio líquido de US$ 220 bilhões, também foi especulada para ter o primeiro lote de informações do produto, incluindo Grok relacionado à recuperação de informações de IA, prompt word workstation IDE, etc. Além disso, gigantes da tecnologia como Google, Microsoft e Amazon também estão participando da onda de IA.

No entanto, líderes da indústria, incluindo Elon Musk e Ultraman, falaram recentemente sobre a potencial letalidade da IA e os riscos da IA semanalmente. Isto parece ter-se tornado um "pequeno círculo de consenso".

Em 2 de novembro, Musk disse durante a Cúpula Britânica de IA que a IA é uma das maiores ameaças à humanidade, e a IA se tornará a força mais disruptiva da história e será mais inteligente do que os humanos. Ele acredita que a IA um dia fará com que todos percam seus empregos.

"A IA tem a capacidade de fazer qualquer coisa, e não sei se isso faria com que os humanos se sentissem confortáveis ou desconfortáveis. Se você quer um elfo mágico, a IA irá realizar todos os seus desejos, e não há limite, e não haverá restrição de apenas 3 desejos, que podem ser bons ou ruins, e o desafio no futuro será como encontrar o sentido da vida. Musk disse.

Musk alertou repetidamente que a IA é mais perigosa do que as armas nucleares (bombas nucleares).

Ultraman também disse repetidamente que o governo a controla. Dentro de 10 anos, o mundo pode ter um poderoso sistema de IA (IA), mas agora, a humanidade precisa estar pronta para isso.

O governo dos EUA também começou a regular a segurança da IA. Em 30 de outubro, o presidente dos EUA, Joe Biden, assinou uma nova ordem executiva sobre IA, tomando a ação mais abrangente de todos os tempos na direção dos padrões de segurança da IA, protegendo a privacidade dos americanos, promovendo a justiça e os direitos civis, salvaguardando os interesses dos consumidores e trabalhadores, promovendo a inovação e a concorrência e avançando a liderança dos EUA no exterior, entre outras coisas, para gerenciar os riscos potenciais da IA.

Vale a pena mencionar que, na nova ordem executiva, o apoio aos gigantes da IA foi reforçado, como o apoio à investigação em IA através de financiamento da investigação e outros meios, a atração de talento estrangeiro, etc.

Uma pedra agita mil ondas.

Posteriormente, especialistas acadêmicos de IA como os "Turing Three" tiveram uma discussão acalorada sobre supervisão de IA, que foi dividida principalmente em duas fações: pessoas representadas por Yang Likun e Ng Enda acreditavam que o carro queria frear antes de ser construído, e a IA não havia chegado ao estágio de supervisão; No entanto, pessoas como Elon Musk, Altman e Geoffrey Hinton, o "pai do deep learning", acreditam que a IA ainda é muito perigosa.

Entre eles, Yang Likun disse sem rodeios que, se os Estados Unidos continuarem a apoiar a pesquisa de IA dos gigantes da tecnologia, isso pode eventualmente levar a que apenas alguns grandes gigantes da tecnologia sejam capazes de controlar a IA, o que inevitavelmente levará a um enorme risco e desastre.

"Como muitas pessoas, sou um grande defensor de uma plataforma de IA aberta. Mas também acredito que o futuro da IA é uma combinação da criatividade das pessoas, democracia, poder de mercado e regulação. Yang Likun escreveu na plataforma X.

Andrew Ng, fundador do Google Brain e professor da Universidade de Stanford, também apoia Yang. Ele disse que era uma "conspiração" para impor uma forte regulamentação sobre o desenvolvimento da tecnologia de IA.

"Isso vai destruir a inovação", observou Ng, "e definitivamente há algumas grandes empresas de tecnologia que estão relutantes em competir com a IA de código aberto, então estão criando medo de que a IA leve à extinção humana." Esta sempre foi uma arma legislativa procurada por lobistas, mas é muito prejudicial para a comunidade de código aberto. Com a direção da regulamentação em muitos países, acho que nenhuma regulamentação seria melhor do que está agora. "

Mas, ao mesmo tempo, em 25 de outubro, o vencedor do Prêmio Turing, Yoshua Bengio, o "pai da aprendizagem profunda" Geoffrey Hinton, Andrew Yao, Zhang Yaqin e outros especialistas da indústria de IA também assinaram uma carta conjunta, que continuou a pedir o fortalecimento da supervisão do desenvolvimento da tecnologia de IA, e acreditava que medidas urgentes de governança deveriam ser tomadas antes que esses sistemas sejam desenvolvidos. e uma grande mudança no sentido de práticas seguras e éticas na I&D no domínio da IA.

Hoje, a batalha feroz entre figurões acadêmicos sobre a regulamentação de segurança da IA continua. A IA está agora profundamente em tudo, desde motores de busca a redes sociais e finanças, por isso os especialistas levantaram sérias preocupações sobre os desafios desta corrida armamentista de IA, riscos de segurança e deep fakes.

Yoshua Bengio、Geoffrey Hinton、Yann LeCun

E muitos internautas estão preocupados se a relação entre os figurões será afetada pela polêmica. Yang Likun publicou uma foto com Yoshua Bengio e Hinton há algum tempo, que parece responder bem a esta pergunta.

Em 3 de novembro, o governo dos EUA disse que havia estabelecido o AI Security Institute, na esperança de desenvolver padrões e regras para regular o futuro da IA por meio da capacidade legislativa do Departamento de Comércio dos EUA e outras agências.

Aceleração regulatória nos próximos 10 anos, os seres humanos podem entrar plenamente na era da inteligência

Em 1º de novembro, na primeira Cúpula de Segurança da IA realizada em Bletchley Park, Londres, Reino Unido, foi divulgada a "Declaração de Bletchley", declarando que a IA traz grandes oportunidades e tem o potencial de melhorar o bem-estar humano, a paz e a prosperidade, mas, ao mesmo tempo, a IA também apresenta riscos significativos, que precisam ser abordados por meio da cooperação internacional.

Na reunião, mais de 25 países e regiões, incluindo Estados Unidos, China e União Europeia, assinaram a declaração. O primeiro-ministro do Reino Unido, Rishi Sunak, disse: "Esta é uma conquista histórica, já que as potências de IA mais poderosas do mundo reconhecem a urgência de 'entender os riscos da IA' para ajudar a garantir o futuro a longo prazo de nossa próxima geração". Como líderes, temos a responsabilidade de agir e tomar medidas para proteger as pessoas, e é exatamente isso que estamos fazendo. "

A declaração afirma que a IA apresenta riscos significativos, inclusive no campo da vida cotidiana, e que "todas as questões são de suma importância, e reconhecemos a necessidade e a urgência de resolvê-las". "

"Para conseguir isso, afirmamos que a IA deve ser projetada, desenvolvida, implantada e usada de forma segura, centrada no ser humano, confiável e responsável para o benefício de todos." Muitos dos riscos colocados pela IA são de natureza internacional e são mais bem abordados através da cooperação internacional – identificando os riscos de segurança da IA de interesse comum e apoiando uma rede internacionalmente inclusiva de investigação científica de segurança de IA de ponta, refere a declaração.

Em 3 de novembro, no "New Generation Artificial Intelligence Frontier Forum" realizado pela Universidade de Pequim, Huang Tiejun, professor da Escola de Ciência da Computação da Universidade de Pequim e decano da Academia de Inteligência Artificial de Pequim, disse que a controvérsia atual é que a compreensão básica de todos sobre IA é diferente, e muitas pessoas que se envolvem em pensamento científico não acreditam que a inteligência artificial geral (AGI) será realizada, enquanto outro pensamento técnico, incluindo Yang Likun, acredita que o desenvolvimento da IA é viável.

"São duas formas de pensar completamente diferentes, e nenhuma delas convence ninguém. Portanto, por trás da controvérsia, todos olham para esta questão de uma posição completamente diferente e de uma maneira diferente de pensar. Huang Tiejun disse em seu discurso.

Para o desenvolvimento futuro da tecnologia de modelo grande de IA, Huang Tiejun deu expectativas para 3 anos, 10 anos e 20 anos.

  • Nos próximos três anos, o grande modelo será expandido para a inteligência geral, como visão, audição, inteligência incorporada e ação, e a escala se tornará cada vez menor, tornando-se o "cérebro" da inteligência incorporada; A linguagem comum é atualizada para a linguagem científica, e a inteligência artificial resolve grandes problemas científicos.
  • Nos próximos 10 anos, a humanidade entrará na era da inteligência (capacidade) de uma forma global, assim como a revolução industrial para libertar a força física, assim como a revolução do poder para resolver a circulação de energia, e a construção da ciência e tecnologia, economia e ecologia social com a inteligência como o núcleo será concluída.
  • Nos próximos 20 anos: o grande modelo atual é a inteligência estática orientada por dados, o futuro é a inteligência dinâmica impulsionada pelo ambiente espaço-temporal, e o portador inteligente é atualizado para uma rede neural semelhante ao cérebro; Em 2045, chegarão os AGI físicos que imitam o cérebro estrutural, o cérebro funcional e o supercérebro de desempenho.
  • Além disso, a segurança Al deve ser, pelo menos, dada a mesma importância, caso contrário, a humanidade corre um grande risco.

Na visão de Huang Tiejun, nos próximos 10 anos, toda a economia, sociedade, ciência e tecnologia do mundo pode sofrer uma grande mudança, a inteligência se tornará o elemento básico da operação social, assim como a eletricidade de hoje está em toda parte, o mundo será formado. Em 2045, sob a tecnologia de IA, os seres humanos podem obter dados inteligentes em tempo real, e eles serão iterativamente atualizados, e o cérebro e a subsequente tomada de decisões também mudarão.

"Acho que, antes de 2045, todas essas capacidades de inspiração e inovação como a nossa aparecerão em um não-organismo, mas se isso acontecer, será um risco enorme, se nós, humanos, devemos fazer essa opção, ou se pode ser um pouco mais lento, isso precisa ser muito discutido." Huang Tiejun disse no final de seu discurso.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)