Em 26 de outubro, Microsoft, OpenAI, Google e Anthropic emitiram uma declaração conjunta em seu site oficial, nomeando Chris Meserole como diretor executivo do "Frontier Model Forum" e investindo US$ 10 milhões em fundos de segurança para melhorar a segurança de produtos de IA generativa, como ChatGPT e Bard.
Esta declaração é um desempenho importante das quatro principais empresas de tecnologia para desenvolver IA generativa segura, confiável e estável, e também faz parte do "Compromisso de Segurança da IA" assinado com o funcionário, que é crucial para o desenvolvimento saudável da IA generativa global.
Introdução ao Fórum Modelo de Fronteira
O Frontier Model Forum, cofundado pela Microsoft, OpenAI, Google e Anthropic em 26 de julho deste ano, é o principal responsável por garantir o desenvolvimento seguro e responsável de modelos de IA de ponta.
4 Objetivos principais do Fórum:
Promover a pesquisa de segurança em IA, promover o desenvolvimento responsável de modelos de ponta, minimizar riscos e permitir avaliações independentes e padronizadas das capacidades e segurança da IA.
Identificar as melhores práticas para desenvolver e implantar de forma responsável modelos de ponta para ajudar o público a entender a natureza, as capacidades, as limitações e os impactos da tecnologia.
Trabalhar com decisores políticos, académicos, sociedade civil e empresas para partilhar conhecimentos sobre os riscos de confiança e segurança.
Forte apoio ao desenvolvimento de aplicações de IA que contribuam para enfrentar os desafios societais, como a atenuação das alterações climáticas e a adaptação às mesmas, a deteção e prevenção precoces do cancro e a luta contra as ciberameaças.
Chris Meserole Responsabilidades
Chris tem profunda experiência em política de tecnologia, com um compromisso de longa data com a governança e a segurança de tecnologias emergentes e aplicações futuras. Mais recentemente, Chris também atuou como diretor da AI and Emerging Technologies Initiative na Brookings Institution.
No Frontier Model Forum, Chris desempenhará as seguintes funções:
Promover a investigação em matéria de segurança da IA, promover o desenvolvimento de modelos de ponta e minimizar os riscos potenciais.
Identifique as melhores práticas de segurança para modelos de ponta.
Partilhar conhecimentos com decisores políticos, universidades, sociedade e outras partes interessadas para impulsionar o desenvolvimento responsável da IA.
Apoiar os esforços para utilizar a IA para resolver os maiores desafios da sociedade.
Chris diz que os modelos de IA mais poderosos têm uma enorme promessa social, mas para alcançar seu potencial, precisamos entender melhor como desenvolvê-los e avaliá-los com segurança. Tenho o prazer de trabalhar com o Frontier Model Forum para enfrentar este desafio.
Fundo de Segurança da IA
Ao longo do último ano, a IA generativa fez enormes progressos, juntamente com muitos riscos potenciais de segurança. Para enfrentar esse desafio, Microsoft, OpenAI, Google e Anthropic estabeleceram um Fundo de Segurança de IA para apoiar pesquisadores independentes de instituições acadêmicas, instituições de pesquisa e startups de todo o mundo a trabalharem juntos para construir um ecossistema de segurança de IA saudável e seguro.
No início deste ano, Microsoft, OpenAI, Google e Anthropic assinaram o "AI Security Pledge", que inclui um compromisso para facilitar a descoberta e o relatório de vulnerabilidades de IA por terceiros nas quatro grandes empresas de tecnologia.
O principal foco do Fundo de Segurança da IA é apoiar o desenvolvimento de novas técnicas de avaliação de modelos para ajudar a desenvolver e testar modelos de IA de ponta.
O aumento do financiamento para a segurança da IA ajudará a melhorar as normas de segurança e proporcionará controlos eficazes para as indústrias e os programadores enfrentarem os desafios colocados pelos sistemas de IA.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Microsoft, OpenAI, etc. investiram US $ 10 milhões, o que é o "Frontier Model Forum"?
Fonte original: AIGC Open Community
Em 26 de outubro, Microsoft, OpenAI, Google e Anthropic emitiram uma declaração conjunta em seu site oficial, nomeando Chris Meserole como diretor executivo do "Frontier Model Forum" e investindo US$ 10 milhões em fundos de segurança para melhorar a segurança de produtos de IA generativa, como ChatGPT e Bard.
Esta declaração é um desempenho importante das quatro principais empresas de tecnologia para desenvolver IA generativa segura, confiável e estável, e também faz parte do "Compromisso de Segurança da IA" assinado com o funcionário, que é crucial para o desenvolvimento saudável da IA generativa global.
Introdução ao Fórum Modelo de Fronteira
O Frontier Model Forum, cofundado pela Microsoft, OpenAI, Google e Anthropic em 26 de julho deste ano, é o principal responsável por garantir o desenvolvimento seguro e responsável de modelos de IA de ponta.
4 Objetivos principais do Fórum:
Promover a pesquisa de segurança em IA, promover o desenvolvimento responsável de modelos de ponta, minimizar riscos e permitir avaliações independentes e padronizadas das capacidades e segurança da IA.
Identificar as melhores práticas para desenvolver e implantar de forma responsável modelos de ponta para ajudar o público a entender a natureza, as capacidades, as limitações e os impactos da tecnologia.
Trabalhar com decisores políticos, académicos, sociedade civil e empresas para partilhar conhecimentos sobre os riscos de confiança e segurança.
Forte apoio ao desenvolvimento de aplicações de IA que contribuam para enfrentar os desafios societais, como a atenuação das alterações climáticas e a adaptação às mesmas, a deteção e prevenção precoces do cancro e a luta contra as ciberameaças.
Chris Meserole Responsabilidades
Chris tem profunda experiência em política de tecnologia, com um compromisso de longa data com a governança e a segurança de tecnologias emergentes e aplicações futuras. Mais recentemente, Chris também atuou como diretor da AI and Emerging Technologies Initiative na Brookings Institution.
No Frontier Model Forum, Chris desempenhará as seguintes funções:
Chris diz que os modelos de IA mais poderosos têm uma enorme promessa social, mas para alcançar seu potencial, precisamos entender melhor como desenvolvê-los e avaliá-los com segurança. Tenho o prazer de trabalhar com o Frontier Model Forum para enfrentar este desafio.
Fundo de Segurança da IA
Ao longo do último ano, a IA generativa fez enormes progressos, juntamente com muitos riscos potenciais de segurança. Para enfrentar esse desafio, Microsoft, OpenAI, Google e Anthropic estabeleceram um Fundo de Segurança de IA para apoiar pesquisadores independentes de instituições acadêmicas, instituições de pesquisa e startups de todo o mundo a trabalharem juntos para construir um ecossistema de segurança de IA saudável e seguro.
O principal foco do Fundo de Segurança da IA é apoiar o desenvolvimento de novas técnicas de avaliação de modelos para ajudar a desenvolver e testar modelos de IA de ponta.
O aumento do financiamento para a segurança da IA ajudará a melhorar as normas de segurança e proporcionará controlos eficazes para as indústrias e os programadores enfrentarem os desafios colocados pelos sistemas de IA.