Talvez nunca tenha havido uma tecnologia que se tornou rapidamente o consenso da comunidade científica e tecnológica e até mesmo de toda a sociedade em apenas alguns meses, como o grande modelo de IA. Hoje, todos os gigantes da tecnologia e os principais governos acreditam quase firmemente que a IA mudará o mundo e mudará tudo.
Mas por detrás de um grande consenso, ainda existem demasiados problemas. Por um lado, são reais - substituição no trabalho, proliferação de conteúdos falsos, limiares de utilização desiguais, etc.; por outro lado, são os longos -termo obras de arte humanas. A "ameaça à civilização" expressa aqui. **De acordo com a revista "Wired", a OpenAI até estipulou um mecanismo de saída num documento financeiro quando a IA destruir o sistema económico humano. **
Em julho deste ano, em um evento realizado na sede da IBM, o líder da maioria no Senado dos EUA, Chuck Schumer, disse que iria convocar uma série de conferências sobre inteligência artificial para “trazer as melhores pessoas para a mesa e aprender umas com as outras”. , tente chegar a algum consenso e soluções, e os senadores, nossa equipe e outros apenas ouçam." ** Em última análise, Schumer espera "lançar as bases para a legislação política de IA" com base nas trocas na reunião. **
**Dois meses depois, a reunião começou. **22 participantes das principais empresas de tecnologia participaram da reunião a portas fechadas. Entre eles estavam o CEO da OpenAI, Sam Altman, o CEO da NVIDIA, Huang Jenxun, e o CEO do Google, Sundar. Pichai, o CEO da Meta, Mark Zuckerberg e outros, bem como o fundador da Microsoft, Bill Gates, e o ex-CEO do Google, Eric Schmidt, os líderes tecnológicos da geração anterior da Internet.
A IA deve ser “controlada”
Ninguém negará o enorme potencial da inteligência artificial, mas ainda nos falta muito consenso sobre os riscos, as medidas de segurança, a supervisão e o futuro da inteligência artificial. A única coisa certa é que os humanos não podem permitir completamente o crescimento brutal da inteligência artificial. inteligência.
Depois de deixar a primeira reunião a portas fechadas, o CEO da Tesla, da SpaceX e da Neuralink, Elon Musk, declarou publicamente que a reunião era “histórica” e que endossou a ideia de estabelecer uma nova agência para regular a inteligência artificial, e voltou a enfatizar. os enormes riscos representados pela inteligência artificial.
"As consequências de a IA dar errado são graves, por isso temos que ser proativos em vez de reativos, "Disse Musk." O problema é realmente o risco da civilização, que apresenta riscos potenciais para todos os humanos em todo o mundo. "
Musk não entrou em detalhes sobre os danos específicos da chamada inteligência artificial para a civilização humana, mas quando a inteligência artificial se tornar mais envolvida na gestão e controle de redes elétricas, sistemas de abastecimento de água e sistemas de veículos, os erros causarão um muitos problemas . A cientista da computação e pesquisadora de inteligência artificial Deb Raji também mencionou que as decisões tendenciosas da inteligência artificial afetam todos os aspectos da sociedade.
Além do mais, também existem preocupações humanas de longa data sobre a inteligência artificial.
Mas como podemos reduzir e prevenir os riscos colocados pela inteligência artificial? O presidente da Microsoft, Brad Smith, propôs que precisássemos estabelecer um “freio de emergência” contra os enormes riscos que a inteligência artificial pode representar, especialmente em sistemas de inteligência artificial que gerenciam infraestruturas críticas, como redes de energia e sistemas de água. ameaças que muitas pessoas temem continuam sendo matéria de ficção científica e não se tornam uma nova realidade."**
Brad Smith, foto/
Smith acredita que, tal como os disjuntores encontrados em todos os edifícios e casas, que podem interromper imediatamente o funcionamento do sistema de energia, se necessário, os sistemas de IA precisarão de "freios de emergência" semelhantes para garantir que os seres humanos não sejam afetados por tais sistemas.
Coincidentemente, William Dally, cientista-chefe e vice-presidente sênior da NVIDIA, também apontou que a chave para a possibilidade de erros e danos graves causados pela inteligência artificial como um programa de computador está na “participação humana”, ou seja, os humanos são colocados em o Nos principais elos do trabalho de inteligência artificial, alguns poderes de tomada de decisão da inteligência artificial são restritos. **
William Daly, foto/NVIDIA
“Portanto, acho que, desde que tenhamos cuidado sobre como implantamos a IA, colocando os humanos no elo crítico, podemos garantir que a IA não assuma o controle e desligue nossa rede elétrica ou faça com que aviões caiam do céu. ", disse Daly.
**O código aberto da IA será uma caixa de Pandora? **
No final do ano passado, quando o ChatGPT se tornou popular no círculo tecnológico, algumas pessoas expressaram preocupação com o uso de modelos de IA para comportamentos maliciosos, como fraude. O código aberto parece aumentar o risco de “abuso”.
Um dos debates da conferência girou em torno de modelos de IA de “código aberto” que podem ser baixados e modificados pelo público. O código aberto desses modelos permite que empresas e pesquisadores usem tecnologia de IA semelhante à do ChatGPT sem investir grandes quantias de dinheiro e recursos em treinamento.
Mas os bandidos também podem abusar de sistemas de IA de código aberto, incluindo OpenAI, que interrompeu o código aberto desde GPT-3.5. O cofundador e cientista-chefe da OpenAI, Ilya Sutskever, disse: "Em alguns anos, todos verão claramente que a inteligência artificial de código aberto A inteligência é imprudente.”
Ilya Sutskever conversa com Jen-Hsun Huang na GDC, foto/NVIDIA
**Quando questionado sobre o motivo, ele disse: "Esses modelos são muito fortes e ficarão cada vez mais fortes e, em algum momento, se alguém quisesse, seria fácil causar muitos danos com esses modelos." **
Além disso, Mustafa Suleyman, cofundador da DeepMind e CEO da Inflection AI, também mencionou os riscos do código aberto há pouco tempo e destacou que o principal problema da IA de código aberto é que a "rápida difusão de poder" permitirá um único indivíduo para causar danos sem precedentes ao mundo. e impactar, "Nos próximos 20 anos, o código aberto ingênuo quase certamente causará um desastre." **
Mustafa Suleiman, 图/DeepMind
No entanto, Meta obviamente discorda dessas declarações. **O CEO da Meta, Zuckerberg, respondeu que o código aberto “democratizará a IA, ajudará a concorrência justa e promoverá a inovação individual e corporativa”. **Mas, ao mesmo tempo, ele também disse que o modelo de código aberto pode trazer perigos, mas a Meta está construindo essa tecnologia da forma mais segura possível.
Quando a IA encontra o código aberto, esta ainda é uma questão em aberto.
Escreva no final
2.104 anos atrás, sete anos após a morte do Imperador Wu da Dinastia Han, a corte Han convocou uma consulta política sem precedentes.Uma das principais questões foi a abolição e revisão da política estatal de monopólio do sal e do vinho de ferro implementada durante o Imperador Período de Wu. Para este propósito, "Mais de sessenta pessoas virtuosas e literárias", bem como funcionários do governo como Sang Hongyang, o censor imperial, foram mais tarde chamadas de "Conferência do Sal e do Ferro". No entanto, esta Conferência do Sal e do Ferro discutiu essencialmente a direcção da política económica da Dinastia Han.
Embora os temas sejam diferentes e o ambiente da época seja muito diferente,** quer tenha sido a Conferência do Sal e do Ferro, há mais de 2.000 anos, ou o atual Fórum de Insights de Inteligência Artificial, estamos todos enfrentando um enorme problema, e esperamos comunicar através do debate sobre "grupos de talentos" como base para a legislação. **
Imagem/Google
Em um artigo recente comemorativo do 25º aniversário do Google, o atual CEO do Google, Sundar Pichai, escreveu:
(Google) Participe do importante debate sobre como essas tecnologias moldarão a nossa sociedade e depois trabalhemos juntos para encontrar as respostas. A inteligência artificial é uma parte fundamental disso. Embora estejamos entusiasmados com o potencial da IA para beneficiar as pessoas e a sociedade,** sabemos que a IA, como qualquer tecnologia em fase inicial, apresenta complexidades e riscos. O nosso desenvolvimento e utilização da IA devem abordar estes riscos e ajudar a desenvolver a tecnologia de forma responsável. **
Poucos dias depois, oito empresas, incluindo Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI e Stability, tornaram-se o segundo grupo de empresas a assinar um acordo para “desenvolver tecnologia de inteligência artificial (IA) de forma responsável”. Muitas vezes, quando nos deparamos com problemas que não podem ser resolvidos por um único indivíduo ou por uma única empresa/governo, devemos perceber o valor dos “esforços conjuntos”.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O que os gigantes globais da IA disseram quando se reuniram para uma Conferência de Sal e Ferro na Era da IA?
Talvez nunca tenha havido uma tecnologia que se tornou rapidamente o consenso da comunidade científica e tecnológica e até mesmo de toda a sociedade em apenas alguns meses, como o grande modelo de IA. Hoje, todos os gigantes da tecnologia e os principais governos acreditam quase firmemente que a IA mudará o mundo e mudará tudo.
Mas por detrás de um grande consenso, ainda existem demasiados problemas. Por um lado, são reais - substituição no trabalho, proliferação de conteúdos falsos, limiares de utilização desiguais, etc.; por outro lado, são os longos -termo obras de arte humanas. A "ameaça à civilização" expressa aqui. **De acordo com a revista "Wired", a OpenAI até estipulou um mecanismo de saída num documento financeiro quando a IA destruir o sistema económico humano. **
Em julho deste ano, em um evento realizado na sede da IBM, o líder da maioria no Senado dos EUA, Chuck Schumer, disse que iria convocar uma série de conferências sobre inteligência artificial para “trazer as melhores pessoas para a mesa e aprender umas com as outras”. , tente chegar a algum consenso e soluções, e os senadores, nossa equipe e outros apenas ouçam." ** Em última análise, Schumer espera "lançar as bases para a legislação política de IA" com base nas trocas na reunião. **
**Dois meses depois, a reunião começou. **22 participantes das principais empresas de tecnologia participaram da reunião a portas fechadas. Entre eles estavam o CEO da OpenAI, Sam Altman, o CEO da NVIDIA, Huang Jenxun, e o CEO do Google, Sundar. Pichai, o CEO da Meta, Mark Zuckerberg e outros, bem como o fundador da Microsoft, Bill Gates, e o ex-CEO do Google, Eric Schmidt, os líderes tecnológicos da geração anterior da Internet.
A IA deve ser “controlada”
Ninguém negará o enorme potencial da inteligência artificial, mas ainda nos falta muito consenso sobre os riscos, as medidas de segurança, a supervisão e o futuro da inteligência artificial. A única coisa certa é que os humanos não podem permitir completamente o crescimento brutal da inteligência artificial. inteligência.
Depois de deixar a primeira reunião a portas fechadas, o CEO da Tesla, da SpaceX e da Neuralink, Elon Musk, declarou publicamente que a reunião era “histórica” e que endossou a ideia de estabelecer uma nova agência para regular a inteligência artificial, e voltou a enfatizar. os enormes riscos representados pela inteligência artificial.
"As consequências de a IA dar errado são graves, por isso temos que ser proativos em vez de reativos, "Disse Musk." O problema é realmente o risco da civilização, que apresenta riscos potenciais para todos os humanos em todo o mundo. "
Musk não entrou em detalhes sobre os danos específicos da chamada inteligência artificial para a civilização humana, mas quando a inteligência artificial se tornar mais envolvida na gestão e controle de redes elétricas, sistemas de abastecimento de água e sistemas de veículos, os erros causarão um muitos problemas . A cientista da computação e pesquisadora de inteligência artificial Deb Raji também mencionou que as decisões tendenciosas da inteligência artificial afetam todos os aspectos da sociedade.
Além do mais, também existem preocupações humanas de longa data sobre a inteligência artificial.
Mas como podemos reduzir e prevenir os riscos colocados pela inteligência artificial? O presidente da Microsoft, Brad Smith, propôs que precisássemos estabelecer um “freio de emergência” contra os enormes riscos que a inteligência artificial pode representar, especialmente em sistemas de inteligência artificial que gerenciam infraestruturas críticas, como redes de energia e sistemas de água. ameaças que muitas pessoas temem continuam sendo matéria de ficção científica e não se tornam uma nova realidade."**
Brad Smith, foto/
Smith acredita que, tal como os disjuntores encontrados em todos os edifícios e casas, que podem interromper imediatamente o funcionamento do sistema de energia, se necessário, os sistemas de IA precisarão de "freios de emergência" semelhantes para garantir que os seres humanos não sejam afetados por tais sistemas.
Coincidentemente, William Dally, cientista-chefe e vice-presidente sênior da NVIDIA, também apontou que a chave para a possibilidade de erros e danos graves causados pela inteligência artificial como um programa de computador está na “participação humana”, ou seja, os humanos são colocados em o Nos principais elos do trabalho de inteligência artificial, alguns poderes de tomada de decisão da inteligência artificial são restritos. **
William Daly, foto/NVIDIA
“Portanto, acho que, desde que tenhamos cuidado sobre como implantamos a IA, colocando os humanos no elo crítico, podemos garantir que a IA não assuma o controle e desligue nossa rede elétrica ou faça com que aviões caiam do céu. ", disse Daly.
**O código aberto da IA será uma caixa de Pandora? **
No final do ano passado, quando o ChatGPT se tornou popular no círculo tecnológico, algumas pessoas expressaram preocupação com o uso de modelos de IA para comportamentos maliciosos, como fraude. O código aberto parece aumentar o risco de “abuso”.
Um dos debates da conferência girou em torno de modelos de IA de “código aberto” que podem ser baixados e modificados pelo público. O código aberto desses modelos permite que empresas e pesquisadores usem tecnologia de IA semelhante à do ChatGPT sem investir grandes quantias de dinheiro e recursos em treinamento.
Mas os bandidos também podem abusar de sistemas de IA de código aberto, incluindo OpenAI, que interrompeu o código aberto desde GPT-3.5. O cofundador e cientista-chefe da OpenAI, Ilya Sutskever, disse: "Em alguns anos, todos verão claramente que a inteligência artificial de código aberto A inteligência é imprudente.”
Ilya Sutskever conversa com Jen-Hsun Huang na GDC, foto/NVIDIA
**Quando questionado sobre o motivo, ele disse: "Esses modelos são muito fortes e ficarão cada vez mais fortes e, em algum momento, se alguém quisesse, seria fácil causar muitos danos com esses modelos." **
Além disso, Mustafa Suleyman, cofundador da DeepMind e CEO da Inflection AI, também mencionou os riscos do código aberto há pouco tempo e destacou que o principal problema da IA de código aberto é que a "rápida difusão de poder" permitirá um único indivíduo para causar danos sem precedentes ao mundo. e impactar, "Nos próximos 20 anos, o código aberto ingênuo quase certamente causará um desastre." **
Mustafa Suleiman, 图/DeepMind
No entanto, Meta obviamente discorda dessas declarações. **O CEO da Meta, Zuckerberg, respondeu que o código aberto “democratizará a IA, ajudará a concorrência justa e promoverá a inovação individual e corporativa”. **Mas, ao mesmo tempo, ele também disse que o modelo de código aberto pode trazer perigos, mas a Meta está construindo essa tecnologia da forma mais segura possível.
Quando a IA encontra o código aberto, esta ainda é uma questão em aberto.
Escreva no final
2.104 anos atrás, sete anos após a morte do Imperador Wu da Dinastia Han, a corte Han convocou uma consulta política sem precedentes.Uma das principais questões foi a abolição e revisão da política estatal de monopólio do sal e do vinho de ferro implementada durante o Imperador Período de Wu. Para este propósito, "Mais de sessenta pessoas virtuosas e literárias", bem como funcionários do governo como Sang Hongyang, o censor imperial, foram mais tarde chamadas de "Conferência do Sal e do Ferro". No entanto, esta Conferência do Sal e do Ferro discutiu essencialmente a direcção da política económica da Dinastia Han.
Embora os temas sejam diferentes e o ambiente da época seja muito diferente,** quer tenha sido a Conferência do Sal e do Ferro, há mais de 2.000 anos, ou o atual Fórum de Insights de Inteligência Artificial, estamos todos enfrentando um enorme problema, e esperamos comunicar através do debate sobre "grupos de talentos" como base para a legislação. **
Imagem/Google
Em um artigo recente comemorativo do 25º aniversário do Google, o atual CEO do Google, Sundar Pichai, escreveu:
(Google) Participe do importante debate sobre como essas tecnologias moldarão a nossa sociedade e depois trabalhemos juntos para encontrar as respostas. A inteligência artificial é uma parte fundamental disso. Embora estejamos entusiasmados com o potencial da IA para beneficiar as pessoas e a sociedade,** sabemos que a IA, como qualquer tecnologia em fase inicial, apresenta complexidades e riscos. O nosso desenvolvimento e utilização da IA devem abordar estes riscos e ajudar a desenvolver a tecnologia de forma responsável. **
Poucos dias depois, oito empresas, incluindo Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI e Stability, tornaram-se o segundo grupo de empresas a assinar um acordo para “desenvolver tecnologia de inteligência artificial (IA) de forma responsável”. Muitas vezes, quando nos deparamos com problemas que não podem ser resolvidos por um único indivíduo ou por uma única empresa/governo, devemos perceber o valor dos “esforços conjuntos”.