Governança de tecnologias que podem destruir a sociedade.
Fonte da imagem: gerada pela ferramenta Unbounded AI
O diretor do filme, Christopher Nolan, disse que conversou com cientistas de IA que estavam passando por um “momento Oppenheimer” e preocupados com a natureza potencialmente destrutiva de suas criações. “Estou contando a história de Oppenheimer”, disse ele sobre sua cinebiografia de Oppenheimer, “porque acho que é uma história importante e é definitivamente uma história de advertência”. Na verdade, alguém comparou Sam Altman, da OpenAI, ao pai da bomba atômica. .
Oppenheimer foi chamado de "Prometheus da América" por seus biógrafos por decifrar dos deuses os segredos do fogo nuclear, que dividiu a matéria para liberar energia horrível que ele temia poder incinerar a civilização humana.
Altman também está se perguntando se o uso do ChatGPT para promover o desenvolvimento da inteligência artificial generativa também é uma “coisa muito ruim”. “Se esta tecnologia der errado, poderá ser catastrófico”, disse ele em uma audiência no Senado. Gregory Hinton, conhecido como o padrinho da inteligência artificial, deixou o Google em maio, dizendo que não tinha respeito pelo trabalho de sua vida. máquinas mais inteligentes que os humanos - é parcialmente lamentável. “Será muito difícil para nós impedir que maus atores usem a IA para fazer coisas más”, alertou. Além disso, outros dos seus pares falaram do “risco de extinção da IA”, justapondo-o a outras ameaças existenciais, como a guerra nuclear. , mudanças climáticas e pandemias.
Na visão de Yuval Noah Harari (autor de “Uma Breve História da Humanidade”), a inteligência artificial generativa pode ser tão destrutiva para a sociedade quanto a bomba atômica. Numa frase citada por Oppenheimer do “Baghavad Gita”, “o mundo” Destruidor". Desta vez, o Homo sapiens tornou-se deuses, e a sua descendência inorgânica poderá um dia substituir os seus antepassados. Numa conversa há vários anos, Harari colocou a questão desta forma: "A história humana começa quando os humanos criam os deuses. A história humana termina quando os humanos se tornam deuses."
Harari e os coautores Tristan Harris e Aza Raskin explicaram em um artigo recente: "No início era a linguagem. A linguagem é o sistema operacional da cultura humana. Da linguagem vieram o mito e a lei, os deuses e o dinheiro, a arte e a ciência, a amizade, os Estados e código de computador. O novo domínio da linguagem da IA significa que ela agora pode hackear e manipular os sistemas operacionais da civilização. Ao dominar a linguagem, a IA está apreendendo as chaves mestras da civilização, desde cofres de bancos até tumbas sagradas.”
Eles continuaram escrevendo:
Por milênios, nós, humanos, vivemos os sonhos de outras pessoas. Adoramos deuses, buscamos belos ideais e dedicamos nossas vidas a causas nascidas da imaginação de um profeta, poeta ou estadista. Em breve, nós também nos encontraremos vivendo sob a ilusão de uma inteligência desumana...
Em pouco tempo, finalmente enfrentaremos os demônios de Descartes, as cavernas de Platão e os maias budistas. Um véu de alucinações pode pairar sobre a humanidade, e talvez nunca consigamos levantar o véu – ou mesmo ter consciência da sua existência.
A perspectiva de entidades não-humanas escreverem as nossas narrativas alarmou tanto o historiador e filósofo israelita que ele aconselhou urgentemente o Homo sapiens a parar antes de entregar o controlo do nosso reino às tecnologias que capacitamos.
“Devemos estar conscientes da IA antes que a nossa política, economia e vida quotidiana se tornem dependentes dela”, alertaram. “Se esperarmos até que ocorra o caos para agir, será tarde demais.”
** O cenário "Exterminador do Futuro" é muito improvável**
O vice-presidente do Google, Blaise Agüera Y Arcas, e colegas do Instituto de Inteligência Artificial de Quebec escreveram na revista Noema que não acreditam que a cena de Hollywood de "O Exterminador do Futuro" aparecerá em um futuro próximo. Em vez disso, temem que a concentração em “ameaças existenciais” num futuro distante possa desviar a atenção da mitigação dos perigos claros que a IA representa para a sociedade atual.
Mesmo antes de a IA se tornar superinteligível, os seus piores receios já estão presentes: vigilância em massa, desinformação e manipulação, utilização indevida da IA pelos militares e substituição em massa de empregos profissionais.
Para este grupo de cientistas e tecnólogos, "a extinção por IA desonesta é um cenário extremamente improvável que se baseia em suposições questionáveis sobre a evolução a longo prazo da vida, da inteligência, da tecnologia e da sociedade. É também um cenário improvável". , uma vez que existem muitas limitações e restrições físicas que um sistema de IA superinteligente precisaria superar antes de poder “trair” desta forma. Existem vários pontos de verificação naturais que os pesquisadores podem ajudar a mitigar, abordando desafios tangíveis e urgentes. Os riscos da IA sem fazer explicitamente riscos existenciais são uma prioridade global.”
Na sua opinião, "existem três formas de induzir a extinção: competição por recursos, caça e consumo excessivo, ou alteração do clima ou do seu nicho ecológico, levando a condições ambientais que levam ao seu desaparecimento. Nenhum destes três cenários se aplica à atual inteligência artificial". ".
Mais importante ainda, "No momento, a IA depende de nós, e uma superinteligência presumivelmente reconhecerá esse fato e procurará proteger a humanidade, porque somos para a existência da IA o que as plantas produtoras de oxigênio são para a nossa existência. Isto é a Evolução fazendo interdependência entre a IA e humanos muito mais prováveis do que a concorrência.”
Pagar um “preço infinito” pelo “resultado improvável” da extinção é como dedicar toda a nossa capacidade tecnológica para resistir à probabilidade de um num milhão de um meteoro atingir a Terra e torná-la a principal prioridade do planeta. Simplificando, “os riscos existenciais colocados pela IA superinteligente não merecem ser classificados juntamente com as alterações climáticas, a guerra nuclear e a prevenção de pandemias como uma prioridade global”.
Outro momento Oppenheimer
Qualquer perigo, próximo ou distante, que possa surgir da competição entre os humanos e a superinteligência emergente só será exacerbado pela competição entre Estados-nação.
Nos seus últimos anos, Oppenheimer foi perseguido, isolado e teve a sua autorização de segurança revogada pela Comissão de Energia Atómica dos EUA, uma vez que o fervor macarthista do início da Guerra Fria o via como um colega comunista. Os seus crimes: opor-se à implantação de bombas de hidrogénio e apelar à cooperação com outras nações para controlar a utilização de armas nucleares.
Num discurso aos cientistas da IA em Pequim, em Junho, Altman apelou de forma semelhante à cooperação sobre como governar a utilização da IA. “A China tem os melhores talentos de IA do mundo”, disse ele. Controlar sistemas avançados de IA “requer as melhores mentes de todo o mundo. Com sistemas de IA cada vez mais poderosos, os riscos para a colaboração global nunca foram tão altos”.
Não podemos deixar de nos perguntar quanto tempo levará para que o sentido geral de responsabilidade científica de Altman seja apanhado pela actual histeria macarthista contra a China em Washington, como a de Oppenheimer.
Entre os perigos claros e presentes representados pela inteligência artificial, o primeiro e mais importante é como ela pode ser transformada em arma. Como adverte Harari, o momento de lidar com esta ameaça é agora, não apenas quando ela se tornar realidade e for tarde demais. Os participantes responsáveis precisam usar a sabedoria que as máquinas não podem transmitir e trabalhar em conjunto para reduzir os riscos. Se Ultraman sofrer outro momento Oppenheimer, os riscos existenciais estarão cada vez mais próximos.
Num sinal de boas-vindas, o Secretário de Estado dos EUA, Antony Blinken, e a Secretária de Comércio, Gina Raimondo, reconheceram que "nenhum país ou empresa pode moldar sozinho o futuro da IA... Somente através da atenção partilhada, sabedoria e cooperação da comunidade internacional poderemos aproveitar de forma plena e segura o potencial da inteligência artificial.”
No entanto, as suas iniciativas até agora, embora vitais, têm sido limitadas pela concorrência estratégica. Para países de todo o mundo, o desafio mais sério é como comunicar diretamente antes que a corrida armamentista da inteligência artificial fique fora de controlo e evite que a situação piore.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
“Oppenheimer” chega aos cinemas, Sam Altman será o próximo?
Escrito por: Nathan Gardels
Origem: Noema
O diretor do filme, Christopher Nolan, disse que conversou com cientistas de IA que estavam passando por um “momento Oppenheimer” e preocupados com a natureza potencialmente destrutiva de suas criações. “Estou contando a história de Oppenheimer”, disse ele sobre sua cinebiografia de Oppenheimer, “porque acho que é uma história importante e é definitivamente uma história de advertência”. Na verdade, alguém comparou Sam Altman, da OpenAI, ao pai da bomba atômica. .
Oppenheimer foi chamado de "Prometheus da América" por seus biógrafos por decifrar dos deuses os segredos do fogo nuclear, que dividiu a matéria para liberar energia horrível que ele temia poder incinerar a civilização humana.
Altman também está se perguntando se o uso do ChatGPT para promover o desenvolvimento da inteligência artificial generativa também é uma “coisa muito ruim”. “Se esta tecnologia der errado, poderá ser catastrófico”, disse ele em uma audiência no Senado. Gregory Hinton, conhecido como o padrinho da inteligência artificial, deixou o Google em maio, dizendo que não tinha respeito pelo trabalho de sua vida. máquinas mais inteligentes que os humanos - é parcialmente lamentável. “Será muito difícil para nós impedir que maus atores usem a IA para fazer coisas más”, alertou. Além disso, outros dos seus pares falaram do “risco de extinção da IA”, justapondo-o a outras ameaças existenciais, como a guerra nuclear. , mudanças climáticas e pandemias.
Na visão de Yuval Noah Harari (autor de “Uma Breve História da Humanidade”), a inteligência artificial generativa pode ser tão destrutiva para a sociedade quanto a bomba atômica. Numa frase citada por Oppenheimer do “Baghavad Gita”, “o mundo” Destruidor". Desta vez, o Homo sapiens tornou-se deuses, e a sua descendência inorgânica poderá um dia substituir os seus antepassados. Numa conversa há vários anos, Harari colocou a questão desta forma: "A história humana começa quando os humanos criam os deuses. A história humana termina quando os humanos se tornam deuses."
Harari e os coautores Tristan Harris e Aza Raskin explicaram em um artigo recente: "No início era a linguagem. A linguagem é o sistema operacional da cultura humana. Da linguagem vieram o mito e a lei, os deuses e o dinheiro, a arte e a ciência, a amizade, os Estados e código de computador. O novo domínio da linguagem da IA significa que ela agora pode hackear e manipular os sistemas operacionais da civilização. Ao dominar a linguagem, a IA está apreendendo as chaves mestras da civilização, desde cofres de bancos até tumbas sagradas.”
Eles continuaram escrevendo:
A perspectiva de entidades não-humanas escreverem as nossas narrativas alarmou tanto o historiador e filósofo israelita que ele aconselhou urgentemente o Homo sapiens a parar antes de entregar o controlo do nosso reino às tecnologias que capacitamos.
“Devemos estar conscientes da IA antes que a nossa política, economia e vida quotidiana se tornem dependentes dela”, alertaram. “Se esperarmos até que ocorra o caos para agir, será tarde demais.”
** O cenário "Exterminador do Futuro" é muito improvável**
O vice-presidente do Google, Blaise Agüera Y Arcas, e colegas do Instituto de Inteligência Artificial de Quebec escreveram na revista Noema que não acreditam que a cena de Hollywood de "O Exterminador do Futuro" aparecerá em um futuro próximo. Em vez disso, temem que a concentração em “ameaças existenciais” num futuro distante possa desviar a atenção da mitigação dos perigos claros que a IA representa para a sociedade atual.
Mesmo antes de a IA se tornar superinteligível, os seus piores receios já estão presentes: vigilância em massa, desinformação e manipulação, utilização indevida da IA pelos militares e substituição em massa de empregos profissionais.
Para este grupo de cientistas e tecnólogos, "a extinção por IA desonesta é um cenário extremamente improvável que se baseia em suposições questionáveis sobre a evolução a longo prazo da vida, da inteligência, da tecnologia e da sociedade. É também um cenário improvável". , uma vez que existem muitas limitações e restrições físicas que um sistema de IA superinteligente precisaria superar antes de poder “trair” desta forma. Existem vários pontos de verificação naturais que os pesquisadores podem ajudar a mitigar, abordando desafios tangíveis e urgentes. Os riscos da IA sem fazer explicitamente riscos existenciais são uma prioridade global.”
Na sua opinião, "existem três formas de induzir a extinção: competição por recursos, caça e consumo excessivo, ou alteração do clima ou do seu nicho ecológico, levando a condições ambientais que levam ao seu desaparecimento. Nenhum destes três cenários se aplica à atual inteligência artificial". ".
Mais importante ainda, "No momento, a IA depende de nós, e uma superinteligência presumivelmente reconhecerá esse fato e procurará proteger a humanidade, porque somos para a existência da IA o que as plantas produtoras de oxigênio são para a nossa existência. Isto é a Evolução fazendo interdependência entre a IA e humanos muito mais prováveis do que a concorrência.”
Pagar um “preço infinito” pelo “resultado improvável” da extinção é como dedicar toda a nossa capacidade tecnológica para resistir à probabilidade de um num milhão de um meteoro atingir a Terra e torná-la a principal prioridade do planeta. Simplificando, “os riscos existenciais colocados pela IA superinteligente não merecem ser classificados juntamente com as alterações climáticas, a guerra nuclear e a prevenção de pandemias como uma prioridade global”.
Outro momento Oppenheimer
Qualquer perigo, próximo ou distante, que possa surgir da competição entre os humanos e a superinteligência emergente só será exacerbado pela competição entre Estados-nação.
Nos seus últimos anos, Oppenheimer foi perseguido, isolado e teve a sua autorização de segurança revogada pela Comissão de Energia Atómica dos EUA, uma vez que o fervor macarthista do início da Guerra Fria o via como um colega comunista. Os seus crimes: opor-se à implantação de bombas de hidrogénio e apelar à cooperação com outras nações para controlar a utilização de armas nucleares.
Num discurso aos cientistas da IA em Pequim, em Junho, Altman apelou de forma semelhante à cooperação sobre como governar a utilização da IA. “A China tem os melhores talentos de IA do mundo”, disse ele. Controlar sistemas avançados de IA “requer as melhores mentes de todo o mundo. Com sistemas de IA cada vez mais poderosos, os riscos para a colaboração global nunca foram tão altos”.
Não podemos deixar de nos perguntar quanto tempo levará para que o sentido geral de responsabilidade científica de Altman seja apanhado pela actual histeria macarthista contra a China em Washington, como a de Oppenheimer.
Entre os perigos claros e presentes representados pela inteligência artificial, o primeiro e mais importante é como ela pode ser transformada em arma. Como adverte Harari, o momento de lidar com esta ameaça é agora, não apenas quando ela se tornar realidade e for tarde demais. Os participantes responsáveis precisam usar a sabedoria que as máquinas não podem transmitir e trabalhar em conjunto para reduzir os riscos. Se Ultraman sofrer outro momento Oppenheimer, os riscos existenciais estarão cada vez mais próximos.
Num sinal de boas-vindas, o Secretário de Estado dos EUA, Antony Blinken, e a Secretária de Comércio, Gina Raimondo, reconheceram que "nenhum país ou empresa pode moldar sozinho o futuro da IA... Somente através da atenção partilhada, sabedoria e cooperação da comunidade internacional poderemos aproveitar de forma plena e segura o potencial da inteligência artificial.”
No entanto, as suas iniciativas até agora, embora vitais, têm sido limitadas pela concorrência estratégica. Para países de todo o mundo, o desafio mais sério é como comunicar diretamente antes que a corrida armamentista da inteligência artificial fique fora de controlo e evite que a situação piore.