A promessa e os danos da IA são temas quentes nos dias de hoje. Há quem diga que a inteligência artificial nos vai salvar, ajudar a diagnosticar algumas doenças malignas, colmatar o fosso digital na educação, etc. Mas também há preocupações sobre a ameaça que representa para a guerra, segurança, desinformação e muito mais. Tornou-se um passatempo para as pessoas comuns e soou o alarme no mundo dos negócios.
A IA é muito útil, mas ainda não consegue silenciar o barulho de uma sala cheia de conversas. Esta semana, académicos, reguladores, líderes governamentais, start-ups, grandes empresas tecnológicas e dezenas de organizações com e sem fins lucrativos reúnem-se no Reino Unido para discutir e debater a IA.
Porquê o Reino Unido? Porquê agora? **
Na quarta e quinta-feira, o Reino Unido sediará a Cúpula de Segurança da IA em Bletchley Park, a primeira do tipo no Reino Unido.
A cimeira foi planeada durante vários meses para explorar algumas das questões e riscos a longo prazo colocados pela IA. Os objetivos da cimeira são ideais, e não concretos: "um entendimento comum dos riscos colocados pela IA de fronteira e da necessidade de ação", "um processo prospetivo para a cooperação internacional em matéria de segurança da IA de fronteira, incluindo a melhor forma de apoiar os quadros nacionais e internacionais", "as organizações devem tomar medidas apropriadas para melhorar a segurança da IA de fronteira", e assim por diante.
Este desejo de alto nível também se reflete nas identidades dos participantes: altos funcionários do governo, líderes da indústria e pensadores proeminentes na área estarão presentes. (De acordo com as últimas informações: Elon Musk, o presidente Biden, Justin Trudeau e Olaf Scholz, entre outros, estarão presentes).
A cimeira soou especial, e foi: o "bilhete dourado" para a cimeira (descrito pelo fundador e autor de tecnologia com sede em Londres, Azeem Azhar) estava em falta. Consta que a cimeira será de pequena escala e maioritariamente fechada. Estes eventos incluem palestras na Royal Society (Academia Nacional de Ciências); Conferências "AI Fringe" em grande escala em várias cidades e anúncios de muitas forças-tarefas, entre outros.
Gina Neff, diretora executiva do Centro Mindelow de Tecnologia e Democracia da Universidade de Cambridge, disse em um painel de discussão noturno sobre ciência e segurança na Royal Society na semana passada: "Vamos desempenhar o papel da cúpula que já lidamos. Em outras palavras, um evento em Bletchley fará o que deveria fazer, e o que não estiver dentro do escopo do evento será uma oportunidade para as pessoas debaterem outras questões. "
O painel de discussão de Neff foi um exemplo disso: em um salão lotado da Royal Society, ela se sentou com representantes da Human Rights Watch, funcionários estatais do grande sindicato Unite, o fundador do Tech Global Institute, um think tank focado em questões de equidade tecnológica no Sul Global, o chefe de políticas públicas da startup Stability AI e cientistas da computação da Universidade de Cambridge.
Ao mesmo tempo, pode-se dizer que a chamada reunião de borda da IA é apenas uma "borda" nominal. Com a Cúpula de Bletchley ocorrendo no mesmo local durante a semana, com uma lista de convidados muito limitada e oportunidades igualmente limitadas de aprender o que foi discutido, a sessão AI Edge foi rapidamente expandida para Bletchley e detalhou a agenda da conferência. O evento não teria sido organizado pelo governo, mas por uma empresa de relações públicas chamada Milltown Partners (que representou empresas como DeepMind, Stripe e a firma de capital de risco Atomico) e, curiosamente, durou uma semana inteira, foi realizado em vários locais do país e foi gratuito para aqueles que puderam obter ingressos (muitos dos eventos estavam esgotados), e muitas das sessões também estavam disponíveis em serviços de streaming.
Apesar da variedade, foi muito triste ver que a discussão sobre IA, apesar de sua infância, ainda estava tão dividida: uma era uma reunião dos poderes do poder (a maioria aberta apenas a convidados) e outra era uma reunião do resto de nós.
Hoje cedo, um grupo de 100 sindicatos e ativistas enviou uma carta ao primeiro-ministro dizendo que o governo estava "apertando" suas vozes na conversa ao não permitir que eles participassem do Bletchley Park. (Podem não ter conseguido os bilhetes, mas a sua forma de se lhes opor foi absolutamente sensata: o grupo tornou-a pública ao partilhar a carta com as publicações económicas mais elitizadas do país, como o Financial Times).
Não são apenas as pessoas comuns que estão sendo deixadas de lado no frio. Carissa Véliz, professora do Departamento de Filosofia da Universidade de Oxford, disse no evento AI Edge de hoje: "Nenhuma das pessoas que conheço foi convidada. "
Alguns acreditam que há benefícios na racionalização.
O cientista de pesquisa em inteligência artificial Marius Hobbhahn é cofundador e diretor da Apollo Research, que está desenvolvendo ferramentas de segurança de IA. Ele acredita que um número menor de pessoas também pode atrair mais atenção: "Quanto mais pessoas na sala, mais difícil é tirar conclusões ou ter uma discussão eficaz", disse ele.
Em um sentido mais amplo, a cúpula é apenas um "tijolo" e parte de uma conversa mais ampla que está atualmente em curso. Na semana passada, o primeiro-ministro britânico, Rishi Sunak, disse que pretendia criar um novo instituto de segurança de IA e uma rede de pesquisa no Reino Unido para gastar mais tempo e esforço estudando o impacto da IA; Um grupo de académicos proeminentes, liderados por Yoshua Bengio e Geoffrey Hinton, mergulharam coletivamente neste campo com um artigo intitulado "Managing AI Risk in an Era of Rapid Progress"; As Nações Unidas também anunciaram a criação de sua própria força-tarefa para explorar o impacto da inteligência artificial. Recentemente, o presidente dos EUA, Joe Biden, também emitiu a própria ordem executiva dos EUA para definir padrões de segurança de IA.
"Risco Existencial"
Um dos maiores debates é se a ideia de que a IA representa um "risco existencial" é exagerada, ou mesmo intencional, para remover o escrutínio da atividade mais direta da IA.
Matt Kelly, professor de matemática de sistemas da Universidade de Cambridge, aponta que uma das áreas mais citadas é a desinformação.
"A desinformação não é nova. Nem sequer é algo novo neste século ou no século passado", disse numa entrevista na semana passada. "Mas esta é uma das áreas em que pensamos que há riscos potenciais para a IA a curto e médio prazo. E estes riscos desenvolvem-se lentamente ao longo do tempo. Kelly, membro da Royal Society of Scientry, disse que a sociedade também conduziu um exercício de equipe vermelha e azul especificamente para a desinformação na ciência durante a preparação da cúpula para ver como grandes modelos de linguagem se comportariam ao tentar competir uns com os outros. É uma tentativa de entender melhor quais são os riscos neste momento."
O governo do Reino Unido parece estar adotando uma abordagem de duas faces para este debate, com o perigo mais evidente do que o nome do evento que está organizando, a AI Security Summit.
Em seu discurso na semana passada, Sunak disse: "Neste momento, não temos um entendimento comum dos riscos que enfrentamos. "Sem esse consenso, não podemos esperar enfrentar esses riscos juntos." É por isso que vamos dar um forte impulso à primeira declaração internacional sobre a natureza destes riscos.»
Mas, ao organizar a cimeira, o Reino Unido posicionou-se primeiro como um ator central na definição da agenda do "que falamos quando falamos de IA", e tem certamente uma perspetiva económica.
"Ao tornar o Reino Unido um líder global em IA segura, atrairemos mais novos empregos e investimentos desta onda de novas tecnologias", observou Sunak. (O memorando também foi recebido por outros departamentos: o Ministro do Interior organizou hoje um evento com a Internet Watch Foundation e uma série de grandes empresas de aplicações de consumo, como o TikTok e o Snap, para combater a proliferação de imagens de abuso sexual geradas por IA).
Envolver as Big Tech pode parecer ajudar de uma forma, mas os críticos tendem a vê-lo como um problema também. A "captura regulatória", onde os maiores players de poder do setor tomam medidas proativas para discutir e desenvolver riscos e proteções, tem sido outro grande tema no admirável mundo novo da IA, e a cúpula desta semana não é diferente.
"Desconfie de líderes de IA que levantam as mãos e dizem: 'eu, eu'." Nigel Toon, CEO da fabricante de chips de IA Graphcore, apontou astuciosamente em um artigo que escreveu sobre a próxima cúpula desta semana: "Os governos provavelmente intervirão e aceitarão sua palavra por isso". (Ele não é totalmente marginal, porém: ele mesmo participará da cúpula.)
Ao mesmo tempo, muitas pessoas ainda estão debatendo se o chamado risco existencial atual é um exercício útil de pensamento.
"Acho que a retórica das fronteiras e da inteligência artificial nos colocou em um estado de medo da tecnologia no ano passado", disse Ben Brooks, chefe de políticas públicas da Stability AI, em um painel de discussão na Royal Society, citando o experimento mental "Paperclip Maxing" - onde a IA poderia destruir o mundo criando clipes de papel sem levar em conta as necessidades humanas ou a segurança - como um exemplo dessa abordagem deliberadamente limitante. "Eles não pensam nas circunstâncias em que a IA pode ser implantada. Mas você pode desenvolvê-lo com segurança. Queremos que todos se inspirem nisso e percebam que a IA é alcançável e segura de fazer. "
Outros são menos certos.
Hobbhahn, da Apollo Research, disse: "Para ser justo, não acho que o risco existencial seja preciso. "Vamos chamá-lo de risco catastrófico." Dado o ritmo de desenvolvimento nos últimos anos, as aplicações generativas de IA trouxeram grandes modelos de linguagem para o mainstream, e ele acredita que a maior preocupação continuará sendo os maus atores que usam IA, em vez da própria IA em um motim: usá-la para guerra biológica, a situação de segurança nacional e desinformação que poderia alterar o processo democrático. Tudo isso, disse ele, são áreas em que ele acredita que a IA provavelmente desempenhará um papel catastrófico.
"Os vencedores do Prêmio Turing estão abertamente preocupados com a sobrevivência e os riscos catastróficos... Devemos realmente pensar nisso", acrescentou.
Perspetivas de Negócio
Embora haja sérios riscos, o Reino Unido também quer tornar o país um lar natural para empresas de IA, hospedando grandes conversas sobre IA. No entanto, alguns analistas acreditam que o caminho para investir em IA pode não ser tão suave quanto alguns preveem.
"Acho que a realidade está começando a emergir de que as empresas estão começando a entender quanto tempo e dinheiro precisam alocar em projetos de IA generativa para obter resultados confiáveis que possam realmente aumentar a produtividade e a receita", disse Avivah Litan, analista vice-presidente corporativo do Gartner. "Apesar de fazerem ajustes iterativos e engenharia no projeto, eles ainda precisam de supervisão manual das operações e saídas. Em suma, a saída da GenAI não é confiável o suficiente e requer muitos recursos para torná-la confiável. É claro que o modelo está melhorando o tempo todo, mas esse é o estado atual do mercado. Ainda assim, ao mesmo tempo, vemos cada vez mais projetos entrando na fase de produção. "
Ela acredita que os investimentos em IA "definitivamente desacelerarão o crescimento de empresas e organizações governamentais que usam IA". Os fornecedores estão empurrando seus aplicativos e produtos de IA, mas as empresas não podem adotá-los tão rapidamente quanto são empurrados. Além disso, há muitos riscos associados aos aplicativos GenAI, como democratizar o acesso fácil a informações confidenciais mesmo dentro de uma organização. "
Assim como a "transformação digital" é mais um conceito lento na realidade, a estratégia de investimento em IA de uma empresa também precisa de mais tempo. "Leva tempo para as empresas bloquearem seus conjuntos de dados estruturados e não estruturados e definirem permissões de forma correta e eficiente. Há muito excesso de compartilhamento na empresa que realmente não importava até então. Litan acrescenta: "Agora, qualquer pessoa pode acessar qualquer arquivo que outros não estejam adequadamente protegidos usando um simples comando no idioma nativo, como o inglês." "
O fato de como equilibrar os interesses comerciais da IA com as questões de segurança e risco que Bletchley Park discutirá diz muito sobre a tarefa à frente, mas também destaca a tensão da situação. Mais tarde na conferência, os organizadores de Bletchley teriam trabalhado para expandir a discussão além das preocupações de segurança de alto nível para áreas onde os riscos podem realmente surgir, como a saúde, embora essa mudança não esteja detalhada na agenda atualmente anunciada.
"Haverá uma mesa redonda de cerca de 100 especialistas, o que não é pequeno. Sou crítico, mas não parece uma má ideia", diz Neff, professor da Universidade de Cambridge. "Agora, a regulação global será um tema de discussão? Não de todo. Vamos normalizar as relações Leste-Oeste? Provavelmente não. Mas estamos a chegar à nossa cimeira. Penso que poderá haver algumas oportunidades muito interessantes neste momento. "
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Antevisão da Cimeira de Segurança da IA do Reino Unido: Porquê Agora, Porquê o Reino Unido
Palavras: Ingrid Lunden
Fonte: TechCrunch
A promessa e os danos da IA são temas quentes nos dias de hoje. Há quem diga que a inteligência artificial nos vai salvar, ajudar a diagnosticar algumas doenças malignas, colmatar o fosso digital na educação, etc. Mas também há preocupações sobre a ameaça que representa para a guerra, segurança, desinformação e muito mais. Tornou-se um passatempo para as pessoas comuns e soou o alarme no mundo dos negócios.
A IA é muito útil, mas ainda não consegue silenciar o barulho de uma sala cheia de conversas. Esta semana, académicos, reguladores, líderes governamentais, start-ups, grandes empresas tecnológicas e dezenas de organizações com e sem fins lucrativos reúnem-se no Reino Unido para discutir e debater a IA.
Porquê o Reino Unido? Porquê agora? **
Na quarta e quinta-feira, o Reino Unido sediará a Cúpula de Segurança da IA em Bletchley Park, a primeira do tipo no Reino Unido.
A cimeira foi planeada durante vários meses para explorar algumas das questões e riscos a longo prazo colocados pela IA. Os objetivos da cimeira são ideais, e não concretos: "um entendimento comum dos riscos colocados pela IA de fronteira e da necessidade de ação", "um processo prospetivo para a cooperação internacional em matéria de segurança da IA de fronteira, incluindo a melhor forma de apoiar os quadros nacionais e internacionais", "as organizações devem tomar medidas apropriadas para melhorar a segurança da IA de fronteira", e assim por diante.
Este desejo de alto nível também se reflete nas identidades dos participantes: altos funcionários do governo, líderes da indústria e pensadores proeminentes na área estarão presentes. (De acordo com as últimas informações: Elon Musk, o presidente Biden, Justin Trudeau e Olaf Scholz, entre outros, estarão presentes).
A cimeira soou especial, e foi: o "bilhete dourado" para a cimeira (descrito pelo fundador e autor de tecnologia com sede em Londres, Azeem Azhar) estava em falta. Consta que a cimeira será de pequena escala e maioritariamente fechada. Estes eventos incluem palestras na Royal Society (Academia Nacional de Ciências); Conferências "AI Fringe" em grande escala em várias cidades e anúncios de muitas forças-tarefas, entre outros.
Gina Neff, diretora executiva do Centro Mindelow de Tecnologia e Democracia da Universidade de Cambridge, disse em um painel de discussão noturno sobre ciência e segurança na Royal Society na semana passada: "Vamos desempenhar o papel da cúpula que já lidamos. Em outras palavras, um evento em Bletchley fará o que deveria fazer, e o que não estiver dentro do escopo do evento será uma oportunidade para as pessoas debaterem outras questões. "
O painel de discussão de Neff foi um exemplo disso: em um salão lotado da Royal Society, ela se sentou com representantes da Human Rights Watch, funcionários estatais do grande sindicato Unite, o fundador do Tech Global Institute, um think tank focado em questões de equidade tecnológica no Sul Global, o chefe de políticas públicas da startup Stability AI e cientistas da computação da Universidade de Cambridge.
Ao mesmo tempo, pode-se dizer que a chamada reunião de borda da IA é apenas uma "borda" nominal. Com a Cúpula de Bletchley ocorrendo no mesmo local durante a semana, com uma lista de convidados muito limitada e oportunidades igualmente limitadas de aprender o que foi discutido, a sessão AI Edge foi rapidamente expandida para Bletchley e detalhou a agenda da conferência. O evento não teria sido organizado pelo governo, mas por uma empresa de relações públicas chamada Milltown Partners (que representou empresas como DeepMind, Stripe e a firma de capital de risco Atomico) e, curiosamente, durou uma semana inteira, foi realizado em vários locais do país e foi gratuito para aqueles que puderam obter ingressos (muitos dos eventos estavam esgotados), e muitas das sessões também estavam disponíveis em serviços de streaming.
Apesar da variedade, foi muito triste ver que a discussão sobre IA, apesar de sua infância, ainda estava tão dividida: uma era uma reunião dos poderes do poder (a maioria aberta apenas a convidados) e outra era uma reunião do resto de nós.
Hoje cedo, um grupo de 100 sindicatos e ativistas enviou uma carta ao primeiro-ministro dizendo que o governo estava "apertando" suas vozes na conversa ao não permitir que eles participassem do Bletchley Park. (Podem não ter conseguido os bilhetes, mas a sua forma de se lhes opor foi absolutamente sensata: o grupo tornou-a pública ao partilhar a carta com as publicações económicas mais elitizadas do país, como o Financial Times).
Não são apenas as pessoas comuns que estão sendo deixadas de lado no frio. Carissa Véliz, professora do Departamento de Filosofia da Universidade de Oxford, disse no evento AI Edge de hoje: "Nenhuma das pessoas que conheço foi convidada. "
Alguns acreditam que há benefícios na racionalização.
O cientista de pesquisa em inteligência artificial Marius Hobbhahn é cofundador e diretor da Apollo Research, que está desenvolvendo ferramentas de segurança de IA. Ele acredita que um número menor de pessoas também pode atrair mais atenção: "Quanto mais pessoas na sala, mais difícil é tirar conclusões ou ter uma discussão eficaz", disse ele.
Em um sentido mais amplo, a cúpula é apenas um "tijolo" e parte de uma conversa mais ampla que está atualmente em curso. Na semana passada, o primeiro-ministro britânico, Rishi Sunak, disse que pretendia criar um novo instituto de segurança de IA e uma rede de pesquisa no Reino Unido para gastar mais tempo e esforço estudando o impacto da IA; Um grupo de académicos proeminentes, liderados por Yoshua Bengio e Geoffrey Hinton, mergulharam coletivamente neste campo com um artigo intitulado "Managing AI Risk in an Era of Rapid Progress"; As Nações Unidas também anunciaram a criação de sua própria força-tarefa para explorar o impacto da inteligência artificial. Recentemente, o presidente dos EUA, Joe Biden, também emitiu a própria ordem executiva dos EUA para definir padrões de segurança de IA.
"Risco Existencial"
Um dos maiores debates é se a ideia de que a IA representa um "risco existencial" é exagerada, ou mesmo intencional, para remover o escrutínio da atividade mais direta da IA.
Matt Kelly, professor de matemática de sistemas da Universidade de Cambridge, aponta que uma das áreas mais citadas é a desinformação.
"A desinformação não é nova. Nem sequer é algo novo neste século ou no século passado", disse numa entrevista na semana passada. "Mas esta é uma das áreas em que pensamos que há riscos potenciais para a IA a curto e médio prazo. E estes riscos desenvolvem-se lentamente ao longo do tempo. Kelly, membro da Royal Society of Scientry, disse que a sociedade também conduziu um exercício de equipe vermelha e azul especificamente para a desinformação na ciência durante a preparação da cúpula para ver como grandes modelos de linguagem se comportariam ao tentar competir uns com os outros. É uma tentativa de entender melhor quais são os riscos neste momento."
O governo do Reino Unido parece estar adotando uma abordagem de duas faces para este debate, com o perigo mais evidente do que o nome do evento que está organizando, a AI Security Summit.
Em seu discurso na semana passada, Sunak disse: "Neste momento, não temos um entendimento comum dos riscos que enfrentamos. "Sem esse consenso, não podemos esperar enfrentar esses riscos juntos." É por isso que vamos dar um forte impulso à primeira declaração internacional sobre a natureza destes riscos.»
Mas, ao organizar a cimeira, o Reino Unido posicionou-se primeiro como um ator central na definição da agenda do "que falamos quando falamos de IA", e tem certamente uma perspetiva económica.
"Ao tornar o Reino Unido um líder global em IA segura, atrairemos mais novos empregos e investimentos desta onda de novas tecnologias", observou Sunak. (O memorando também foi recebido por outros departamentos: o Ministro do Interior organizou hoje um evento com a Internet Watch Foundation e uma série de grandes empresas de aplicações de consumo, como o TikTok e o Snap, para combater a proliferação de imagens de abuso sexual geradas por IA).
Envolver as Big Tech pode parecer ajudar de uma forma, mas os críticos tendem a vê-lo como um problema também. A "captura regulatória", onde os maiores players de poder do setor tomam medidas proativas para discutir e desenvolver riscos e proteções, tem sido outro grande tema no admirável mundo novo da IA, e a cúpula desta semana não é diferente.
"Desconfie de líderes de IA que levantam as mãos e dizem: 'eu, eu'." Nigel Toon, CEO da fabricante de chips de IA Graphcore, apontou astuciosamente em um artigo que escreveu sobre a próxima cúpula desta semana: "Os governos provavelmente intervirão e aceitarão sua palavra por isso". (Ele não é totalmente marginal, porém: ele mesmo participará da cúpula.)
Ao mesmo tempo, muitas pessoas ainda estão debatendo se o chamado risco existencial atual é um exercício útil de pensamento.
"Acho que a retórica das fronteiras e da inteligência artificial nos colocou em um estado de medo da tecnologia no ano passado", disse Ben Brooks, chefe de políticas públicas da Stability AI, em um painel de discussão na Royal Society, citando o experimento mental "Paperclip Maxing" - onde a IA poderia destruir o mundo criando clipes de papel sem levar em conta as necessidades humanas ou a segurança - como um exemplo dessa abordagem deliberadamente limitante. "Eles não pensam nas circunstâncias em que a IA pode ser implantada. Mas você pode desenvolvê-lo com segurança. Queremos que todos se inspirem nisso e percebam que a IA é alcançável e segura de fazer. "
Outros são menos certos.
Hobbhahn, da Apollo Research, disse: "Para ser justo, não acho que o risco existencial seja preciso. "Vamos chamá-lo de risco catastrófico." Dado o ritmo de desenvolvimento nos últimos anos, as aplicações generativas de IA trouxeram grandes modelos de linguagem para o mainstream, e ele acredita que a maior preocupação continuará sendo os maus atores que usam IA, em vez da própria IA em um motim: usá-la para guerra biológica, a situação de segurança nacional e desinformação que poderia alterar o processo democrático. Tudo isso, disse ele, são áreas em que ele acredita que a IA provavelmente desempenhará um papel catastrófico.
"Os vencedores do Prêmio Turing estão abertamente preocupados com a sobrevivência e os riscos catastróficos... Devemos realmente pensar nisso", acrescentou.
Perspetivas de Negócio
Embora haja sérios riscos, o Reino Unido também quer tornar o país um lar natural para empresas de IA, hospedando grandes conversas sobre IA. No entanto, alguns analistas acreditam que o caminho para investir em IA pode não ser tão suave quanto alguns preveem.
"Acho que a realidade está começando a emergir de que as empresas estão começando a entender quanto tempo e dinheiro precisam alocar em projetos de IA generativa para obter resultados confiáveis que possam realmente aumentar a produtividade e a receita", disse Avivah Litan, analista vice-presidente corporativo do Gartner. "Apesar de fazerem ajustes iterativos e engenharia no projeto, eles ainda precisam de supervisão manual das operações e saídas. Em suma, a saída da GenAI não é confiável o suficiente e requer muitos recursos para torná-la confiável. É claro que o modelo está melhorando o tempo todo, mas esse é o estado atual do mercado. Ainda assim, ao mesmo tempo, vemos cada vez mais projetos entrando na fase de produção. "
Ela acredita que os investimentos em IA "definitivamente desacelerarão o crescimento de empresas e organizações governamentais que usam IA". Os fornecedores estão empurrando seus aplicativos e produtos de IA, mas as empresas não podem adotá-los tão rapidamente quanto são empurrados. Além disso, há muitos riscos associados aos aplicativos GenAI, como democratizar o acesso fácil a informações confidenciais mesmo dentro de uma organização. "
Assim como a "transformação digital" é mais um conceito lento na realidade, a estratégia de investimento em IA de uma empresa também precisa de mais tempo. "Leva tempo para as empresas bloquearem seus conjuntos de dados estruturados e não estruturados e definirem permissões de forma correta e eficiente. Há muito excesso de compartilhamento na empresa que realmente não importava até então. Litan acrescenta: "Agora, qualquer pessoa pode acessar qualquer arquivo que outros não estejam adequadamente protegidos usando um simples comando no idioma nativo, como o inglês." "
O fato de como equilibrar os interesses comerciais da IA com as questões de segurança e risco que Bletchley Park discutirá diz muito sobre a tarefa à frente, mas também destaca a tensão da situação. Mais tarde na conferência, os organizadores de Bletchley teriam trabalhado para expandir a discussão além das preocupações de segurança de alto nível para áreas onde os riscos podem realmente surgir, como a saúde, embora essa mudança não esteja detalhada na agenda atualmente anunciada.
"Haverá uma mesa redonda de cerca de 100 especialistas, o que não é pequeno. Sou crítico, mas não parece uma má ideia", diz Neff, professor da Universidade de Cambridge. "Agora, a regulação global será um tema de discussão? Não de todo. Vamos normalizar as relações Leste-Oeste? Provavelmente não. Mas estamos a chegar à nossa cimeira. Penso que poderá haver algumas oportunidades muito interessantes neste momento. "