De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.