De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.