Según noticias de IT House del 28 de junio, investigadores del Instituto Max Planck de Ciencias de la Computación, MIT CSAIL y Google estudiaron recientemente un nuevo método para controlar GAN llamado DragGAN, simplemente haga clic y arrastre para ajustar rápidamente el tema de la posición de la foto, postura, expresión, tamaño y ángulo, etc. El proyecto es actualmente de código abierto en GitHub. Los investigadores dicen que su método supera a SOTA en operaciones basadas en GAN y abre nuevas direcciones para la edición de imágenes. En los próximos meses, esperan extender la edición basada en puntos a modelos generativos 3D.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Según noticias de IT House del 28 de junio, investigadores del Instituto Max Planck de Ciencias de la Computación, MIT CSAIL y Google estudiaron recientemente un nuevo método para controlar GAN llamado DragGAN, simplemente haga clic y arrastre para ajustar rápidamente el tema de la posición de la foto, postura, expresión, tamaño y ángulo, etc. El proyecto es actualmente de código abierto en GitHub. Los investigadores dicen que su método supera a SOTA en operaciones basadas en GAN y abre nuevas direcciones para la edición de imágenes. En los próximos meses, esperan extender la edición basada en puntos a modelos generativos 3D.