¡Los empleados despedidos regresan y Meta reconstruye el Metaverso! Publique conjuntos de datos de imágenes realistas, monte gafas AR en una gira mundial
**Introducción: **La exploración del metaverso por parte de Meta no se ha detenido. Recordando a los empleados despedidos, lanzando conjuntos de datos de imágenes irreales ultrarrealistas, ensamblando gafas AR en todo el mundo...
Fuente de la imagen: Generada por Unbounded AI
La exploración del metaverso de Meta aún continúa.
Recientemente, Meta ha desarrollado un nuevo conjunto de datos sintéticos realistas con Unreal Engine, con la esperanza de acortar la distancia entre los datos sintéticos y los datos del mundo real.
También planean fabricar un nuevo par de anteojos AR que se usarán solo para desarrollo interno y exhibición pública.
Se informa que el proceso de fabricación de las gafas involucra fábricas en China continental, Taiwán y Estados Unidos. La razón es que los lentes contienen un material de grado militar que no se puede exportar fácilmente fuera de los Estados Unidos.
Además, Meta incluso creó un "portal de ex empleados" para reclutar lentamente a ex empleados despedidos.
Conjunto de datos de imágenes reales e irreales
El conjunto de datos Photorealistic Unreal Graphic (PUG, Photorealistic Graphic) lanzado por Meta permite una evaluación y entrenamiento más controlable y robusto de los sistemas de visión de inteligencia artificial.
Este conjunto de datos sintetiza más de 200 000 imágenes de animales a través de Unreal Engine y cientos de miles de imágenes que incluyen varias poses, iluminación y fondos, como base para entrenar y evaluar modelos de imágenes y sistemas de imágenes.
Debido a que PUG usa la imagen sintetizada por Unreal Engine, garantiza el realismo del material de la imagen, lo que amplía enormemente su alcance de uso que los conjuntos de datos de imágenes similares anteriores.
PUG consta de 4 partes:
1. Animal DOGUILLO
Espacios de representación para estudiar la generalización fuera de la distribución y estudiar los modelos subyacentes, que incluyen:
215 040 imágenes renderizadas previamente, que cubren 70 recursos animales, incluidos 4 tamaños, 3 texturas y 4 orientaciones diferentes.
2. PUGImageNet
El conjunto de datos proporciona un punto de referencia novedoso y eficiente para la evaluación detallada de la estabilidad de los clasificadores de imágenes en múltiples variables, que incluyen:
151 tipos de ImageNet (clases), 64 fondos, 7 tamaños, 10 texturas, 18 ángulos de visión, 18 orientación de caracteres y 7 intensidades de luz.
El conjunto de datos se usa para evaluar modelos de lenguaje visual, mostrando cómo se pueden usar datos sintéticos para abordar las limitaciones de los puntos de referencia actuales. Contiene:
Proporciona aproximadamente 250.000 imágenes para ajustar modelos de lenguaje visual de relaciones y atributos espaciales.
Meta usó Unreal Engine para crear entornos interactivos realistas desde los cuales podían probar fácilmente imágenes de una especificación dada.
La siguiente imagen ilustra cómo Meta usa Unreal Engine e imágenes de ejemplo para generar el conjunto de datos PUG.
Los conjuntos de datos de imágenes sintéticas ofrecen numerosas ventajas para diseñar y evaluar redes neuronales profundas.
Los conjuntos de datos sintéticos pueden generar tantas muestras de datos como sea necesario, y también pueden controlar con precisión cada escena y producir etiquetas de datos de anotación de grano fino, controlar con precisión los cambios de distribución entre el entrenamiento y la prueba, para aislar variables de interés para un experimento razonable.
Sin embargo, el mayor problema con los conjuntos de datos sintéticos existentes es que no son lo suficientemente realistas, lo que limita severamente el alcance del uso del conjunto de datos.
Sin embargo, si se utiliza un conjunto de datos de imágenes reales, estará sujeto a restricciones de privacidad y derechos de autor.
Sintetizar conjuntos de datos de imágenes reales a través de Unreal Engine puede resolver muy bien estos problemas.
La capacidad de generar datos que cubren una variedad de dominios podría hacer que la evaluación y el entrenamiento de modelos de lenguaje visual sean más confiables que los puntos de referencia de prueba existentes, dice Meta.
Además de los conjuntos de datos, los investigadores pueden usar el entorno PUG para crear los suyos propios, especificando con precisión factores como la iluminación y los ángulos de visión que son difíciles de controlar con conjuntos de datos del mundo real.
Cómo crear tu propio conjunto de datos PUG
Además, Meta también presentó en detalle cómo usar Unreal Engine para construir su propio conjunto de datos PUG único.
Manual de instrucciones:
La primera es descargar Epic Games para obtener Unreal Engine 5. A continuación, cree un nuevo proyecto de transmisión de píxeles.
Si nunca antes ha entendido Unreal Engine, puede descargar la demostración oficial para una introducción simple.
Luego, lea la introducción oficial al motor Unreal 5 para comprender el mecanismo básico de Blueprintsd.
Después de descargar la demostración, abra el archivo de tabla DTCharSelect ubicado en la carpeta Content/Blueprints/CharacterConfig, como se muestra en la figura a continuación.
Esta tabla enumera todos los activos que se pueden cargar a través de Unreal Environment. Si desea agregar nuevos caracteres, simplemente cree una nueva entrada en la tabla.
Las gafas AR pueden lanzarse el próximo año: materiales militares, ensamblados en los Estados Unidos
Además, Meta también tiene previsto lanzar la primera generación de gafas AR en 2024, con una producción de unas 1.000 unidades.
Estas 1000 gafas AR solo se utilizarán para pruebas internas y exhibición pública, y no se darán a conocer al público.
Aunque el número es pequeño, Meta ha pasado por muchos problemas para producir estas gafas AR.
Las gafas se posicionan como un costoso dispositivo de computación espacial.
Y debido a que los lentes involucran materiales cuya exportación está restringida, el controlador de mano y el núcleo informático inalámbrico de estos anteojos se producirán en China continental y Taiwán, China, y luego se enviarán a los Estados Unidos, donde se ensamblarán junto con las lentes para formar un producto terminado.
La razón es que Meta planea usar un compuesto llamado carburo de silicio (SiC) como material de la lente en las gafas AR cuyo nombre en código interno es "Orion". Pero el gobierno restringe la exportación del compuesto a otros países.
En comparación con los materiales de vidrio anteriores, el carburo de silicio puede proyectar una imagen más amplia en la lente y el campo de visión es más amplio. Pero también es más caro.
El campo de visión de las gafas Orion AR es de aproximadamente 70° en diagonal, un poco más grande que Magic Leap 2 (66°) y mucho más grande que HoloLens 2 (52°).
El gasto de Meta en un producto que no se lanzará al público podría generar preocupaciones de los inversores sobre el gasto de la unidad Reality Labs de Meta.
Entre ellos, el departamento de Reality Labs desarrolla principalmente productos de realidad aumentada (AR) y realidad virtual (VR).
Sin embargo, hasta ahora, el mercado de la realidad virtual aún es pequeño, la tecnología de la realidad aumentada aún está en desarrollo y los escenarios de aterrizaje son relativamente limitados.
Meta invirtió mucho en estas dos áreas, con la esperanza de establecer la posición de liderazgo de Meta en el mercado.
En ambas áreas, Meta tiene que competir con un competidor bien financiado: los auriculares Vision Pro de Apple.
Meta ha reducido los costos en toda la empresa debido a la desaceleración del crecimiento de los ingresos y la mayor presión de los inversionistas, pero la inversión total de Meta en la unidad Reality Labs sigue creciendo.
En los últimos 18 meses, el sector ha perdido $21 mil millones este año.
La decisión de Meta de enviar solo la primera generación de anteojos AR como un producto interno es en sí misma un movimiento de reducción de costos.
Además, la selección de fábricas en China también es parte de la reducción de costos.
Contratando trabajadores de ensamblaje en los Estados Unidos, los salarios por hora oscilan entre $ 16,75 y $ 28,27. Mucho más alto que el costo de producción en China continental y Taiwán, China.
Del mismo modo, otras empresas tecnológicas estadounidenses que fabrican hardware, como Apple, también fabrican la mayoría de sus productos en China.
Aun así, el costo de la primera generación de gafas AR sigue siendo bastante alto porque las lentes tienen que ser producidas y ensambladas en los Estados Unidos.
Volver a contratar empleados despedidos
En las últimas semanas, Meta ha comenzado lentamente a acelerar el ritmo de contratación, especialmente para puestos de ingeniería y tecnología.
Desde noviembre, los empleados que han sido despedidos por Meta pueden volver a postularse para los puestos que están contratando actualmente a través de un "portal de ex-empleados" dedicado.
Se están contratando cientos de trabajos en este momento, principalmente para puestos de software, hardware y AR/VR, con algunos roles tecnológicos clave en infraestructura y centros de datos.
Una persona familiarizada con el asunto dijo que el puesto de operación no parece estar liberalizado, y los puestos de contratación son todos puestos con requisitos de producción específicos, porque Meta ha reducido la cantidad de puestos de nivel de gerente en su conjunto.
El reclutamiento de Meta está dirigido principalmente a empleados con una rica experiencia laboral, lo que reduce la contratación de recién graduados y pasantes.
Cuanto mayor sea el nivel y mejor sea la evaluación del desempeño del ingeniero despedido, mayor será la probabilidad de ser recontratado.
Muchos de los empleados recontratados serán colocados en nuevos puestos con puestos y salarios más bajos que antes.
Un miembro del personal que fue recontratado por Meta dijo que recibió un recorte salarial de alrededor del 10%. Pero dado que el precio de las acciones de Meta ha estado al alza últimamente, espera alcanzar ese nivel dentro de un año.
Xiao Zha, que ha probado la dulzura de reducir costos y aumentar la eficiencia, parece estar todavía firmemente en el camino hacia el metaverso.
Referencias:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Los empleados despedidos regresan y Meta reconstruye el Metaverso! Publique conjuntos de datos de imágenes realistas, monte gafas AR en una gira mundial
**Fuente:**Xinzhiyuan
**Introducción: **La exploración del metaverso por parte de Meta no se ha detenido. Recordando a los empleados despedidos, lanzando conjuntos de datos de imágenes irreales ultrarrealistas, ensamblando gafas AR en todo el mundo...
La exploración del metaverso de Meta aún continúa.
Recientemente, Meta ha desarrollado un nuevo conjunto de datos sintéticos realistas con Unreal Engine, con la esperanza de acortar la distancia entre los datos sintéticos y los datos del mundo real.
También planean fabricar un nuevo par de anteojos AR que se usarán solo para desarrollo interno y exhibición pública.
Se informa que el proceso de fabricación de las gafas involucra fábricas en China continental, Taiwán y Estados Unidos. La razón es que los lentes contienen un material de grado militar que no se puede exportar fácilmente fuera de los Estados Unidos.
Además, Meta incluso creó un "portal de ex empleados" para reclutar lentamente a ex empleados despedidos.
Conjunto de datos de imágenes reales e irreales
El conjunto de datos Photorealistic Unreal Graphic (PUG, Photorealistic Graphic) lanzado por Meta permite una evaluación y entrenamiento más controlable y robusto de los sistemas de visión de inteligencia artificial.
Debido a que PUG usa la imagen sintetizada por Unreal Engine, garantiza el realismo del material de la imagen, lo que amplía enormemente su alcance de uso que los conjuntos de datos de imágenes similares anteriores.
PUG consta de 4 partes:
1. Animal DOGUILLO
Espacios de representación para estudiar la generalización fuera de la distribución y estudiar los modelos subyacentes, que incluyen:
215 040 imágenes renderizadas previamente, que cubren 70 recursos animales, incluidos 4 tamaños, 3 texturas y 4 orientaciones diferentes.
El conjunto de datos proporciona un punto de referencia novedoso y eficiente para la evaluación detallada de la estabilidad de los clasificadores de imágenes en múltiples variables, que incluyen:
151 tipos de ImageNet (clases), 64 fondos, 7 tamaños, 10 texturas, 18 ángulos de visión, 18 orientación de caracteres y 7 intensidades de luz.
El conjunto de datos se usa para evaluar modelos de lenguaje visual, mostrando cómo se pueden usar datos sintéticos para abordar las limitaciones de los puntos de referencia actuales. Contiene:
43 560 imágenes renderizadas previamente, 10 fondos, 32 animales, 4 relaciones (izquierda/derecha, abajo/arriba), 4 atributos (azul/rojo, hierba/piedra).
Proporciona aproximadamente 250.000 imágenes para ajustar modelos de lenguaje visual de relaciones y atributos espaciales.
Meta usó Unreal Engine para crear entornos interactivos realistas desde los cuales podían probar fácilmente imágenes de una especificación dada.
La siguiente imagen ilustra cómo Meta usa Unreal Engine e imágenes de ejemplo para generar el conjunto de datos PUG.
Los conjuntos de datos sintéticos pueden generar tantas muestras de datos como sea necesario, y también pueden controlar con precisión cada escena y producir etiquetas de datos de anotación de grano fino, controlar con precisión los cambios de distribución entre el entrenamiento y la prueba, para aislar variables de interés para un experimento razonable.
Sin embargo, el mayor problema con los conjuntos de datos sintéticos existentes es que no son lo suficientemente realistas, lo que limita severamente el alcance del uso del conjunto de datos.
Sin embargo, si se utiliza un conjunto de datos de imágenes reales, estará sujeto a restricciones de privacidad y derechos de autor.
Sintetizar conjuntos de datos de imágenes reales a través de Unreal Engine puede resolver muy bien estos problemas.
La capacidad de generar datos que cubren una variedad de dominios podría hacer que la evaluación y el entrenamiento de modelos de lenguaje visual sean más confiables que los puntos de referencia de prueba existentes, dice Meta.
Además de los conjuntos de datos, los investigadores pueden usar el entorno PUG para crear los suyos propios, especificando con precisión factores como la iluminación y los ángulos de visión que son difíciles de controlar con conjuntos de datos del mundo real.
Cómo crear tu propio conjunto de datos PUG
Además, Meta también presentó en detalle cómo usar Unreal Engine para construir su propio conjunto de datos PUG único.
La primera es descargar Epic Games para obtener Unreal Engine 5. A continuación, cree un nuevo proyecto de transmisión de píxeles.
Si nunca antes ha entendido Unreal Engine, puede descargar la demostración oficial para una introducción simple.
Esta tabla enumera todos los activos que se pueden cargar a través de Unreal Environment. Si desea agregar nuevos caracteres, simplemente cree una nueva entrada en la tabla.
Las gafas AR pueden lanzarse el próximo año: materiales militares, ensamblados en los Estados Unidos
Además, Meta también tiene previsto lanzar la primera generación de gafas AR en 2024, con una producción de unas 1.000 unidades.
Aunque el número es pequeño, Meta ha pasado por muchos problemas para producir estas gafas AR.
Las gafas se posicionan como un costoso dispositivo de computación espacial.
Y debido a que los lentes involucran materiales cuya exportación está restringida, el controlador de mano y el núcleo informático inalámbrico de estos anteojos se producirán en China continental y Taiwán, China, y luego se enviarán a los Estados Unidos, donde se ensamblarán junto con las lentes para formar un producto terminado.
La razón es que Meta planea usar un compuesto llamado carburo de silicio (SiC) como material de la lente en las gafas AR cuyo nombre en código interno es "Orion". Pero el gobierno restringe la exportación del compuesto a otros países.
El campo de visión de las gafas Orion AR es de aproximadamente 70° en diagonal, un poco más grande que Magic Leap 2 (66°) y mucho más grande que HoloLens 2 (52°).
Entre ellos, el departamento de Reality Labs desarrolla principalmente productos de realidad aumentada (AR) y realidad virtual (VR).
Sin embargo, hasta ahora, el mercado de la realidad virtual aún es pequeño, la tecnología de la realidad aumentada aún está en desarrollo y los escenarios de aterrizaje son relativamente limitados.
Meta invirtió mucho en estas dos áreas, con la esperanza de establecer la posición de liderazgo de Meta en el mercado.
En ambas áreas, Meta tiene que competir con un competidor bien financiado: los auriculares Vision Pro de Apple.
Meta ha reducido los costos en toda la empresa debido a la desaceleración del crecimiento de los ingresos y la mayor presión de los inversionistas, pero la inversión total de Meta en la unidad Reality Labs sigue creciendo.
En los últimos 18 meses, el sector ha perdido $21 mil millones este año.
Además, la selección de fábricas en China también es parte de la reducción de costos.
Contratando trabajadores de ensamblaje en los Estados Unidos, los salarios por hora oscilan entre $ 16,75 y $ 28,27. Mucho más alto que el costo de producción en China continental y Taiwán, China.
Del mismo modo, otras empresas tecnológicas estadounidenses que fabrican hardware, como Apple, también fabrican la mayoría de sus productos en China.
Aun así, el costo de la primera generación de gafas AR sigue siendo bastante alto porque las lentes tienen que ser producidas y ensambladas en los Estados Unidos.
Volver a contratar empleados despedidos
En las últimas semanas, Meta ha comenzado lentamente a acelerar el ritmo de contratación, especialmente para puestos de ingeniería y tecnología.
Desde noviembre, los empleados que han sido despedidos por Meta pueden volver a postularse para los puestos que están contratando actualmente a través de un "portal de ex-empleados" dedicado.
Se están contratando cientos de trabajos en este momento, principalmente para puestos de software, hardware y AR/VR, con algunos roles tecnológicos clave en infraestructura y centros de datos.
El reclutamiento de Meta está dirigido principalmente a empleados con una rica experiencia laboral, lo que reduce la contratación de recién graduados y pasantes.
Cuanto mayor sea el nivel y mejor sea la evaluación del desempeño del ingeniero despedido, mayor será la probabilidad de ser recontratado.
Muchos de los empleados recontratados serán colocados en nuevos puestos con puestos y salarios más bajos que antes.
Un miembro del personal que fue recontratado por Meta dijo que recibió un recorte salarial de alrededor del 10%. Pero dado que el precio de las acciones de Meta ha estado al alza últimamente, espera alcanzar ese nivel dentro de un año.
Xiao Zha, que ha probado la dulzura de reducir costos y aumentar la eficiencia, parece estar todavía firmemente en el camino hacia el metaverso.