Nvidia presenta un modelo de inteligencia artificial que transforma algunos de diez disparos en una escena renderizada en 3D
La última demostración de inteligencia artificial de Nvidia es bastante impresionante: una herramienta que convierte rápidamente una situación 2D de “pocas docenas” en una escena renderizada en 3D. En el video a continuación, verá un método en acción en el que un modelo vestido como Andy Warhol sostiene una cámara Polaroid antigua. (No piense demasiado en la conexión de Warhol: es solo un poco de vestimenta de la escena de relaciones públicas).
La herramienta se llama Instant NeRF, en referencia a “campos de radiación del sistema nervioso“- Tecnología desarrollada en 2020 por investigadores de UC Berkeley, Google Research y UC San Diego. Si desea una explicación detallada de los campos de radiación nerviosa, puede leer uno. aquí, pero en resumen, el método mapea los colores y las intensidades de luz de diferentes imágenes 2D y luego crea datos para combinar estas imágenes desde diferentes perspectivas y crear una vista 3D terminada. Además de las imágenes, el sistema necesita información sobre la ubicación de la cámara.
Los científicos han mejorado este modelo de 2D a 3D Por un par de años, agregando detalles a los renderizados terminados y aumentando la velocidad de renderizado. Nvidia dice que su nuevo modelo Instant NeRF es uno de los más rápidos desarrollados hasta ahora y reduce el tiempo de renderizado de unos pocos minutos a un proceso que finaliza “casi inmediatamente”.
A medida que la tecnología se vuelve más rápida y fácil de implementar, podría usarse para todo tipo de tareas, dice Nvidia en una publicación de blog. describiendo el trabajo.
“Instant NeRF podría usarse para crear avatares o escenas de mundos virtuales, capturar en 3D a los participantes de una videoconferencia y su entorno, o reconstruir escenas para mapas digitales en 3D”, escribe Isvid Salian de Nvidia. “La tecnología podría usarse para enseñar a los robots y autos autónomos a comprender el tamaño y la forma de los objetos reales al tomar imágenes o videos de ellos en 2D. También podría usarse en arquitectura y entretenimiento para crear rápidamente representaciones digitales de entornos reales que los autores pueden editar y construir”.
Desafortunadamente, Nvidia no compartió detalles sobre su método, por lo que no sabemos exactamente cuántas imágenes 2D se necesitan o cuánto tiempo llevará renderizar la vista 3D final (que también depende del rendimiento de la computadora de renderizado). Aún así, parece que la tecnología avanza rápidamente y puede comenzar a afectar el mundo real en los próximos años.
Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida