Principios de visualización utilizando gráficos cgi. Cómo los gráficos por computadora se vuelven indistinguibles de la realidad. editores gráficos 3D

característica principal En una nueva versión del largometraje de dibujos animados de Disney de 1967, ni siquiera son las voces de Scarlett Johansson, Idris Elba y Christopher Walken (a quienes el espectador ruso no escuchará en el doblaje), sino el hecho de que en 105 minutos de una Película increíblemente realista, en el encuadre sólo aparece una persona viva: Mowgli, interpretado por el debutante Neel Sethi. Todos los demás personajes fueron creados utilizando gráficos por computadora, por lo que el director Jon Favreau ya recibió un premio de la organización PETA, ya que durante el rodaje ningún animal resultó herido ni trabajó en el set.

¿Qué pasó antes?

La primera película realizada íntegramente con animación por ordenador (CGI) fue el cortometraje Hummingbird, estrenado en Bélgica en 1967. En aquel entonces nadie podría haber adivinado lo que le depararía el futuro. nueva tecnología. Hasta principios de los años 1990 gráficos por computadora, como todo el sector de TI, se desarrolló a un ritmo muy lento según los estándares actuales. El gran avance fue Jurassic Park (1993) con sus dinosaurios CGI realistas. Dos años más tarde, se estrenó Toy Story, la primera caricatura completa, realizado en computadora de principio a fin.

2001 fue un punto de inflexión en la historia de CGI, los gráficos se dividieron en dos direcciones. Se estrenó "Shrek", cuyos personajes parecían, por un lado, realistas, pero por el otro, todavía estilizados. Al mismo tiempo, se estrenó la película de ciencia ficción "Final Fantasy", que marcó el comienzo del fotorrealismo en CGI: el deseo de crear personajes indistinguibles de los seres vivos reales. Los continuadores de esta tendencia fueron “El Señor de los Anillos: Las Dos Torres”, “Beowulf”, “Avatar”, “La Vida de Pi” y, finalmente, “El Libro de la Selva”.

Novedades de El libro de la selva

Al crear El libro de la selva, Favreau y su equipo aprovecharon al máximo todos los avances en el campo del CGI. El director tiene una amplia experiencia en el uso de infografía gracias a su trabajo en la misma" hombre de hierro”, pero con “El libro de la selva”, Favreau quiso ir aún más lejos: contar la historia utilizando imágenes totalmente fotorrealistas. Ya vimos algo similar en “La vida de Pi”; al principio, algunos espectadores incluso se negaron a creer que el tigre de la película había sido generado completamente por computadora. En El libro de la selva no sólo se ha creado mediante CGI el tigre (por cierto, muy impresionante y bastante aterrador para un dibujo animado infantil), sino también toda la jungla. El desarrollo de efectos especiales estuvo dirigido por Rob Legato, quien anteriormente trabajó en gráficos por computadora para Avatar.

Cómo se combinan imágenes y gráficos reales

Un esquema de color CG sobresaturado que choca con los colores de panorama general, destruye todo realismo y los personajes dibujados simplemente desaparecen de la escena. Por lo tanto, el proceso más importante al crear animación por computadora es la composición (del inglés compositing - "layout"). En esta etapa, los modelos 3D se integran en la realidad circundante.

La composición implica combinar modelos de personajes con vídeo de fondo y otros elementos del encuadre, incluidas imágenes de actores en vivo (generalmente filmadas sobre un fondo verde usando croma). Primero, se superponen varias capas de video, luego se iguala el brillo de las capas y se produce la corrección del color.
Los creadores de El libro de la selva intentaron hacer que la frontera entre la realidad y los gráficos por ordenador sea lo más invisible posible. Para cada escena individual en la que participaba Mowgli, se construyeron nuevos decorados, incluida una jungla de tres metros. Luego, el material filmado en los pabellones se combinó con modelos informáticos. Entonces, en una de las escenas, el héroe primero se arrastra sobre barro muy real y luego salta sobre un animal creado con gráficos por computadora, lo que lo ayuda a escapar, nuevamente, de la computadora Shere Khan. Es difícil incluso para un especialista entender dónde termina la realidad y comienza la animación digital.

Movimientos y aparejos realistas.

Todo el credito artistas brillantes, los modeladores y compositores 3D pueden verse abrumados por una física poco realista. Y la simulación de movimiento es una cosa y los movimientos creíbles de personajes vivos son otra. La sensacional escena de El Señor de los Anillos, donde Legolas, desde el punto de vista del realismo, se percibe de la misma manera que la caricatura de Tom y Jerry. Para últimos años Cada vez aparecen más tecnologías que calculan los movimientos de los seres vivos. Por ejemplo, simula la deformación de los tejidos blandos humanos durante el movimiento y añade peso a partes del cuerpo.

También es muy importante el aparejo de alta calidad (del inglés rig - "rigging"): la creación y desarrollo de un esqueleto virtual y articulaciones dentro de un modelo de personaje tridimensional. A todos los elementos constitutivos de una figura animada (no sólo las extremidades, sino también los músculos faciales, los ojos, los labios, etc.) se les asignan características y se construye una relación jerárquica entre ellos. El ajuste fino le permite crear modelos verdaderamente realistas.

captura de movimiento

La captura de movimiento se utiliza para crear las expresiones faciales y los movimientos de un personaje. La tecnología se generalizó en la década de 1990, después de que se utilizara por primera vez para crear animaciones de personajes para el juego de computadora Virtua Fighter 2 en 1994. La captura de movimiento comenzó a utilizarse activamente en el cine en la década de 2000 (El Señor de los Anillos, Beowulf, Avatar, Harry Potter, La vida de Pi).

Existen sistemas de captura de movimiento con y sin marcadores. Los más populares son los primeros, en los que se utiliza equipo especial: al actor se le pone un traje con sensores (para crear expresiones faciales, se colocan sensores en la cara), cuyos datos se registran y se transfieren a una computadora. Sin marcadores, se utilizan tecnologías de reconocimiento de patrones y visión por computadora para registrar datos. Luego, la computadora combina la información recibida en un solo modelo tridimensional y luego se crea una animación adecuada basada en él.

Así, la captura de movimiento sirve para capturar movimientos y expresiones faciales. actores reales en modelos de computadora, lo que resultó en un retrato parecido entre los personajes y los actores que les dieron voz. Gracias a la captura de movimiento en El Señor de los Anillos, Gollum retuvo y Smaug lo hizo. En El libro de la selva, por cierto, no todos los personajes tienen un rostro parecido al del actor que los interpreta. La boa constrictor Kaa, por ejemplo, sólo adoptó la voz aterciopelada de Scarlett Johansson; Jon Favreau explicó en una entrevista que "darle a una serpiente una cara similar a la de una persona sería completamente ridículo".

Ojos y expresiones faciales.

El realismo fotográfico de los personajes es imposible sin una representación de alta calidad de sus expresiones faciales. El trabajo en esta área se realiza en dos direcciones principales: generar directamente la animación adecuada y aplicarla a los personajes. La animación en sí se crea, por regla general, utilizando la misma técnica de captura de movimiento. En Autodesk Maya y 3DS Max se logra un cambio suave en las expresiones faciales de un personaje utilizando la técnica de fusión (morphing).

A pesar del rápido desarrollo de los gráficos por ordenador en últimas décadas, durante mucho tiempo no hubo manera de crear realista ojos humanos. En 2014, Disney propuso el siguiente método para resolver este problema: al capturar la expresión de los ojos, coloque marcadores separados en globo del ojo, córnea y retina, y luego componer los datos obtenidos y superponerlos en un modelo tridimensional del ojo por computadora.

Emociones y edad

Los especialistas de Disney compartieron recientemente una versión de prueba del inusual software FaceDirector, una especie de autoajuste de las emociones. El programa te permite combinar varias tomas en tiempo real, representando toda una paleta de diferentes emociones, y ajustar la actuación. El programa brinda al director la oportunidad en postproducción de combinar varias expresiones faciales, realzar o eliminar la intensidad emocional en un momento determinado de la escena.

Otro avance son los cosméticos digitales que pueden devolver la juventud a los actores. El impresionante vídeo fue presentado por el especialista en efectos visuales Rousselos Aravantinos, utilizando una cámara Nikon V1 y los programas NUKE y Mocha Pro. Se realizaron acrobacias similares en la película " historia misteriosa Benjamín Botón."

pelo y lana

Crear pieles y cabellos realistas es una tarea técnica difícil, con la que los animadores han estado luchando durante mucho tiempo. El cabello como modelo 3D es un sistema completo que debe mantener su integridad y carácter, mientras que en dinámica cada cabello individual debe comportarse de forma independiente y reaccionar ante las colisiones con otros cabellos. Se ha aprendido a crear simulaciones de pelajes que se balancean de manera creíble cuando se mueve un animal hace relativamente poco tiempo, y los complementos modernos para editores CGI, como XGen, han simplificado la tarea para los animadores. Se sabe que este generador de cabello en particular se utilizó en la creación de Zootopia y Toy Story 3.

¿Qué programas se utilizan para crear efectos especiales y quién los crea?

Muchos grandes estudios como Pixar y Disney utilizan los suyos propios para crear gráficos por ordenador. software, pero también recurren a programas disponibles para el público en general, incluidos Autodesk Maya, Adobe After Effects, Adobe Premiere, Luxology Modo, Houdini. Por lo tanto, la mayoría de los efectos especiales en Avatar se crearon usando Maya; para la composición se utilizó Adobe After Effects.

Por regla general, varias empresas trabajan con infografías para grandes proyectos. Los creadores de El libro de la selva recurrieron a los servicios de la británica MPC y de la neozelandesa Weta Digital. MPC también trabajó en Life of Pi, World War Z y todas las películas de Harry Potter. Los desarrolladores Weta Digital trabajaron en los gráficos de Avatar, Los Vengadores, Los juegos del hambre y El señor de los anillos. La mayoría de las empresas especializadas en efectos especiales están registradas en Estados Unidos y Gran Bretaña, pero muchas de ellas trasladan parte de su producción a India y China, creando allí sus propios estudios o comprando los existentes. Así, en 2014 se fusionaron la británica Double Negative y la india Prime Focus, que luego crearon conjuntamente los gráficos de Interstellar. Sin embargo, los estudios de efectos especiales chinos e indios que no forman parte de grandes empresas aún no son tan populares entre los cineastas como los occidentales, principalmente debido a la falta de experiencia y recursos suficientes.

CGI en nuestra vida cotidiana

Las tecnologías complejas para crear animaciones por computadora se están volviendo gradualmente accesibles para las masas. Entre los últimos logros en este ámbito se encuentran el programa lanzado en 2014 o la sensacional aplicación bielorrusa. Permiten superponer animaciones en el rostro del usuario o en personas captadas por el objetivo de su cámara en tiempo real. Una función similar está disponible en Snapchat Messenger. Las aplicaciones rastrean los movimientos del usuario, los analizan y superponen los datos recibidos en modelos tridimensionales en tiempo real, es decir, utilizan métodos similares a los utilizados para transmitir las expresiones faciales de los personajes de películas y juegos de ordenador.

Por un lado, el propio motor OpenSceneGraph tiene un subsistema desarrollado para administrar ventanas, procesar eventos de entrada del usuario y enviar y recibir mensajes del usuario. Hablamos de esto con cierto detalle en artículos anteriores de esta serie. En general, combinado con las capacidades de C++/STL, esto es suficiente para desarrollar aplicaciones arbitrariamente complejas.

Un ejemplo de integración OSG en una aplicación, desarrollado en QtDesigner. Este ejemplo se analizará en detalle a continuación.


Por otro lado, para acelerar el desarrollo en C++ se utilizan tanto bibliotecas de terceros que amplían las capacidades de este lenguaje (como boost) como frameworks completos que permiten desarrollar de forma fácil y natural aplicaciones multiplataforma con amplios propósitos funcionales. . Uno de esos marcos es el ultra popular Qt. No importa cómo se critique a Qt por su compilador de metaobjetos y otras deficiencias e inconvenientes, el punto fuerte de Qt está en su extensa biblioteca de clases, que resuelve todos los problemas imaginables del desarrollo multiplataforma, así como en las "ranuras de señales". concepto, que implementa un subsistema de mensajería entre clases. Los métodos de interacción entre una aplicación y el sistema operativo, así como la comunicación entre procesos, también se basan en señales y ranuras.

Y joder, sería muy interesante combinar dos tecnologías: Qt y OSG. Mi equipo tuvo que resolver un problema similar, sobre el que ya escribí en. Sin embargo, me gustaría ampliar este tema un poco más y este artículo tratará sobre este tema.

Todos buen humor y la temperatura exterior es más baja. Como prometí, estoy publicando una continuación del artículo sobre OpenGL súper moderno. ¿Quién no ha leído la primera parte? OpenGL ultramoderno. Parte 1.


Hola a todos. Cualquiera que tenga un mínimo conocimiento del tema OpenGL sabe que existe gran número artículos y cursos sobre este tema, pero muchos no tocan la API moderna, y algunos de ellos incluso hablan de glBegin y glEnd . Intentaré cubrir algunos de los matices de la nueva API a partir de la versión 4.

Hoy te mostraré cómo abrir una ventana y crear un contexto OpenGL. Esta es una tarea sorprendentemente difícil, OpenGL todavía no tiene herramientas oficiales de creación de contexto multiplataforma, por lo que dependeremos de bibliotecas de terceros (en en este caso GLFW y contento). Ya hay muchos hola mundos similares en Internet, pero no me gusta todo lo que he visto: o es muy sofisticado o las imágenes de los ejemplos son muy primitivas (¡o ambas cosas!). Muchas gracias a todos los autores, pero subiré otro tutorial :)

Hoy dibujaremos algo como esto:



Ha llegado otro fin de semana, necesito escribir un par de docenas de líneas de código y hacer un dibujo, o mejor aún, más de una. Así que el fin de semana pasado y el fin de semana anterior mostré cómo hacer trazado de rayos e incluso hacer estallar cosas. Esto sorprende a muchos, pero los gráficos por computadora son muy cosa simple, un par de cientos de líneas de C++ son suficientes para crear imágenes interesantes.

El tema de la conversación de hoy es visión binocular, y hoy ni siquiera llegaremos a las cien líneas de código. Sabiendo cómo renderizar escenas tridimensionales, sería una tontería ignorar los estereotipos, hoy dibujaremos algo como esto:



Introducción

uno de tareas más interesantes resuelto a través de gráficos tridimensionales es la creación de " grandes mundos» - escenas extendidas que contienen gran número Objetos con posibilidad de movimiento ilimitado por la escena. La solución a este problema se basa en las comprensibles limitaciones inherentes al hardware informático.

Ejemplo típico: " gran mundo» al visualizar ferrocarril en el motor OSG. Sólo faltan los Langoliers devorando el mundo detrás del tren...

En este sentido, surge la necesidad de gestionar los recursos de la aplicación, lo que se reduce a una solución obvia: cargar solo aquellos recursos (modelos, texturas, etc.) que son necesarios para formar la escena en el momento actual. situación actual observador; reducir los niveles de detalle de objetos distantes; descargar objetos que ya no son necesarios de la memoria del sistema. En su mayor parte, los motores de juegos y gráficos proporcionan algún conjunto de herramientas para resolver estos problemas. Hoy veremos cuáles están disponibles en OpenSceneGraph.


Introducción

Hablando de técnicas de programación específicas de OSG, la última vez hablamos sobre el mecanismo de devolución de llamada y su implementación en el motor. Es hora de ver qué oportunidades nos brinda el uso de este mecanismo para gestionar el contenido de una escena 3D.

Si hablamos de animación de objetos, OSG ofrece al desarrollador dos opciones para su implementación:

  1. Animación procedimental implementada programáticamente a través de la transformación de objetos y sus atributos.
  2. Exporte animación desde un editor 3D y contrólela desde el código de la aplicación.

Primero, consideremos la primera posibilidad, como la más obvia. Definitivamente hablaremos del segundo un poco más tarde.

¡Hola a todos! Mi nombre es Grisha y soy la fundadora de CGDevs. Sigamos hablando de matemáticas o algo así. Quizás la principal aplicación de las matemáticas en el desarrollo de juegos y en los gráficos por computadora en general sean los efectos visuales. Entonces, hablemos de uno de esos efectos: la lluvia, o más bien de su parte principal, para lo cual se requieren matemáticas: las ondas en la superficie. Escribamos constantemente un sombreador para las ondas en la superficie y analicemos sus matemáticas. Si estás interesado, bienvenido al gato. Se adjunta el proyecto Github.



¡Feliz año que viene a todos! Mi nombre es Grisha y soy la fundadora de CGDevs. Las vacaciones están a la vuelta de la esquina, alguien ya ha decorado el árbol de Navidad, ha comido mandarinas y está totalmente cargado de humor de Año Nuevo. Pero hoy no hablaremos de esto. Hoy hablaremos sobre un formato maravilloso llamado LDraw y sobre un complemento para Unity, que implementé y publiqué en OpenSource. Se adjunta un enlace al proyecto y las fuentes del artículo, como siempre. Si amas Lego tanto como a mí, bienvenido al gato.

También hice una pequeña aplicación web donde puedes practicar la creación de fórmulas para cifras arbitrarias y genere su archivo Excel.

Atención: 19 imágenes y 3 animaciones debajo del corte.

gráficos 3D

gráficos 3D opera con objetos en el espacio tridimensional. Generalmente el resultado es una imagen plana, una proyección.

Los gráficos por ordenador en 3D se utilizan ampliamente en el cine, juegos de computadora.

En los gráficos por computadora en 3D, todos los objetos generalmente se representan como una colección de superficies o partículas. La superficie mínima se llama polígono. Los triángulos suelen elegirse como polígonos.

gráficos 3D

Todas las transformaciones visuales en gráficos 3D están controladas por matrices.

Hay tres tipos de matrices utilizadas en gráficos por computadora:

matriz de rotación

matriz de desplazamiento

matriz de escala

gráficos 3D

Cualquier polígono se puede representar como un conjunto de coordenadas de sus vértices.

El triángulo tendrá 3 vértices. Las coordenadas de cada vértice son un vector (x, y, z).

Multiplicando el vector por la matriz correspondiente, obtenemos un nuevo vector. Habiendo hecho tal transformación con todos los vértices del polígono, obtenemos un nuevo polígono, y habiendo transformado todos los polígonos, obtenemos un nuevo objeto, rotado/desplazado/escalado con respecto al original.

CGI - gráficos

CGI (imágenes generadas por computadora) , iluminado. “imágenes generadas por computadora”) son efectos especiales en cine, televisión y simulación creados utilizando gráficos por computadora tridimensionales.

Los juegos de computadora generalmente usan gráficos de computadora en tiempo real, pero ocasionalmente se agregan videos dentro del juego que usan CGI.

CGI le permite crear efectos que no se pueden lograr con maquillaje y animatronics tradicionales, y puede reemplazar los decorados y el trabajo de especialistas y extras.

CGI - gráficos

Por primera vez en largometraje Se utilizaron gráficos por computadora en Westworld, lanzado en 1973.

En la segunda mitad de la década de 1970, aparecieron películas que utilizaban elementos de gráficos tridimensionales por computadora, entre ellas "Future World", " guerra de las galaxias" y "extraterrestre".

CGI - gráficos

EN Jurassic Park (1993) fue el primero en utilizar CGI para reemplazar al especialista; La misma película fue la primera en combinar a la perfección CGI (la piel y los músculos de los dinosaurios se crearon mediante gráficos por computadora) con filmación tradicional y animatrónica.

EN En 1995 se estrenó el primer largometraje completamente simulado en una computadora: Toy Story.

EN la película "Final Fantasy: The Spirits Within Us" (2001) presentó por primera vez imágenes realistas. Imágenes CGI de personas.

CGI: gráficos. Creación de personajes

http://city.zp.ua/viewvideo/R4woMpsHYSA.html

Gráficos por computadora en efectos especiales.

Efecto especial, efecto especial (efecto especial en inglés, abreviado SPFX o SFX) es una técnica tecnológica en cine, televisión, espectáculos y juegos de computadora, que se utiliza para visualizar escenas que no se pueden filmar de la forma habitual (por ejemplo, para visualizar escenas de batalla). naves espaciales en un futuro lejano).

Los efectos especiales también se utilizan a menudo cuando filmar una escena natural es demasiado caro en comparación con un efecto especial (por ejemplo, filmar una gran explosión).

imágenes generadas por computadora , iluminado. "imágenes generadas por computadora") son imágenes fijas y en movimiento generadas y utilizadas en las artes visuales, la imprenta, los efectos especiales cinematográficos, la televisión y la simulación. Los juegos de computadora generalmente utilizan gráficos de computadora en tiempo real, pero ocasionalmente también se agregan videos dentro del juego basados ​​​​en CGI.

La creación de imágenes en movimiento se realiza mediante animación por computadora, que es un área más limitada de los gráficos CGI, aplicable incluso en el cine, donde permite crear efectos que no se pueden lograr con el maquillaje y la animatrónica tradicionales. La animación por computadora puede reemplazar el trabajo de especialistas y extras, así como la escenografía.

Historia

La primera vez que se utilizaron gráficos por computadora en un largometraje fue en Westworld, estrenada en 1973. En la segunda mitad de la década de 1970, aparecieron películas que utilizaban elementos de gráficos por ordenador tridimensionales, entre ellas Tomorrow World, Star Wars y Alien. En la década de 1980, antes del estreno de la segunda Terminator, Hollywood se enfrió hasta efectos de computadora, en particular, debido a los más que modestos ingresos de taquilla de Tron (1982), que se basó íntegramente en el uso de los últimos logros en gráficos por computadora.

En "Jurassic Park" (1993), por primera vez fue posible sustituir al especialista con la ayuda de CGI; La misma película fue la primera en combinar a la perfección CGI (la piel y los músculos de los dinosaurios se crearon mediante gráficos por computadora) con filmación tradicional y animatrónica. En 1995, se lanzó la primera caricatura completa completamente simulada en una computadora: "Toy Story". La película "Final Fantasy: The Spirits Within Us" (2001) presentó por primera vez imágenes CGI realistas de personas.