Principes de visualisation à l'aide de graphiques CGI. Comment l’infographie devient impossible à distinguer de la réalité. Éditeurs graphiques 3D

caractéristique principale Remake cinématographique du long métrage d'animation Disney de 1967, ce ne sont même pas les voix de Scarlett Johansson, Idris Elba et Christopher Walken (que le spectateur russe n'entendra de toute façon pas dans le doublage), mais le fait qu'en 105 minutes d'un film incroyablement réaliste, une seule personne vivante apparaît dans le cadre - Mowgli, interprété par le débutant Neel Sethi. Tous les autres personnages ont été créés à l'aide d'infographies, pour lesquelles le réalisateur Jon Favreau a déjà reçu un prix de l'organisation PETA, puisque pendant le tournage, aucun animal n'a été blessé ni même travaillé sur le plateau.

Que s'est-il passé avant

Le premier film entièrement réalisé en animation par ordinateur (CGI) fut le court métrage Hummingbird, sorti en Belgique en 1967. À l’époque, personne n’aurait pu deviner ce que l’avenir nous réserverait. nouvelle technologie. Jusqu'au début des années 1990 infographie, comme l'ensemble du secteur informatique, s'est développé à un rythme très lent par rapport aux normes actuelles. La percée fut Jurassic Park (1993) avec ses dinosaures réalistes en images de synthèse. Deux ans plus tard, Toy Story sortait - le premier dessin animé complet, réalisé sur ordinateur du début à la fin.

2001 a été un tournant dans l'histoire de CGI, les graphismes ont été divisés en deux directions. "Shrek" est sorti, dont les personnages semblaient, d'une part, réalistes, mais de l'autre, toujours stylisés. Au même moment, sort le film de science-fiction "Final Fantasy", qui marque le début du photoréalisme en CGI - le désir de créer des personnages impossibles à distinguer des êtres vivants réels. Les continuateurs de cette tendance étaient « Le Seigneur des Anneaux : Les Deux Tours », « Beowulf », « Avatar », « La Vie de Pi » et, enfin, « Le Livre de la Jungle ».

Quoi de neuf dans Le Livre de la Jungle

Lors de la création du Livre de la Jungle, Favreau et son équipe ont pleinement exploité toutes les avancées dans le domaine de la CGI. Le réalisateur possède une vaste expérience dans l'utilisation de l'infographie grâce à son travail sur le même " Homme de fer», mais avec « Le Livre de la Jungle », Favreau a voulu aller encore plus loin : raconter l'histoire à l'aide d'images entièrement photoréalistes. Nous avons déjà vu quelque chose de similaire dans "Life of Pi" - alors certains téléspectateurs ont même d'abord refusé de croire que le tigre du film était entièrement généré par ordinateur. Dans Le Livre de la Jungle, non seulement le tigre (d'ailleurs très impressionnant et assez effrayant pour un dessin animé pour enfants) a déjà été créé en utilisant CGI, mais aussi la jungle entière. Le développement des effets spéciaux a été dirigé par Rob Legato, qui a déjà travaillé sur infographie pour Avatar.

Comment les images réelles et les graphiques sont combinés

Une palette de couleurs CG sursaturée qui entre en conflit avec les couleurs de grande image, détruit tout réalisme et les personnages dessinés tombent tout simplement hors de la scène. Par conséquent, le processus le plus important lors de la création d'une animation par ordinateur est le compositing (de l'anglais compositing - « layout »). A ce stade, les modèles 3D sont intégrés à la réalité environnante.

La composition consiste à combiner des modèles de personnages avec une vidéo d'arrière-plan et d'autres éléments de l'image, y compris des images d'acteurs en direct (généralement tournées sur un fond vert à l'aide d'une incrustation chromatique). Tout d'abord, diverses couches vidéo sont superposées les unes aux autres, puis la luminosité des couches est égalisée et une correction des couleurs se produit.
Les créateurs du Livre de la Jungle ont essayé de rendre la frontière entre réalité et infographie aussi invisible que possible. Pour chaque scène individuelle impliquant Mowgli, de nouveaux décors ont été construits, dont une jungle de trois mètres. Ensuite, le matériel filmé dans les pavillons a été combiné à des modèles informatiques. Ainsi, dans l'une des scènes, le héros rampe d'abord dans de la boue très réelle, puis saute sur un animal créé à l'aide d'infographies, ce qui l'aide à s'échapper, encore une fois, de l'ordinateur Shere Khan. Il est difficile, même pour un spécialiste, de comprendre où s'arrête la réalité et où commence l'animation numérique.

Mouvements et gréements réalistes

Tout le crédit artistes brillants, les modélisateurs et compositeurs 3D peuvent être dépassés par une physique irréaliste. Et la simulation de mouvement est une chose, les mouvements crédibles de personnages vivants en sont une autre. La scène sensationnelle du Seigneur des Anneaux, où Legolas, du point de vue du réalisme, est perçue à peu près de la même manière que le dessin animé Tom et Jerry. Derrière dernières années De plus en plus de technologies apparaissent pour calculer les mouvements des êtres vivants. Par exemple, il simule la déformation des tissus mous humains lors du mouvement et ajoute du poids à certaines parties du corps.

Un gréement de haute qualité (de l'anglais rig - «rigging») est également très important - la création et le développement d'un squelette virtuel et de joints à l'intérieur d'un modèle de personnage en trois dimensions. Tous les éléments constitutifs de la figure animée (non seulement les membres, mais aussi les muscles du visage, les yeux, les lèvres, etc.) reçoivent des caractéristiques et une relation hiérarchique se construit entre eux. Un réglage fin vous permet de créer des modèles vraiment réalistes.

Capture de mouvement

La capture de mouvement est utilisée pour créer les expressions faciales et les mouvements d'un personnage. Cette technologie s'est répandue dans les années 1990, après avoir été utilisée pour la première fois en 1994 pour créer des animations de personnages pour le jeu informatique Virtua Fighter 2. La capture de mouvement a commencé à être activement utilisée au cinéma dans les années 2000 (Le Seigneur des Anneaux, Beowulf, Avatar, Harry Potter, Life of Pi).

Il existe des systèmes de capture de mouvement avec et sans marqueur. Les plus populaires sont les premiers, où un équipement spécial est utilisé : l'acteur enfile une combinaison avec des capteurs (pour créer des expressions faciales, des capteurs sont placés sur le visage), dont les données sont enregistrées et transférées à un ordinateur. Dans les systèmes sans marqueur, les technologies de vision par ordinateur et de reconnaissance de formes sont utilisées pour enregistrer les données. Ensuite, l'ordinateur combine les informations reçues en un seul modèle tridimensionnel, puis une animation appropriée est créée sur cette base.

Ainsi, la capture de mouvement sert à capturer les mouvements et les expressions faciales de vrais acteurs sur des modèles informatiques, ce qui donne lieu à une ressemblance entre les personnages et les acteurs qui les ont exprimés. Grâce à la capture de mouvement dans Le Seigneur des Anneaux, Gollum a conservé , et Smaug l'a fait. Dans Le Livre de la Jungle, d'ailleurs, tous les personnages n'ont pas un visage similaire à celui de l'acteur qui les incarne. Le boa constrictor Kaa, par exemple, n'a adopté qu'une voix veloutée de Scarlett Johansson - Jon Favreau a expliqué dans une interview que "donner à un serpent un visage semblable à celui d'une personne serait complètement ridicule".

Yeux et expressions du visage

Le réalisme photographique des personnages est impossible sans un rendu de haute qualité de leurs expressions faciales. Le travail dans ce domaine s'effectue dans deux directions principales : générer directement l'animation appropriée et l'appliquer aux personnages. L'animation elle-même est généralement créée en utilisant la même technique de capture de mouvement. Un changement fluide dans les expressions faciales d'un personnage est obtenu dans Autodesk Maya et 3DS Max à l'aide de la technique de blendshaping (morphing).

Malgré le développement rapide de l'infographie dernières décennies, pendant longtemps, il n'y avait aucun moyen de créer des images réalistes yeux humains. En 2014, Disney a proposé la méthode suivante pour résoudre ce problème : lors de la capture de l'expression des yeux, placez des marqueurs séparés sur globe oculaire, la cornée et la rétine, puis composer les données obtenues et les superposer sur un modèle informatique tridimensionnel de l'œil.

Émotions et âge

Les spécialistes de Disney ont récemment partagé une version test du logiciel inhabituel FaceDirector - une sorte de réglage automatique des émotions. Le programme permet de combiner plusieurs prises en temps réel, représentant toute une palette d'émotions différentes, et d'ajuster le jeu des acteurs. Le programme offre au réalisateur la possibilité en post-production de combiner plusieurs expressions faciales, de renforcer ou de supprimer l'intensité émotionnelle à un certain moment de la scène.

Un autre développement est celui des cosmétiques numériques qui peuvent redonner de la jeunesse aux acteurs. La vidéo impressionnante a été présentée par le spécialiste VFX Rousselos Aravantinos, qui a utilisé un appareil photo Nikon V1 et les programmes NUKE et Mocha Pro. Des cascades similaires ont été réalisées dans le film " Histoire mystérieuse Benjamin Bouton. »

Cheveux et laine

Créer une fourrure et des cheveux réalistes est une tâche technique difficile, avec laquelle les animateurs se battent depuis longtemps. Les cheveux en tant que modèle 3D constituent un système complet qui doit conserver son intégrité et son caractère, tandis qu'en dynamique, chaque cheveu doit se comporter de manière indépendante et réagir aux collisions avec d'autres cheveux. Des simulations de fourrure se balançant de manière crédible lorsqu'un animal se déplace ont été créées relativement récemment, et les plugins modernes pour les éditeurs CGI, tels que XGen, ont simplifié la tâche des animateurs. On sait que ce générateur de cheveux particulier a été utilisé dans la création de Zootopia et Toy Story 3.

Quels programmes sont utilisés pour créer des effets spéciaux et qui les crée ?

De nombreux grands studios tels que Pixar et Disney utilisent les leurs pour créer des infographies. logiciel, mais ils ont également recours à des programmes accessibles au grand public, notamment Autodesk Maya, Adobe After Effects, Adobe Premiere, Luxology Modo, Houdini. Ainsi, la plupart des effets spéciaux d'Avatar ont été créés à l'aide de Maya ; Adobe After Effects a été utilisé pour la composition.

En règle générale, plusieurs entreprises travaillent sur l'infographie pour de grands projets. Les créateurs du Livre de la Jungle ont eu recours aux services du britannique MPC et du néo-zélandais Weta Digital. MPC a également travaillé sur Life of Pi, World War Z et tous les films Harry Potter. Les développeurs Weta Digital ont travaillé sur les graphismes d'Avatar, The Avengers, The Hunger Games et Le Seigneur des Anneaux. La plupart des sociétés spécialisées dans les effets spéciaux sont enregistrées aux États-Unis et en Grande-Bretagne, mais beaucoup d'entre elles délocalisent une partie de leur production en Inde et en Chine, y créant leurs propres studios ou en rachetant ceux qui existent déjà. Ainsi, en 2014, le britannique Double Negative et l'indien Prime Focus fusionnent, qui créent alors conjointement les graphismes d'Interstellar. Cependant, les studios d'effets spéciaux chinois et indiens qui ne font pas partie de grandes entreprises ne sont pas encore aussi populaires parmi les cinéastes que les studios occidentaux, principalement en raison du manque d'expérience et de ressources suffisantes.

CGI dans notre vie de tous les jours

Les technologies complexes de création d'animation par ordinateur deviennent progressivement accessibles au grand public. Parmi les dernières réalisations dans ce domaine, on peut noter le programme sorti en 2014 ou la sensationnelle application biélorusse. Ils permettent de superposer une animation sur le visage de l’utilisateur ou des personnes capturées par l’objectif de son appareil photo en temps réel. Une fonction similaire est disponible dans la messagerie Snapchat. Les applications suivent les mouvements de l'utilisateur, les analysent et superposent les données reçues sur des modèles tridimensionnels en temps réel, c'est-à-dire qu'elles utilisent des méthodes similaires à celles utilisées pour transmettre les expressions faciales des personnages de films et de jeux informatiques.

D'une part, le moteur OpenSceneGraph lui-même dispose d'un sous-système développé pour gérer les fenêtres, traiter les événements de saisie de l'utilisateur, envoyer et recevoir des messages utilisateur. Nous en avons parlé en détail dans les articles précédents de cette série. En général, combiné aux capacités du C++/STL, cela suffit amplement pour développer des applications arbitrairement complexes.

Un exemple d'intégration d'OSG dans une application, développée dans QtDesigner. Cet exemple sera discuté en détail ci-dessous.


D'autre part, pour accélérer le développement en C++, on utilise à la fois des bibliothèques tierces qui étendent les capacités de ce langage (comme boost), et des frameworks entiers qui vous permettent de développer facilement et naturellement des applications multiplateformes avec de larges objectifs fonctionnels. . L’un de ces frameworks est le très populaire Qt. Peu importe la façon dont Qt est critiqué pour son compilateur de méta-objets et d'autres défauts et inconvénients, la force de Qt réside dans sa vaste bibliothèque de classes, qui résout tous les problèmes imaginables du développement multiplateforme, ainsi que dans les « emplacements de signaux » concept, qui implémente un sous-système de messagerie entre les classes. Les méthodes d'interaction entre une application et le système d'exploitation, ainsi que la communication interprocessus, reposent également sur des signaux et des slots.

Et bon sang, ce serait très intéressant de combiner deux technologies : Qt et OSG. Mon équipe a dû résoudre un problème similaire, dont j'ai déjà parlé. Cependant, j'aimerais développer cette question un peu plus largement, et cet article portera sur ce sujet.

Tout le monde Avoir de la bonne humeur et la température extérieure est plus basse. Comme promis, je publie une suite de l'article sur l'OpenGL super-duper moderne. Qui n'a pas lu la première partie - OpenGL ultra-moderne. Partie 1 .


Salut tout le monde. Quiconque comprend ne serait-ce qu'un peu le sujet OpenGL sait qu'il existe un grand nombre de des articles et des cours sur ce sujet, mais beaucoup n'abordent pas l'API moderne, et certains d'entre eux parlent même de glBegin et glEnd . Je vais essayer de couvrir certaines des nuances de la nouvelle API à partir de la version 4.

Aujourd'hui, je vais vous montrer comment ouvrir une fenêtre et créer un contexte OpenGL. C'est une tâche étonnamment difficile, OpenGL ne dispose toujours pas d'outils officiels de création de contexte multiplateforme, nous nous appuierons donc sur des bibliothèques tierces (en dans ce cas GLFW et heureux). Il existe déjà de nombreux hello worlds similaires sur Internet, mais je n'aime pas tout ce que j'ai vu : soit c'est très sophistiqué, soit les images des exemples sont très primitives (ou les deux !). Un grand merci à tous les auteurs, mais je vais mettre en ligne un autre tutoriel :)

Aujourd'hui, nous allons dessiner quelque chose comme ceci :



Un autre week-end est arrivé, je dois écrire quelques dizaines de lignes de code et faire un dessin, ou mieux encore, plusieurs. Donc le week-end dernier et le week-end précédent, j'ai montré comment faire du lancer de rayons et même faire exploser les choses. Cela en surprend plus d'un, mais l'infographie est très Chose simple, quelques centaines de lignes de C++ pur suffisent pour créer des images intéressantes.

Le sujet de la conversation d'aujourd'hui est Vision binoculaire, et aujourd’hui nous n’atteindrons même pas cent lignes de code. Sachant comment restituer des scènes tridimensionnelles, il serait insensé d'ignorer les stéréopares. Aujourd'hui, nous allons dessiner quelque chose comme ceci :



Introduction

Un des tâches les plus intéressantes résolu grâce à des graphiques en trois dimensions est la création de " grands mondes» - scènes étendues contenant grand nombre objets avec possibilité de mouvement illimité autour de la scène. La solution à ce problème repose sur les limitations compréhensibles inhérentes au matériel informatique.

Exemple typique : " Grand monde» lors de la visualisation chemin de fer sur le moteur OSG. Il ne manque plus que les Langolier qui dévorent le monde derrière le train...

À cet égard, il est nécessaire de gérer les ressources de l'application, ce qui se résume à une solution évidente : charger uniquement les ressources (modèles, textures, etc.) nécessaires à la formation de la scène à l'instant présent. situation actuelle observateur; réduire les niveaux de détail des objets distants ; décharger les objets qui ne sont plus nécessaires de la mémoire système. Pour la plupart, les moteurs graphiques et de jeux fournissent un ensemble d’outils permettant de résoudre de tels problèmes. Aujourd'hui, nous allons voir lesquels sont disponibles dans OpenSceneGraph.


Introduction

Parlant des techniques de programmation spécifiques à OSG, la dernière fois nous avons parlé du mécanisme de rappel et de son implémentation dans le moteur. Il est temps d'examiner les opportunités que nous offre l'utilisation de ce mécanisme pour gérer le contenu d'une scène 3D.

Si nous parlons d'animation d'objets, OSG propose au développeur deux options pour sa mise en œuvre :

  1. Animation procédurale mise en œuvre par programmation à travers la transformation des objets et de leurs attributs
  2. Exportez l'animation depuis un éditeur 3D et contrôlez-la depuis le code de l'application

Considérons d’abord la première possibilité, comme la plus évidente. Nous parlerons certainement du second un peu plus tard.

Salut tout le monde! Je m'appelle Grisha et je suis la fondatrice de CGDevs. Continuons à parler de mathématiques ou quelque chose du genre. La principale application des mathématiques dans le développement de jeux et dans l’infographie en général est peut-être les effets visuels. Parlons donc d'un de ces effets - la pluie, ou plutôt de sa partie principale, qui nécessite des mathématiques - les ondulations à la surface. Écrivons systématiquement un shader pour les ondulations de la surface et analysons ses mathématiques. Si vous êtes intéressé, bienvenue chez cat. Le projet Github est joint.



Bonne année à venir à tous ! Je m'appelle Grisha et je suis la fondatrice de CGDevs. Les vacances approchent à grands pas, quelqu'un a déjà décoré le sapin de Noël, mangé des mandarines et est pleinement chargé de l'ambiance du Nouvel An. Mais aujourd'hui, nous n'en parlerons pas. Aujourd'hui, nous allons parler d'un merveilleux format appelé LDraw et d'un plugin pour Unity, que j'ai implémenté et publié sur OpenSource. Un lien vers le projet et les sources de l'article, comme toujours, sont joints. Si vous aimez les Lego autant que moi, bienvenue chez le chat.

J'ai également créé une petite application Web où vous pouvez vous entraîner à créer des formules pour chiffres arbitraires et générez votre fichier Excel.

Attention : 19 photos et 3 animations sous la coupe.

Graphiques 3D

Graphiques 3D fonctionne avec des objets dans un espace tridimensionnel. Habituellement, les résultats sont une image plate, une projection.

L'infographie 3D est largement utilisée au cinéma, jeux d'ordinateur.

En infographie 3D, tous les objets sont généralement représentés comme un ensemble de surfaces ou de particules. La surface minimale s'appelle un polygone. Les triangles sont généralement choisis comme polygones.

Graphiques 3D

Toutes les transformations visuelles dans les graphiques 3D sont contrôlées par des matrices.

Il existe trois types de matrices utilisées en infographie :

matrice de rotation

matrice de décalage

matrice de mise à l'échelle

Graphiques 3D

Tout polygone peut être représenté comme un ensemble de coordonnées de ses sommets.

Le triangle aura 3 sommets. Les coordonnées de chaque sommet sont un vecteur (x, y, z).

En multipliant le vecteur par la matrice correspondante, on obtient un nouveau vecteur. Après avoir effectué une telle transformation avec tous les sommets du polygone, nous obtenons un nouveau polygone, et après avoir transformé tous les polygones, nous obtenons un nouvel objet, pivoté/décalé/mis à l'échelle par rapport à l'original.

CGI - graphiques

CGI (imagerie générée par ordinateur) , allumé. Les « images générées par ordinateur ») sont des effets spéciaux de cinéma, de télévision et de simulation créés à l’aide d’infographies tridimensionnelles.

Les jeux informatiques utilisent généralement des infographies en temps réel, mais des vidéos de jeu utilisant CGI sont parfois ajoutées.

CGI vous permet de créer des effets qui ne peuvent pas être obtenus avec le maquillage et les animatroniques traditionnels, et peut remplacer les décors et le travail des cascadeurs et des figurants.

CGI - graphiques

Pour la première fois dans long métrage des infographies ont été utilisées dans Westworld, sorti en 1973.

Dans la seconde moitié des années 1970, apparaissent des films utilisant des éléments d'infographie tridimensionnelle, notamment « Future World », « Guerres des étoiles" et "Alien".

CGI - graphiques

DANS Jurassic Park (1993) a été le premier à utiliser CGI pour remplacer le cascadeur ; le même film a été le premier à combiner de manière transparente CGI (la peau et les muscles des dinosaures ont été créés à l'aide d'infographie) avec le tournage traditionnel et l'animatronique.

DANS En 1995, le premier long métrage entièrement simulé sur ordinateur est sorti : Toy Story.

DANS le film "Final Fantasy: The Spirits Within Us" (2001) a présenté pour la première fois des scènes réalistes Images CGI de personnes.

CGI - graphiques. Création de personnage

http://city.zp.ua/viewvideo/R4woMpsHYSA.html

Infographie en effets spéciaux

Effet spécial, effet spécial (effet spécial anglais, abrégé SPFX ou SFX) est une technique technologique du cinéma, de la télévision, des émissions et des jeux informatiques, utilisée pour visualiser des scènes qui ne peuvent pas être filmées de la manière habituelle (par exemple, pour la visualisation de scènes de bataille vaisseaux spatiaux dans un futur lointain).

Les effets spéciaux sont également souvent utilisés lorsque le tournage d'une scène naturelle coûte trop cher par rapport à un effet spécial (par exemple, filmer une grande explosion).

images générées par ordinateur , allumé. Les « images générées par ordinateur ») sont des images fixes et animées générées et utilisées dans les arts visuels, l'imprimerie, les effets spéciaux cinématographiques, la télévision et la simulation. Les jeux informatiques utilisent généralement des infographies en temps réel, mais des vidéos de jeu basées sur CGI sont également parfois ajoutées.

La création d'images animées se fait par animation par ordinateur, qui est un domaine plus restreint des graphiques CGI, applicable, y compris au cinéma, où elle permet de créer des effets qui ne peuvent être obtenus avec le maquillage et l'animatronique traditionnels. L'animation par ordinateur peut remplacer le travail des cascadeurs et des figurants, ainsi que les décors.

Histoire

La première fois que l’infographie a été utilisée dans un long métrage, c’était dans Westworld, sorti en 1973. Dans la seconde moitié des années 1970, des films utilisant des éléments d'infographie tridimensionnelle sont apparus, notamment Tomorrow World, Star Wars et Alien. Dans les années 1980, avant la sortie du deuxième Terminator, Hollywood s'est désintéressé de effets informatiques, notamment en raison des recettes au box-office plus que modestes de Tron (1982), entièrement construit sur l'utilisation des dernières avancées en matière d'infographie.

Dans "Jurassic Park" (1993), pour la première fois, il était possible de remplacer le cascadeur à l'aide de CGI ; le même film a été le premier à combiner de manière transparente CGI (la peau et les muscles des dinosaures ont été créés à l'aide d'infographie) avec le tournage traditionnel et l'animatronique. En 1995, le premier long métrage de dessin animé entièrement simulé sur ordinateur est sorti : « Toy Story ». Le film "Final Fantasy: The Spirits Within Us" (2001) présentait pour la première fois des images CGI réalistes de personnes.