Dans ce blog, nous embarquons pour un voyage dans le temps, explorant l'évolution fascinante de la technologie CGI dans les films.
Les racines du CGI remontent aux années 1960, lorsque des pionniers de l'infographie comme Ivan Sutherland et son élève Edwin Catmull ont jeté les bases de ce qui allait devenir le CGI.
Le concept de rendu d'un environnement 3D était révolutionnaire et ce n'est qu'à la fin des années 1970 que les progrès du matériel et des algorithmes ont commencé à accélérer l'évolution du CGI.
Ce n’est qu’à la fin des années 1970 que CGI a fait sa première apparition dans les films. Des films comme « Star Wars » et « Westworld » utilisaient des effets générés par ordinateur.
Les années 1980 ont vu des progrès décisifs dans la technologie CGI. Des films comme "Tron" (1982) ont démontré le potentiel de création de mondes numériques entiers, ouvrant la voie à des projets plus ambitieux.
Industrial Light & Magic (ILM) de George Lucas a joué un rôle crucial en repoussant les limites du CGI.
Le film « The Last Starfighter » de 1984 a introduit les vaisseaux spatiaux numériques, ouvrant la voie au travail révolutionnaire d'ILM sur des films comme « The Abyss » et « Terminator 2 : Judgment Day ».
"Terminator 2" (1991) de James Cameron présentait les effets de métal liquide du T-1000 Terminator, une réalisation révolutionnaire qui a valu au film un Oscar pour les effets visuels.
Les années 2000 ont vu la poursuite du photoréalisme en CGI. La trilogie "Le Seigneur des anneaux" (2001-2003) a présenté des batailles épiques et des paysages détaillés, tandis que "Spider-Man" (2002) est passé à l'action avec ses visuels de super-héros.