Pues la respuesta es, no muy bien, cuando se trata de juegos de principios de siglo (suena raro eso, pero ya los principios del siglo han quedado atrás), o finales de los 90. Sobre todo, estos últimos, que se lanzaron en una época donde 800x600 parecía ser el non plus ultra, la resolución tope, después de la cual no vendría más nada. Muchos juegos de esa época no podían pasar de ahí, porque seguramente sus creadores no concebían que veinte años después, los tres mosqueteros y D´Artagnan se reunirían otra vez para intentar jugarlos a 1080p. Que dicho sea de paso, en estos tiempos es una resolución a punto de jubilarse ya.
Y a veces costó trabajo que los desarrolladores aprendieran la lección. La mismísima Blizzard, a pesar del éxito duradero de sus títulos, no se preocupó por soportar altas resoluciones en Warcraft 3 hasta mucho después de su lanzamiento. Fallout 2 requiere de un parche extraoficial, igual que Arcanum (imperdonable, siendo mucho más reciente). Sin embargo, yo diría que los gráficos del Fallout 2 no han perdido su encanto a pesar de los años, y viene siendo algo así como una cuarentona de buen ver que va al gimnasio y se mantiene en forma.
Pero para ser justos, hay que considerar que en esa época las tarjetas de video y los monitores apenas evolucionaban. Las tarjetas aceleradoras eran para juegos muy específicos como Quake, todos FPS, y algunas de ellas como las de 3dfx fueron callejones sin salida. Además de su precio elevado, eran artefactos raros que se conectaban a la tarjeta principal y hacía su magia de alguna forma esotérica e incomprensible. Y aunque al final, la evolución se disparó, seguimos estando limitados por las resoluciones de los monitores durante largos años. Hasta que al fin, las resoluciones comenzaron a crecer, y las tarjetas, además de ofrecer mejores gráficos 3D, pudieron también producir imágenes más grandes.
Eso marcó, en cierta forma, el comienzo de la era actual. La resolución Full HD dio paso a 4K, y aunque esta aún no es de uso masivo, ya se está hablando de 8K. Los juegos actuales tienen que lidiar con diversas resoluciones en todo tipo de dispositivos, con la Realidad Virtual, y con la posibilidad de que durante su ciclo de vida, por corto que sea, aparezca una nueva resolución aún más alta. Por eso creo que los títulos recientes envejecen un poco mejor, a pesar de que es inevitable que los gráficos 3D queden desfasados en cuestión de 3-4 años.
También hemos alcanzado una tope, una especie de barrera, en cuanto al realismo de los gráficos 3D, que será muy difícil de superar a corto plazo. El raytracing, por el momento, solo se utiliza para mejorar la iluminación de la escena, mientras que para los modelos seguimos dependiendo del rasterizado de toda la vida, y de aumentar el número de polígonos a lo bestia si queremos modelos más realistas. No estamos haciendo cosas hoy que se vean mucho mejor que las de hace dos años (solo marginalmente mejor), porque la potencia bruta tiene un límite. Es por eso que todavía The Witcher 3 se ve muy bien, porque simplemente, no ha aparecido nada en el mercado que pueda hacerle sombra.
¿Cuándo será el próximo salto de calidad? Es muy difícil de predecir. Quizás ni siquiera sea una salto, sino una mejora gradual. Para empezar, creo que necesitaremos una mejora sustancial de la potencia de cómputo, que permita que el trazado de rayos sustituya por completo al rasterizado. Eso no será en dos días, ni dos años, pero sucederá, me atrevería a decir, a mediano plazo. Con raytracing total tendríamos gráficos 3D fotorrealistas en tiempo real.
Mientras eso llega, hay que seguir tirando con lo que tenemos. La próxima vez que quieras quejarte de la apariencia de un juego, recuerda que en mi época teníamos 4 colores y resoluciones equivalentes a la de tu primer teléfono. Y también tengan en cuenta que no solo de gráficos vive el jugador.
Comentarios
Publicar un comentario