Ir al contenido principal

Entradas

Mostrando entradas de agosto, 2009

Windows, muy débil

Llevo un par de añitos o más usando XP en casa como alternativa necesaria y 2000 en la red de la oficina, y he llegado a considerarlos sistemas bastante estables, si sabes cuidarlos. De hecho, he logrado colgar más a Linux que a XP, porque obviamente las cosas que hago con Linux no podría hacerlas con XP.
Sin embargo en las últimas dos semanas, coincidiendo con el regreso de la mayoría del personal, he tenido que reinstalar 2 Win2k y un XP, uno dañado sin causa definida, el segundo perdió el arranque cuando el usuario lo reseteó y el XP dañado igualmente sin causas aparentes. Curioso.

Venezuela se suma

Otro más en la lista de los que intentan culpar a los videojuegos de la violencia social. No vale la pena comentar mucho al respecto, creo que ya se imaginan la opinión que tengo acerca de tales leyes y de los obtusos que las promueven. Lo curioso es que aquí la ley también se extiende a "juguetes bélicos". Al parecer las pistolitas de plástico de toda la vida también son dañinas.

+4gb de memoria, cuestión de licencia

Haciendo mi revisión diaria de slashdot me encuentro este curioso artículo, que no he tenido tiempo ni interés de leer a fondo (no uso Vista).
En los últimos tiempos hemos estado viendo un incremento de la memoria habitual en los sistemas, por supuesto, provocado por el incremento de los requerimientos (cualquier juego medianamente decente pide un mínimo de 1Gb), la disponibilidad de DIMMs de más capacidad y el descenso de los precios. justo ahora tengo un amigo con 6Gb de memoria DDR3, sólo para completar el triple channel. Dado que usa XP, tiene casi 3Gb que no le sirven de nada. En cambio a mí sí me servirían en mi Gentoo de 64 bits. Y aquí viene el punto, muy bien explicado en el artículo: desde que empezó a ser factible tener 4Gb, se nos viene diciendo por parte de Microsoft que necesitamos un sistema de 64 bits para usarlos. Lo doloroso del caso es que la tecnología para utilizar hasta 64Gb de memoria en un procesador de solo 32 bits ha estado disponible desde el 1995. Lo que sí…

Sin embargo se mueve

Y muy bien. El nuevo escenario se mueve perfectamente, con el curioso detalle de que el backend OpenGL da mejores resultados (picos de 1000 cuadros por segundo) que el de Direct3D 9.
Como pueden ver hay un problemita, los árboles están hechos con curvas y al parecer el exporter de Ogre no las maneja bien.
Las pruebas de ayer me hicieron pensar acerca de algo. El proceso de exportar, en específico los árboles, toma un buen tiempo. El uso del CPU se mantenía al 50%, o sea, uno de los núcleos trabajaba al máximo mientras el otro casi no hacía nada. Algo muy natural, porque el proceso de exportación usa un solo hilo. Lo cual me lleva a la pregunta del millón: ¿cuántos núcleos necesito?
Evidentemente no más de 2 o 4, en mi caso particular. Lo que sí necesito es núcleos más potentes. No me cabe la menor duda de que mallas más complejas simplemente serán demasiado esfuerzo para un núcleo de Core 2. Decepcionante. Justo acabo de echarle garra a uno y acabo de descubrir que necesito un i7. O en …

Nuevo escenario

Ernesto me ha traído hoy un nuevo escenario para pruebas. Aunque olvidó las texturas, se ha currado un terreno muy bueno ¡e incluso le puso algunos arbolillos! No he podido revisarlo a gusto porque tiene unos 52MB, ni siquiera sé si mi PC en casa podrá moverlo bien. En fin, he estado perdiendo el tiempo en los últimos días con Reaper (se las recomiendo para reírse un poco) y había dejado de lado las pruebas con dotScene. Sobre todo porque no logro resolver el problema delas texturas y la únic apista que tengo es que podría necesitar establecer las coordenadas UV correctamente. Muy jodido que estoy en ese caso. Pero hoy veré si Ogre puede con este escenario, o mejor dicho, cómo lo mueve, porque no creo que sea tan complejo como para no moverlo.

Mplayer vs los demás

Hace unos días instalé Blender, desgraciadamente tuve la mala idea de usar una dependencia de mplayer también (creo que es una biblioteca del codec x264). El caso es que ahora mplayer no me funciona y el portage no me permite actualizarlo por algún problema con Qt4. Así que me he quedado sin la única herramienta decente que hay para ver videos.
He intentado con VLC y Xine. VLC no lee los subtítulos, o mejor dicho, no lo muestra. Será que me falta algo. Y Xine ni siquiera muestra los videos. Quedaría Totem, pero para instalarlo hay que descargar 68 megas de depndencias de Gnome.
Todo parece indicar que tendré que esperar o preguntar en los foros.

Los juegos que espero para este año

Pensé que después de Fallout 3 ya no me quedaría nada má por ver y sin embargo no es así. Mass Effect me sorprendió y por suerte tendremos más. Y aunque los RPG parecen ser la minoría de los títulos hay algunos por ahí que supongo valga la pena esperar.
Así que para lo que queda de año ya sé cuáles son los juegos que quiero probar. El primero es Alpha Protocol, un RPG de espionaje moderno. Es de Obsidian y eso dice mucho (aunque Neverwinter Nights 2 no me entusiasmó). El segundo es Borderlands, que se define como un FPS RPG, o sea, un RPG en primera persona. No sé por qué, pero tengo la impresión que es la forma de decir que será como el Diablo: mucha acción y click y poco diálogo, pero esta vez en primera persona. Tiene unos gráficos cell-shaded que se ven bastante bien.
De momento esos son mis planes. Me gustaría saber qué otros RPG habrá para el otoño/invierno de este año a ver si se me escapa algo.

Terrenos en Blender

Un colega aquí me ha apuntado en la dirección correcta: sí se pueden hacer terrenos de forma sencilla en Blender. Ahora estamos buscando la forma de texturizarlos.
Y ya empiezo a recoger los frutos de enseñar a los demás, pues le colega en cuestión vino aquí sin saber de Blender y preguntando por 3d Max. Le sugerí que probase algo más ligero y gratis y además le di un libro (gratis también). Luego de varios meses el chico va muy bien y no quiere saber de 3d Max ni nada que se le parezca. Ahora quiero que dedique algo de tiempo al trabajo con texturas usando Gimp, a ver si completa el set de habilidades, todo con software libre.

Babeando...

Sigo asombrado con el nuevo micro. Esta vez me dejó completamente botado recompilando xorg-server 1.6.3 y sus dependencias. De las cuales solo xorg-server y Mesa tomaron mas de dos minutos. Ya sea en Windows o Linux el proceso de compilar usualmente lleva el micro al 50%, antes alcanzaba el 100% y por supuesto, era la muerte en bicicleta. Me pregunto cómo sería con cuatro núcleos.
Ayer comencé la implementación de físicas en el pequeño demo que estoy haciendo, pero algo no va bien. Parece que puse la integración de la entidad al mundo físico en el lugar incorrecto. Habrá que preguntar o escribir mi propio cargador de dotScene.

Clases vs sin clases

Sería posible tener un diseño de RPG donde tener una clase o profesión sea opcional? No lo he visto, pero supongo que sí. Tenemos juegos multiclases como los clásicos D&D, con clases estrictas o abiertos. Lo complicado aquí sería lograr balancear el diseño de forma que un jugador sin clase o profesión pueda adquirir un conjunto de habilidades que le permitan terminar el juego sin excesivo esfuerzo (comparado con un personaje con clase).
Al menos a mí me suena interesante la idea.

Tiempo libre de oficina=tiempo sin aprovechar

Ayer intenté preparar un entorno de trabajo en una PC que tengo por acá desde hace un tiempo. Lo usual, Ogre, Code::Blocks... El caso es que el demo que hice de dotScene no va, ni con OpenGL ni con Direct3D. Me da que el GMA 3100 integrado es una chapuza, incluyendo el driver, una pena, peorque esperaba un poco más de él.
Teniendo en cuenta que el escaso tiempo libre de la oficina podría aprovecharse para algo útil, creo que tendré que cobrar unos favores pendientes y hacerme con una segunda tarjeta de video, de preferencia una Geforce de bajo costo, para poder probar en hardware distinto. Tal vez hasta me replantee cambiar de distro, para lograr variedad de entornos. Sé que es esencial, pero me pesa dejar Gentoo.

El futuro ya viene

Es inevitable pensar cuál será el próximo paso en la evolución de los gráficos por computadora, específicamente de los que importan de verdad, o sea, los juegos. Al parecer estamos alcanzando el límite, aparte de más potencia de cálculo las tarjetas actuales están haciendo muy poco por acercarnos al fotorealismo. Se ha apuntalado la experiencia de juego con físicas más realistas, que por desgracia muchas veces pasan desapercibidas, y otras cosillas llamativas para encandilar al jugador con un mundo que asemeja más al real.
Esta entrevista a John Carmack me da la idea de lo que nos depara el futuro, el próximo paso que estaba esperando. Todo parece indicar que habrá que volcarse a lograr el raytracing en tiempo real para lograr el fotorealismo que estamos buscando. Y de hecho, ya hay propuestas concretas como Caustic Graphics, Nvidia también está metida en el ajo, Intel está tratando de arañar lo suyo con Larrabee, DirectX 11 debe incorporar raytracing y hay quien afirma que se puede l…

La diferencia que hace la diferencia

Me han prestado temporalmente (pues eso tienen los préstamos, que si no, serían regalos) un Core 2 Duo. No es el que me tiene obsesionado, que es el de FSB a 1066, pero es algo. Y vaya que sí es algo.
No me alcanzó el tiempo para probarlo a fondo, pero tengo que decir que cumple mis expectativas. Para empezar no se calienta como esperaba, aunque le apliqué pasta térmica en toda la superficie de contacto como precaución. Unos minutos en Fallout 3 me mostraron que se alcanza más del doble en cuadros por segundo. De menos de 30 he pasado a 64 sostenido, incluso 80 en interiores. Hoy veré como se desempeñan Mass Effect y The Witcher, además de probar algunas cosas más serias, como velocidad de compilación del proyecto, exportación de modelos complejos en Blender, etc.

Kakashi gaiden, al fin

Al fin ha llegado el relleno que los fans tanto habían esperado (que no deberíamos llamar relleno, pues es parte de la historia oficial).
Durante la Tercera Guerra Ninja, el equipo lidereado por el juunin Namikaze Minato y compuesto por el genio Hatake Kakashi (también con rango juunin a pesar de su corta edad), Rin y Uchiha Obito, recibe la crucial misión de destruir un puente. En este especial que se hace corto (pero se agradece que lo hayan dejado así) veremos muy brevemente en acción al futuro cuarto hokage, el terror de los enemigos de Konoha. También veremos, al fin en anime, cómo Kakashi obtuvo su sharingan, el complemento ideal para el chidori.
Un capítulo que deja muy por el suelo todos los anteriores, rellenos y oficiales.

En lo mismo

Pues estoy reuniendo motivación para meterle el hombro a fondo a la parte de colisiones con dotScene. Básicamente he holgazaneado todo el fin de semana retocando el escenario en Blender (aún así no deja de ser una chapuza) y tratando de lograr que los materiales funcionen como debe ser. Por alguna razón no se están mostrando las texturas, aunque están declaradas correctamente en el material.
Por otro lado, también logré descargar el SVN completo de Rastullahs Lockenpratch. Resultó ser 1Gb! Cientos de megabytes de media y el código repetido en tres ramas creo. Estudiar el código es otra tarea que requiere un estado de concentración mental alto para obtener algún beneficio. En especial, ando en busca de ideas para mejorar mi sistema de estados de juegos y los diálogos.

Samba tiene blog

El equiop de Samba estrena un nuevo blog. Llegan un poco tarde a la moda, pero no está de más para lso qeu gustan de las interioridades y mantenerse actualizados más allá de los anuncios básicos que caen de cuando en cuando en los sitios oficiales.

Enfría tu CPU con polvo de diamantes

Haciendo mi revisión diaria de Slashdot me encontré esto (enlace original), que en esencia va de un tío que se hizo su propia pasta térmica utilizando polvo de diamante. Aunque no lo parezca, el costo de materiales es bastante bajo, solo 33 dólares, una fortuna para mí, pero supongo que no sea tanto en Europa o USA.
La pasta térmica es un componente clave, pero muy olvidado en la cadena de enfriamiento del CPU/GPU. Permite lograr una mejor transferencia del circuito al disipador y si cometes el error de quitarla (conozco a uno que lo hizo) ya te puedes ir despidiendo de varios grados menos de temperatura. Es esencial en equipos de jugadores, recuerden que un juego estresa al máximo la tarjeta de video y el CPU.
Me tomó mucho menos tiempo del esperado lograr un prototipo muy sencillo usando el formato DotScene. Alguien con cierta habilidad usando superficies tal vez podría lograr un terreno mejor, este tiene unos miserables centenares de polígonos e incluso no se exportaron las texturas, creo saber ya por qué. El siguiente paso es probar algo sencillo con físicas.


Un vistazo rápido a dotScene

Ayer decidí mirar más seriamente el formato DotScene de Ogre. Los scenes son simples archivos xml, que puedes obtener exportando desde Blender y no sé si alguna otra herramienta de modelado. El exporter de Blender se limita a producir un archivo que describe los objetos: su ubicación espacial, nombre de la malla y nombre de la entidad. Luego se exportan manualmente las mallas. Hay varios cargadores para archivos .scene, pero es relativamente sencillo hacer uno. De hecho, pienso modificar el que tengo para implementar la integración de los objetos en el mundo físico.
Mi interés se debe a que usando Blender como editor se pueden logar escenarios de gran complejidad. Mi primera prueba consistió en crear un terreno, pero esto no resultó pues el asistente incluido en Blender crea terrenos con algunos miles de polígonos (casi nada, no creen?), algo imposible de procesar con mi CPU. Pero con máquinas más decentes y artistas se pueden conseguir efectos notables, estoy seguro de eso.
Quedaría u…

OpenGL 3.2

El Khronos Group, encargado del diseño del estándar OpenGL, acaba de anunciar la versión 3.2. Con ella llega también la versión 1.5 de GLSL. Esta es la tercera actualización en un año de esta API, así que parece que los de Khronos están tratando de recuperar el tiempo perdido en el diseño de la versión 3 (recuerden que se esperaba para septiembre del 2007 y llegó a mediados del 2008). Nvidia ya da soporte inicial para la 3.2 en su driver beta de la 190.x. En ATI tendremos que esperar aún.