Archivo de la categoría: Un poco de historia

Historia de consolas y/o sistemas

Los años dorados de DIV Games Studio

Probablemente muchos no tengan demasiada idea de lo que aquí pienso contarles, pero en 1998 una empresa española llamada Hammer Technologies de la mano de Daniel Navarro Medrano diseñó un lenguaje de programación y entorno de desarrollo orientado explícitamente para la creación de videojuegos que funcionaba bajo MS-DOS, sí, mucho antes de Unity y todos esos entornos que ahora son tan populares. Recuerdo que lo descubrí gracias a un colega que me prestó un libro llamado Programación avanzada en DIV (perteneciente a la serie Gran Biblioteca Técnica del Videojuego de la editorial Prensa Técnica) escrito por Antonio Marchal, Raúl Magdaleno y Jose Sevillano que contenía un CD-ROM con una versión shareware del susodicho entorno.

Hammer Technologies

Hammer Technologies

Aquello fue puro vicio sumado a mi enorme entusiasmo con el tema “crear mi propio videojuego”, y tanto fue el interés que tuve que comprar mi propia copia del libro y aun lo conservo con mucho cariño (al igual que el CD-ROM). DIV Games Studio en si era un lenguaje que derivaba conceptos de Pascal, BASIC y C, además que simplificaba muchas cosas como el manejo de sprites, manejo de fondos con scrolls, reproducción de sonidos, rutinas de enemigos y aunque no fue demasiado popular en América sí que lo fue en España entre 1998 y 2000, además que al ser un producto español existía una excelente documentación en nuestro idioma lo que facilitaba un montón aprender sobre él.

El entorno permitía manejar todos los elementos básicos de un videojuego

El entorno permitía manejar todos los elementos básicos de un videojuego

DIV generó tanto interés en la comunidad de programadores que hasta hubo revistas dedicadas donde podíamos aprender un poco más de lo que podíamos conseguir en Internet o en la documentación oficial, también podíamos ver algunos proyectos hechos por grupos independientes; el problema de DIV es que aunque el entorno cubría casi todos los aspectos para la creación de videojuegos, evidentemente estaba orientado “a todo el mundo” sin un perfil “profesional” para que, por ejemplo, un estudio AAA pudiera crear un videojuego.

Diseño de mapas tipo Doom para DIV 2

Diseño de mapas tipo Doom para DIV 2

Esto último no quiere decir que no existían juegos muy bien realizados, de hecho, las demos incluídas en el CD-ROM del libro que menciono al comienzo del post traían juegos muy cuidados como The Castle of Dr. Malvado y la aventura gráfica Dráscula que aprovechaban casi al 100% DIV. Pero es que incluso con un entorno que facilitaba las cosas como DIV, hacer un videojuego, por muy sencillo que sea, lleva trabajo y muchas personas se desanimaron viendo que no es un oficio para todo el mundo, y que de verdad hay que echarle ganas.

A pesar de estar hecho sobre MS-DOS el entorno era sumamente cómodo e intuitivo

A pesar de estar hecho sobre MS-DOS el entorno era sumamente cómodo e intuitivo

Al poco tiempo y viendo el éxito de DIV, Hammer Technologies actualiza el entorno con una segunda versión que trae consigo un montón de mejoras e incluye rutinas para realizar juegos en tres dimensiones y la inclusión del llamado Modo 8 que permitía hacer juegos como Doom o Wolfenstein 3D, todo un avance. Creo que tiene mucho mérito el arriesgarse con un producto como éste en un mercado tan competitivo, encima ¿Para qué mentirles? era tremendamente divertido crear cualquier cosa en DIV, y la sensación de gloria que daba ver “tu nave” moverse por la pantalla y hacerla disparar no tenía precio.

Juego realizado con DIV Games Studio

Sector Gamma, juego realizado con DIV Games Studio

Hammer Technologies cerró sus puertas en el año 2000 y no sólo se dedicó de lleno a este producto, también comercializaron algunos juegos como Tie Break Tennis, Winter Sports, Ancient Evil, Mad Trax y World Wide Rally entre otros, bajo mi óptica hay que tener bastante entusiasmo para llevar este tipo de empresas con la competencia que se tiene incluso en aquellos años, pero pasa lo que siempre pasa: competir contra peces medianos y gordos no es tarea fácil.

Div F-Zero, otro tanto realizado con DIV

Div F-Zero, otro tanto realizado con DIV

El legado de DIV fue lo suficientemente grande como para que surgieron muchos proyectos basados en él como el ya inactivo Fenix que era una implementación del lenguaje DIV pero de código abierto que recuerdo llegué a utilizar en Linux y funcionaba de maravilla, actualmente existe una pequeña comunidad que sigue en pie, como los creadores de DIV DX que ofrecen un entorno basado igualmente en DIV.

DIV no sólo tuvo que lidiar con el hecho de ser un producto demasiado especializado incluso para “no programadores entusiastas de la creación de videojuegos” sino que tuvo que competir contra entornos que ofrecían incluso más facilidad de uso como DarkBASIC, Game Maker, RPG Maker y cosas que siempre me parecieron raras como MUGEN. Recientemente se liberó el código fuente de DIV y DIV 2 y puedes conseguirlo aquí.

Anuncios

Cuando portar juegos a Linux era una gran novedad: La historia de Loki Software

El tema del gaming en Linux es una historia corta pero aleccionadora, y aunque todo comience a finales de los años noventa es bien sabido que aquello de los videojuegos en el sistema operativo del pingüino es bastante anécdotico, en realidad son poquísimas las empresas que deciden apostar por Linux a la hora de ampliar las plataformas de sus creaciones por razones obvias: no existe un estándar entre distribuciones y la cuota de mercado es ínfima, pero eso es harina de otro costal donde han corrido cascadas de gigabytes en flamewars en cualquier foro linuxero en la red. Buscando información sobre la posible versión de Civilization 6 para Linux recordé aquella empresa que a finales de los noventa y a comienzoas de la década pasada apostó por Linux como plataforma, estoy hablando de Loki Software.

Ahora la cosa es muy distinta, Arma 3 para Linux

Ahora la cosa es distinta gracias a los esfuerzos de varias empresas, Arma 3 para Linux, gracias a Steam.

Ahora, en pleno 2017 la cosa no pinta para nada mal, existen empresas como Aspyr Media que se encargan de llevarnos algunos juegazos, existe la plataforma Steam que ha sido responsable de la “apertura” real del gaming en Linux y encima Vulkan promete ser la API que unifique versiones de videojuegos para Windows, Mac, Consolas y Linux; de nuevo, el medio de distribución, Internet, ha simplificado enormemente el modelo de negocios que no pudo ser con Loki Software en aquellos locos años noventa.

Gabe Newell trajo Steam a Linux para hacer contrapeso a la tienda de aplicaciones de Windows, algo que benefició a todos los usuarios del pinguino

Gabe Newell (CEO de Valve Software) trajo Steam a Linux para hacer contrapeso a la tienda de aplicaciones de Windows, algo que benefició a todos los usuarios del pingüino

Loki Entertainment Software Inc, nació el 9 de Noviembre de 1998 en Tustin, California; todo después que Scott Draeker se introdujo en los sistemas Linux por el tema de su licencia de uso. Draeker era un ex abogado que vio una gran ausencia en el sistema operativo del pingüino: los videojuegos. Por entonces lo más avanzado que podías ver eran juegos libres donde el protagonista siempre era un pingüino, juegos hechos por voluntarios y que por ende no tenían calidad comercial pareciendo versiones alfa de juegos de SEGA Genesis / Mega Drive, salvo algunos como Battle for Wesnoth, Warsow u Open Arena que persisten hoy día.

Asi se miraba Linux por entonces, muchos aún siguen con la misma visión.

Asi se miraba Linux por entonces, muchos aún siguen con la misma visión. Esta imagen fue famosa porque pertenece a una campaña publicitaria de Microsoft cuando no “amaba” Linux como ahora.

La intención de Loki Software era hacer ports exactos de los títulos de Windows a Linux, lo que aumentaría el interés de uso por este último como sistema operativo principal, lograron portar auténticas joyas como Quake III Arena, Sim City 3000, Alpha Centauri, Heroes of Might and Magic III, Rune: Halls of Valhalla,  Deus Ex, Unreal Tournament y Railroad Tycoon II. En pocas palabras, cuando Linux seguía siendo un sistema operativo usado por cuatro frikis (incluyéndome), con una cuota de mercado por debajo del 1% y que apenas estaba empezando a considerarse entre grandes empresas como IBM, llega una empresa y decide traernos lo mejor de lo mejor, parecía un sueño hecho realidad.

Podemos acceder a la información de cualquier edificio en cualquier momento, el nivel de detalle es impresionante

SimCity 3000 uno de mis favoritos fue realidad en Linux gracias a Loki

Asi pues Loki compraba licencias para la explotación de videojuegos y se encargaba de reprogramarlos utilizando librerías como SDL, OpenAL y OpenGL para que funcionaran en Linux; entre sus filas estaba el creador de las librerías SDL, Sam Latinga, un conocido en el mundillo. Todo esto era un trabajo titánico que costaba lo suyo, el problema era que quizá no era el momento: estabamos a finales de los años noventa y comienzos de la década pasada, es decir, el software se distribuía físicamente y la empresa californiana no sólo se encargaba de portar, grabar y empaquetar el juego, sino de pagarle a las distribuidoras y a los dueños de las respectivas licencias su tajo de la ganancia obtenida, el margen de ganancia era realmente estrecho si vendian sus juegos a poco menos de diez dólares.

Heroes 3, un juego súper aclamado en su día

Heroes of Might and Magic III, un juego súper aclamado en su día

La empresa tuvo casi cinco años de actividad y en 2002 anunció su cierre, fue un fracaso en toda regla gracias a que con esa forma de hacer dinero era muy poco lo que obtenia como beneficio, más aún si estamos ante un sistema operativo que, en pleno 2017 sigue siendo bastante minoritario, imaginate en 2002. Loki fue un duro revés para los seguidores de Linux, pero nos dijo algo sobre el modelo de negocios del Software Libre, donde todo parece maravilloso mientras lees La Catedral y el Bazar de Eric Raymond pero a la hora de ganar dinero hay que pensárselo muy bien, el mismo Draeker dijo “Si tuviera que hacerlo de nuevo, crearía juegos nativos para Linux en lugar de hacer ports…“.

Vulkan promete ser la API que unifique videojuegos, se supone que es la evolución natural de OpenGL

Vulkan promete ser la API que unifique videojuegos, se supone que es la evolución natural de OpenGL

Quizá la complejidad del desarrollo en entornos libres lo explicó muy bien Enrique Bravo en su artículo llamado “Principales problemas de Linux en el escritorio” en su blog La Sombra del Helicóptero (blog que recomiendo si te interesan estos temas): ” [… ] los desarrolladores de software libre comenzarían a alejarse de esta plataforma debido a que ya no es un juego de niños, como antes, ya requiere cuantiosos esfuerzos y mucho tiempo. Digamos que la diversión se acabó, y los desarrolladores necesitan dinero real para que se pueda terminar el trabajo duro […]“, el artículo en realidad es una interpretación de un brutal escrito de Artem S. Tashkinov llamado “Major Linux Problems on the Desktop” recomendado también si dominas el inglés.

Loki terminó sus operaciones con un “Loki is closed. Thanks for your patronage.” en su web que aún permanece como un recuerdo de lo que fue, casi como un monumento, como aquel que rememora el gran incendio de Londres de 1666. Gracias Loki, gran intento.

Aspyr, recuerda Civilization 6 para Linux por favor.

ACTUALIZACIÓN 09/01/2017: Aspyr Media ha informado que en efecto, habrá Civilization 6 para Linux, ¡Whoo!
 

Dreamcast y Windows CE

De nuevo nos toca viajar en el tiempo y regresar a esos increíbles años noventa, en concreto a 1998. SEGA estaba por estrenar su flamante consola llamada Dreamcast, con aquellos gráficos brutales a 60Hz (lo que provocó que muchos la señalaran como la real culpable del declive de los salones recreativos). El hecho es que Microsoft, siempre Microsoft, intentaba ya por entonces entrar en el mundo de los videojuegos por la puerta grande.

Muchos imaginaron ver esto al encender sus Dreamcasts

Muchos imaginaron ver esto al encender sus consolas

Imagino que ya te has fijado, pero igual lo dire: si miras en la parte frontal de la consola, veras el logotipo de Windows CE con un “Designed for“, muchas personas pensaban que el sistema operativo de la consola era Windows, otros en cambio decían que era puro mercadeo y que sólo era un logotipo con fines promocionales (me incluyo), nada más lejos de la realidad; para hablar bien sobre esto debemos saber qué es Windows CE y cómo “fue utilzado” en nuestra amada consola blanca.

Muchos pensaron que la máquina venía con Windows. Con semejante poder en aquel tiempo ciertamente la veiamos como una máquina "mística y poderosa"

Con semejante poder en aquel tiempo ciertamente la veiamos como una máquina “mística y poderosa”

Windows CE (conocido actualmente como Windows Embedded Compact) es una versión del ya conocido sistema operativo que funciona en plataformas “no convencionales” que por lo general son portables y llevan microprocesadores ARM, MIPS y SuperH. Windows CE ha venido evolucionando desde su primera version aparecida en Agosto de 1996 y desde entonces ha llovido mucho.

Para que te hagas una idea, muchos PDAs de comienzos de la década de 2000 llevaban este sistema operativo (llegué a probar algunos marca HP y de verdad eran geniales, sobre todo si tenían conectividad Wifi) e incluso ahora hay ciertos sistemas que lo usa; la gran diferencia entre este y “El Windows de toda la vida” es que este en efecto, puede funcionar con muy poca memoria RAM, muy poco espacio de almacenamiento, pantallas muy pequeñas y suprime un montón de funciones que el Windows “normal” tiene.

Windows CE funcionaba en múltiples plataformas. Estas PDA eran la merma a comienzo de la década de 2000, antes de la llegada de los teléfonos inteligentes

Windows CE funciona en múltiples plataformas “no convencionales”. Estas PDAs de HP por ejemplo, eran la merma a comienzos de la década de 2000, antes de la llegada de los teléfonos inteligentes

Pensándolo bien, estamos ante un sistema operativo móvil que ya se gestaba en los noventa; y como sabemos, Microsoft siempre tuvo la idea de fusionar los juegos en consolas con PC (comenzando porque ellos tenian el mercado de juegos de PC, sin más) para tener su trozo del pastel, así que junto con SEGA y tras dos años de desarrollo crearon un kit de desarrollo y un entorno de ejecución para que funcionaran aplicaciones de Windows CE y su API DirectX en la arquitectura de su proyecto que fue finalmente Dreamcast, y así fue.

Esto se suponía que solventaría el problema de portar juegos de Dreamcast a Windows y vice versa debido a la facilidad de traducir el código utilizando el kit de desarrollo; esto también significaría una enorme ventaja debido a que todas las herramientas de programación de Windows funcionarian sin problemas, estoy hablando de programas como Visual Studio, CodeGear, Embedded Visual C++, Free Pascal y otras tantas. Era “el paraíso de los programadores” sin duda.

Windows CE evolucionó a Windows Embedded, más moderno y funciona en multitud de arquitecturas portables

Windows Embedded el heredero del nuestro protagonista, más moderno y funciona en multitud de arquitecturas portables

SEGA, a pesar del acuerdo, también había construido su propio kit de desarrollo y su propio entorno de ejecución que la gran mayoría de las Third Parties preferían porque solía aprovechar mucho mejor las capacidades de la consola; de hecho, el principal problema de Windows CE en Dreamcast fue el consumo de memoria, que aunque era una versión muy reducida de Windows CE no se comparaba con el sistema desarrollado por SEGA que resultaba más rápido y eficiente en todo sentido.

Básicamente el Windows CE  debía cargarse desde el GD-ROM y después se encargaría de ejecutar el programa (como una distribución Linux “live“), esto sucedía aunque no lo vieras, es decir, no ibas a ver la barra de inicio y los íconos como haces en tu PC, se trataba de una versión muy específica de Windows CE con sus bibliotecas precargadas que se dedicaba a ejecutar el juego en cuestión.

SEGA Rally 2 para Dreamcast fue desarrollado para ejecutarse en Windows CE

SEGA Rally 2 para Dreamcast fue desarrollado para ejecutarse en Windows CE ¡nada mal!

De todas formas y a pesar de todo no fueron pocos los títulos que se programaron utilizando Windows CE, entre los más destacables estan: SEGA Rally 2, Densha de Go! 2 (un simulador de trenes, género popular en Japón), Bust-A-Move 4, NFL Quarterback Club 2000, NFL Quarterback Club 2001, Resident Evil 2, Spirits of Speed 1937, Urban Chaos, Virtua Cop 2, Wild Metal, Worms Armageddon, Tomb Raider: Chronicles, Tomb Raider: The Last Revelation y algunos otros.

La idea no era mala, aún así Microsoft siguió sus andadas con Xbox utilizando arquitectura PC para facilitar aun más las cosas y cada quien agarro su camino (en el caso de SEGA, “su barranco”). Así pues queda resuelta esta duda; que muchos pensaban aquello de que “Dreamcast traía Windows” y esto no es una verdad absoluta: lo llevaba sí, pero en modo live y sólo en algunos casos.

3dfx, ascenso y caída de un gigante (2 de 2)

Y llegamos a la segunda y última parte de esta serie dedicada a 3dfx Interactive; en la entrada anterior hablé de la fundación y los primeros años de la empresa californiana haciendo énfasis al impase que tuvieron con SEGA. Pero la vida sigue, al igual que SEGA, en fin… Continuamos.

1998 fue el año en que 3dfx saca adelante el proyecto Voodoo 2 que estaba dispuesto a dejar a todos boquiabiertos (y era una forma de decirle a SEGA “¡mirá lo que te perdiste!, ¡mirá!“) y seguir la línea de “hardware para gente con mucho dinero” que dejó Voodoo 1. Es a partir de aqui cuando se empezó a gestar una auténtica batalla contra otras empresas como ATI, NVIDIA, Matrox y Rendition, pero sobre todo con NVIDIA que se convirtió en su antagonista y hasta la villana de la historia si se le ve de cierto modo.

Dos Voodoo 2 en paralelo gracias a la tecnología SLI

Dos Voodoo 2 en paralelo gracias a la tecnología SLI

Voodoo 2 en realidad era el hardware gráfico más bestia en aquellos días y recuerdo bien que si tenías un PC querías una Voodoo 2, así pues, sin medias tintas. La bestia de 3dfx tenia una velocidad de 90 Mhz (casi un 50% más que Voodoo 1), 12 megabytes de VRAM EDO RAM (tres veces más que Voodoo 1) y tenía características como la capacidad de mostrar multitexturas gracias a un chip dedicado que lo hacía hasta cuatro veces superior a sus competidores (principalmente NVIDIA Riva 128, Rendition Verite 2200 y ATI Rage Pro).

Las revistas americanas estaban atestadas de publicidad de 3dfx, era difícil no caer en la tentación

Las revistas americanas estaban atestadas de publicidad de 3dfx, era difícil no caer en la tentación

La bestia de 3dfx tenía tres chips dedicados, casi nada. Por cierto, fue Voodoo 2 la que introdujo el concepto de tarjetas gráficas en paralelo con la tecnología SLI (que son las siglas de Scan-Line Interleave) que actualmente pertenece a NVIDIA, SLI permitía que cada tarjeta se ocupara de una mitad de la pantalla lo que subía el rendimiento y la resolución, dos Voodoo 2 podían ofrecer una imagen de hasta 1024×768 pixeles, eso era realmente bárbaro en 1998.

¿Difícil de imaginar? sin duda, pero así funcionaban las primeras aceleradoras gráficas, necesitaban de otra tarjeta de video para funcionar.

¿Difícil de imaginar? sin duda, pero así funcionaban las primeras aceleradoras gráficas, necesitaban de otra tarjeta de video para disfurtarlas.

Aunque parezca muy difícil de imaginar, Voodoo 2 adolecía del mismo “problema” de su hermana mayor: necesitaba una tarjeta de video “normalita” para poder funcionar y es que en esos días la integración de una GPU 3D y una 2D era una especie de mito, por un lado encarecía el producto y por otro lo complicaba a nivel de diseño. Pero era un tema “normal” cosiderando el poder de proceso de los productos de 3dfx, y como el mercado era realativamente nuevo no había demasiado problema en asimilarlo de esta forma.

Hasta que en ese mismo año la gente de NVIDIA lanza al mercado su chip RIVA TNT, conocido internamente como NV4 que combinaba un chip 2D y uno 3D dejando la idea de un “motor 3D separado ” obsoleta de inmediato. RIVA TNT tenía soporte para la API Microsoft Direct X 6 y no sólo eso sino que también funcionaban los juegos hechos con Glide, algo que a la gente de 3dfx no le hacía demasiada gracia.

Banshee era el Voodoo Rush de Voodoo 2, pero mejor pensado

Banshee era el Voodoo Rush de Voodoo 2, pero mejor pensado

Así que nuestros protagonistas se subieron las mangas para poder ofrecer un producto que no requería una gráfica 2D aparte y que encima no tuvieras que donar algún órgano para comprarlo, además, el tema de que Voodoo 2 tuviera tres chips dejaba fuera la idea de hacer un “Voodoo Rush” con Voodoo 2. A finales de 1998 la respuesta fue Banshee, una solución basada en una sola GPU que integraba una controladora de video 2D. En honor a la verdad Banshee no rendía igual que Voodoo 2 pero era una solución bastante acertada para saltar al nuevo mundo de las tarjetas “todo en uno”.

Pero como sabemos, el mundo de la tecnología no trabaja de forma secuencial, ya a principios de ese mismo año 1998 3dfx Interactive estaba sobre un proyecto llamado Rampage que acabaría terminando en su tarjeta Voodoo 3. Y sí, dije tarjeta y no chip, porque parte del proyecto era que 3dfx ya no sólo produciría los chips y las especificaciones sino que harían sus propias tarjetas (con unas cajas cojonudas, la verdad hay que decirla).

Creo que más nunca se hicieron cajas como esta, ya por esto puede valer la pena tener una colección de estas gráficas

Creo que más nunca se hicieron cajas como estas, ya por esto puede valer la pena tener una colección de estas gráficas

Para ello 3dfx adquirió uno de los fabricantes estadounidenses más grandes por aquel entonces: STB Systems con sede en Texas; como sucede con toda fusión hubo bastantes problemas que 3dfx consideró que se iban a resolver con el paso del tiempo. STB Systems era bastante incompatible con la cultura corporativa de 3dfx y siempre trabajaron como empresas separadas, en realidad STB Systems antes de ser adquirida enfocaba su producción en un gran porcentaje para chips NVIDIA; en pocas palabras: tenían muy poca experiencia con los productos de 3dfx lo que complicó todo el asunto.

Bajo mi punto de vista esta fue una muy mala jugada (tanto o peor que la salida al mercado de 32X por parte de SEGA) porque de inmediato todas las empresas que fabricaban tarjetas con chips 3dfx se volvieron de inmediato sus competidoras dejando de percibir una importante suma de dinero. Además, la fábrica de STB Systems estaba en Juárez (México) lo que complicaba aún más la integración y el flujo de información entre ambas empresas que ya para entonces eran una sola.

NVIDIA siempre estuvo un paso delante de 3dfx

NVIDIA siempre estuvo un paso delante de 3dfx

Pero las cartas estaban echadas y Voodoo 3 iba a demostrar que el cambio de forma de negocio de 3dfx era el correcto, así pues en 1998 en la feria COMDEX, se anunció la tarjeta de video que revolucionaría el mercado. Voodoo 3 soportaba resoluciones de hasta 2046×1536 pixeles con una GPU trabajando hasta 183 Mhz, toda una barbaridad; la nueva de 3dfx también tenia un acelerador 2D que dejaba a los demás fabricantes detrás de la ambulancia con un bus de datos de 128-bit dedicado.

Estúpida y sexy caja

Estúpida y sexy caja, ¡miren, incluye el FIFA!

Voodoo 3 vio luz en 1999, pero NVIDIA también había movido sus engranajes y tenía en el mercado la RIVA TNT2 que aunque inferior a Voodoo 3 era un competidor más económico y que realmente valía la pena. Voodoo 3 a pesar de su brutalidad técnica tenía serias falencias en su diseño: no soportaba color 32 bits por ejemplo, pero vendió realmente bien a pesar de que los números eran más bajos que Banshee y Voodoo 2. Ahora que 3dfx no podía vender su producto por medio de terceros provocando que sus ganacias empezaran a disminuir, su maquinaria se hacía demasiado aparatosa y desbalanceada por no decir ineficiente y costosa.

Esto lo aprovechó NVIDIA lanzando en ese mismo año la GeForce 256, la primera tarjeta con soporte para Microsoft Direct 3D 7, GPU a 150 Mhz, 32 megabytes de VRAM DDR, compresión MPEG-2, transformaciones e iluminación dinámica dejando bastante atrás a Voodoo 3 que no llevaba demasiado tiempo en el mercado.

Voodoo 5 ¿es una broma?

Voodoo 5 ¿es una broma?

La reacción no se hizo esperar y 3dfx se puso en marcha en el proyecto Napalm que acabarían siendo las arquitecturas base para Voodoo 4 y 5. En realidad el poder estaba enfocado en Voodoo 5 que era el objetivo para verdaderos entusiastas dejando a Voodoo 4 como un producto “más asequible y fancy”. Voodoo 5 debutaba con una tecnología de GPU escalables llamada VSA-100 (Voodoo Scalable Architecture) que permitia tener varios GPUs corriendo en paralelo en una sola tarjeta, velocidades de proceso a 166 Mhz y 64 megabytes de VRAM DDR,  por fin 3dfx tenía un producto que podría batir a GeForce 256 ¿pero a qué costo?.

Así estaban en SEGA. ¡pero que mala gente Sonic!

Así estaban en SEGA. ¡pero que mala gente Sonic!

El problema no sólo estaba en que la tecnología escalable VSA-100 requería demasiado poder para funcionar (¡las tarjetas necesitaban una fuente de poder extra!) sino que ya Voodoo 4 y 5 tenían que hacerle frente a un nuevo competidor: la serie GeForce 2 de… Sí, adivinaron: NVIDIA; esta GPU aparecio ya en 2000, año en que se inició el proceso de declarar en bancarrota 3dfx .

3dfx Interactive estuvo a punto de ser salvada por Microsoft que se interesó en su tecnología para su primera consola: Xbox, pero finalmente y para colmo esta se decidió por la tecnología de NVIDIA que en honor a la verdad lo estaba haciendo realmente bien. Tampoco Quantum 3D le tendió la mano y decantaron por NVIDIA como proveedor de GPUs para sus productos. Por entonces la empresa californiana tenía un proyecto en ciernes que se suponía salvaría la empresa: la Voodoo 5 6000, pero ya era demasiado tarde y era más de lo mismo, de nuevo pensaban colocar GPUs en paralelo consumiento mucha energía para competir con tarjetas de un solo GPU que rendían mejor. 3dfx murió sola y triste como quien dice.

Al igual que SEGA, Microsoft se interesó por 3dfx, pero de igual modo los dejaron por fuera

Como SEGA, Microsoft se interesó por 3dfx, pero de igual modo los dejaron por fuera

Se sabe que muchos de los (talentosísimos) ingenieros de 3dfx pararon en el proyecto GeForce FX y otros fueron a ATI Technologies (ahora propiedad de AMD, vaya suerte) para llevar sus conocimientos de la tecnología SLI creando “su propia versión” denominada Crossfire. NVIDIA decidió no dar soporte a las tarjetas Voodoo pero tenía un programa en que te entregaba una GeForce de igual rendimiento a la Voodoo que tenías, es que hasta después de muerta le dieron hasta con el tobo. Finalmente el 15 de diciembre del año 2000 3dfx deja una carta de disculpas dirigida a sus fans.

Según veo, 3dfx Interactive a pesar de su innovación y aporte a la industria, fue quizá la empresa de hardware más maltratada de la historia, no sólo por los contratos que pudieron ser y no fueron sino que también fue víctima de su propia estupidez; aun así tiene un “noseque” que la hizo especial y creanme o no, aun existen algunos que extrañan aquellos días donde la innovación y el poder venía dentro de una caja brutalmente diseñada que decía “Voodoo”.

Fin del cuento.

3dfx, ascenso y caída de un gigante (1 de 2)

A comienzos de los años noventa el tema de tener una GPU dedicada para gráficos 3D era algo muy nuevo, era más o menos como cuando ahora nos hablan de la computación cuántica, bueno, tan así no. Por aquel tiempo las únicas máquinas que tenían semejante potencial eran las estaciones de trabajo fabricadas por empresas como Sillicon Graphics que llevaban dentro sistemas operativos UNIX (concretamente uno llamado IRIX) con software muy específico para el diseño de entornos tridimensionales donde se benefició bárbaramente el sector audiovisual.

front

Y es precisamente de Sillicon Graphics donde nace la protagonista de la entrada de hoy después de que Scott Sellers se retirara de ella junto a Gary Tarolly y Ross Smith que provenían de Mediavision, juntos fundaron California la compañía 3dfx Interactive en el año de 1994. 3dfx Interactive se especializó en el diseño de tecnología para aceleración de gráficos en tres dimensiones y la verdad tiene unos episodios bastante interesantes que tocan nuestro mundo de los videojuegos y en especial a mi querida y maltratada SEGA.

Las oficinas de 3dfx

Las oficinas de 3dfx en California

El mundo de los compatibles PC a principios y mediados de la década de los noventa era muy distante a lo que conocemos hoy. El primer chip acelerador gráfico de 3dfx para esta arquitectura lo vimos en 1996. Se llamó Voodoo 1 y ni siquiera tenía una controladora VGA, lo que requeria de una segunda tarjeta de video para visualizar lo que ella calculaba, porque era eso: un chip que se encargaba de hacer cálculos intensos y dejaba el trabajo de dibujado de polígonos y efectos a la verdadera gŕafica, todo liberando a la CPU de esas labores, básicamente una GPU era otra CPU pero dedicada a cálculos tridimensionales; ahora es algo más complejo con los conceptos de shaders, paralelización, etc. ¿Recuerdan cuando a mediados de la década pasada se comercializaban unas tarjetas de físicas Ageia PhysX? pues algo asi era Voodoo 1.

Aquí esta, la Voodoo 1, no luce tan espectacular ¿verdad?

Aquí esta, la Voodoo 1, no luce tan espectacular ¿verdad?

3dfx no fabricaba tarjetas en un comienzo, solamente las GPUs y las especificaciones de fabricación lo que dejó en fabricantes como Diamond la producción de las tarjetas teniendo un éxito bastante aceptable, en realidad es un modelo que actualmente persiste y que han sabido manejar actualmente NVIDIA y AMD.

q3d_arcade_hrd_1995

Tarjeta Arcade pertenece a ICE Home Run Derby, la primera que llevó un GPU 3dfx en 1995

A veces es difícil explicar como una empresa tan innovadora fundada en 1994 tuvo primer producto reconocido dos años después, y la respuesta es que esto no fue así. Arcades como San Francisco Rush, Wayne Gretzky’s 3D Hockey, NFL Blitz y Gauntlet Legends tuvieron en sus entrañas GPUs de 3dfx, muchos de ellos antes de 1996 y otros tantos durante “el reinado” de la serie Voodoo.

Konami Viper

Konami Viper (Silent Scope) también llevaba tecnología 3dfx

Volvamos al tema de Voodoo 1. 3dfx no sólo se encargó de diseñar y producir una GPU que para aquellos días era increible, también diseño una API para poder aprovecharla, esta API se llamó Glide y permitía basicamente acceder a las funciones de geometría y texture mapping del hardware de 3dfx de manera directa. El problema de Glide es que añadía una capa más de complejidad a la hora de desarrollar juegos: teníamos entonces juegos con motores gráficos de su padre y de su madre, juegos optimizados para OpenGL, para el novísimo Microsoft Direct 3D y ahora para Glide.

Need for Speed 2 sin el parche para usar Glide

Need for Speed 2 sin el parche para usar Glide, así era como lo jugaba: “por software”

Muchos juegos venían con parches para correr en Glide y se beneficiarion del poder de proceso de Voodoo 1, uno de ellos era Need for Speed 2 de Electronic Arts: si jugaste a la versión “pelada” de Direct 3D y ves la que usaba el parche Glide se nota a leguas la diferencia y ahi entendías lo que significaba la palabra “aceleración por hardware“, el problema es que en realidad no es muy rentable desarrollar para varios estándares, al final Direct 3D se impuso como estándar de facto, pero eso es harina de otro costal y es otra historia muy larga con mucha sangre derramada y tal.

Y así se veía Need for Speed 2 con la API Glide, lucía como juego de Nintendo 64

Y así se veía Need for Speed 2 con la API Glide, lucía como juego de Nintendo 64

El problema de depender de una segunda tarjeta de video se solucionó en 1997 cuando aparece en el mercado Voodoo Rush, una arquitectura que fusionaba la GPU Voodoo 1 con un chip 2D (en concreto un Cirrus Logic) que se encargaba de dibujar todo en pantalla. El problema es que las cosas no salieron como pensaban en 3dfx y la tarjeta rendía entre un diez y un veinte por ciento menos (!), todo porque el chip de Cirrus Logic también utilizaba el bus de datos de Voodoo 1 y por ende consumía poder de proceso. El producto fue un fracaso y representó el primer gran chasco de la empresa californiana.

Voodoo Rush fue el primer gran fracaso de un problema que después fue recurrente en 3dfx

Voodoo Rush fue el primer gran fracaso, un problema que después fue recurrente en 3dfx

Seguimos en 1997 y en aquellos gloriosos años SEGA ya estaba empezando a darle forma a lo que sería el sucesor de su consola Saturn, estamos hablando de lo que conocimos como Dreamcast, y bueno, como era costumbre en la por entonces “gigante azul” hicieron las cosas “a la SEGA” dividiendo el proyecto en dos prototipos: uno llamado Katana que se estaba desarrollando en Japón junto a NEC y VideoLogic y el otro llamado Blackbelt que estaba siendo desarrollado en conjunto con 3dfx y Motorola. Después se preguntan por qué SEGA se fue a pique, vaya forma de gastar la plata.

SEGA Dreamcast

Dreamcast

Y como si fuera una película de “El juego del miedo” SEGA puso a competir los dos proyectos a ver cual le parecía más potente y viable economicamente. El “Team Japan” estaba trabajando en una arquitectura basada en un microprocesador que aún estaba en desarrollo, el Hitachi SH4 que funcionaría junto a un GPU PowerVR Series 2 mientras que el “Team USA” tenía microprocesador Motorola PowerPC 603e y un GPU que estaba en desarrollo: el Voodoo 2 de 3dfx Interactive.

Quantum 3D

Quantum 3D

Fue en marzo de ese mismo año cuando la división de tecnología Arcade de 3dfx se separa naciendo la compañía Quantum 3D. Obviamente en 3dfx tenían la percepción de que ofrecer soluciones para fabricantes de Arcades era una especie de lastre, Quantum 3D ahora como cliente de 3dfx se encargaba de comercializar soluciones Arcade para empresas como Midway y Konami, asi pues, muchos piensan que la debacle empezó tras este movimiento porque hasta Quantum 3D se dedicaba a comercializar tarjetas de video como cualquier otro cliente de 3dfx. Lo creas o no, Quantum 3D sigue en pie en pleno 2016 ofreciendo tecnología para simuladores y entrenadores virtuales ¿qué tal?.

Y al final, un 22 de julio de 1997, SEGA se decantó por el “Team Japan” dejando guindado al proyecto estadounidense. Y claro, en 3dfx se quedaron como novia de pueblo esperando una explicación que jamás llegó salvo un “gracias por su cooperación”. SEGA atribuyó esta decisición a diversos factores como la experiencia de NEC en la producción y distribución de chips con Nintendo, la preocupación de Electronic Arts en la arquitectura Voodoo 2 (Electronic Arts tenía por entonces un portafolio de juegos que cualquier consola deseaba tener), pero creo que la razón principal fue el hecho de que eran empresas japonesas que no eran tan boconas como sí lo fue 3dfx.

Más o menos así fue el tema de Dreamcast

Más o menos así fue el tema de Dreamcast

Y digo esto porque en 1997 a 3dfx le iba tan bien que decidieron salir a la bolsa de valores, de esta forma gran parte del contrato entre esta y SEGA salió a la luz enfureciendo a la Cosa Nostra (la directiva de SEGA), dejando claro que se decantarían por Katana y no por Blackbelt, el problema real es que legalmente no había nada que obligara a 3dfx a publicar detalles del contrato pero bueno, la emoción supongo. Recuerdo que en las revistas del sector se hablaba mucho de “Blackbelt” pero de pronto se hablaba de “Katana” y después ya uno no sabía a quien creerle.

3dfx decidió defenderse en los tribunales en contra de SEGA y NEC alegando incumplimiento de contrato, después de todo desarrollar una consola es algo que requiere enormes cantidades de dinero para investigación y desarrollo dejando en cifras preocupantes a 3dfx. Todo acabó en un acuerdo extrajudicial y se zanjó el asunto. Dreamcast finalmente tuvo su Hitachi SH4 y su Power VR Series 2 como base de su hardware.

De momento aquí dejamos esta fascinante historia de amor y dolor, para la próxima entrada tocaremos todo lo que ocurrió con 3dfx a partir de 1998 hasta su caida final en el año 2000.

¡Go Japan, go japan!

Margaret Hamilton, la científica computacional que llevó al Apolo a la luna

No es que solo en aquella época la computación ni siquiera estaba concebida como la conocemos hoy en día, es que de hecho, era una época donde habia bastante machismo en todo lo relacionado con ingeniería, en especial en la de software donde por aquellos años era algo que muy pocos dominaban y los que lo hacían llevaban largas barbas a lo Richard Stallman.

Margaret Hamilton en 1989

Margaret Hamilton en 1989

Durante los años sesenta Estados Unidos estaba en la carrera espacial contra la Unión Soviética y mientras se desarrollaba el proyecto Apolo 11 se integraron multitud de disciplinas, algunas llevadas por contratistas privadas y otras por la misma NASA, el módulo lunar necesitaba un sistema de navegación y aterrizaje asistido por computador por el mismo motivo de que existen pilotos automáticos en los aviones; el computador en cuestion es el Apollo Guidance Computer (AGC), una máquina que ahora puede parecernos extremadamente limitada pero por entonces era bastante decente: un sistema 16 bit que funcionaba a 2 Mhz; con más razón, en el espacio es vital obtener precisión en un campo totalmente nuevo para la humanidad.

Apollo Guidance Computer (AGC)

Apollo Guidance Computer (AGC)

Hamilton nació un 17 de Agosto de 1936 en Indiana, en 1954 termina la secundaria en la Hancock High School, estudió matemáticas en 1958 en la Earlham College y en 1960 se muda a Boston para estudiar matemáticas abstractas donde tiene contacto con máquinas como la LGP-30 la famosa PDP-1 en el laboratorio Charles Stark Draper.

Margaret Hamilton fue la líder de la sección de software del proyecto Apolo y se encargó de diseñar y co-programar todas las rutinas de navegación, alunizaje y retorno del módulo lunar que permitió que el hombre pudiera llegar a la luna, incluso en nuestros días puede sonar algo bastante complejo y realmente lo fue.

Margaret al lado del conjunto de instruccions del sistema de navegación del Apolo 11

Margaret al lado del conjunto de instruccions del sistema de navegación del Apolo 11

El programa diseñado por Hamilton fue tan robusto que incluso estaba pensado para priorizar actividades bajo situaciones de emergencia y posibles fallos; algo que ocurrió al momento de alunizar: el sistema de radares se activó por error debido a un mal posicionamiento haciendo que el computador se sobrecargara de información, el programa de Hamilton logró discriminar lo realmente importante de lo no tan importante en ese momento crítico, trabajando bajo condiciones adversas y tomando las decisiones correctas, todo un logro para aquellos años.

Margaret dentro del módulo

Margaret dentro del módulo

El sistema de Hamilton fue tan eficiente que fue utilizado también para el proyecto Skylab: la primera estación espacial estadounidense que vio luz durante los primeros años de la década de los setenta. Margaret estuvo a la cabeza de Higher Order Software desde 1976 hasta 1984 y en 1986 funda Hamilton Technologies, Inc.

El 17 de este mes esta notable científica cumple setenta y nueve años de edad ¡Feliz Cumpleaños Margaret!

Mark Cerny, la mente detrás de PlayStation 4

Aprovechando la salida al mercado de la nueva máquina de Sony, me topé con un muy interesante artículo sobre Mark Cerny en la revista digital Wired, actualmente Cerny es la verdadera mente maestra detrás de todo el producto PlayStation 4 de Sony, así es, ni Ken Kutagari ni Kazuo Hirai, ha sido este californiano el que ha diseñado toda la arquitectura de la bestia de Sony. Investigando un poco sobre Cerny me encuentro que fue pieza fundamental en el desarrollo de uno de mis juegos favoritos de todos los tiempos: Sonic 2 para Genesis/Mega Drive.

Recuerdo que en 2011 comenté que esta obra no era hija directa de las oficinas de SEGA en Japón, al contrario, fue un producto muy americano en su concepción aunque estaba basado en un programa japonés.

Cerny (izquierda) con Hideo Kojima

Mark Cerny (izquierda) con Hideo Kojima

Mucho antes de que Sonic 2 estuviese acabado, Cerny trabajó para Atari a la temprana edad de diecisiete años, siendo parte del equipo de diseño y programación de dos joyas de Arcade: Major Havoc y Marble Madness en los años 1983 y 1984 respectivamente, posteriormente da el salto a SEGA y trabajó directamente en sus oficinas en Japón donde colaboró como programador en proyectos como Shooting Gallery, Missile Defense 3-D, Shanghai y California Games para Master System a finales de los años ochenta.

Cerny es el productor de Knack, un título para Sony PlayStation 4

Cerny es productor de Knack, un título para PlayStation 4

Ya entrado los noventa, Cerny se alejó un poco del mundo de la programación para ser directamente productor, para la 16 bits de SEGA estuvo detrás de Kid Chameleon, Dick Tracy y como no, Sonic 2, por entonces también solía trabajar en SEGA of America y probablemente haya conocido al bueno de Tom Kalinske. Después trabajó en algunos proyectos para 3DO como Crash ‘n Burn, Total Eclipse y Disruptor.

Cerny es también la mente detrás de auténticos juegazos para las plataformas de Sony como Crash Bandicoot, Crash Bandicoot 2: Cortex Strikes Back, Spyro the Dragon, Crash Bandicoot 3: Warped y Spyro the Dragon 2: Ripto’s Rage!. Recientemente Cerny ha estado involucrado en proyectos como Uncharted: Drake’s Fortune, Ratchet & Clank Future: Tools of Destruction, God of War III y Killzone 3 para PlayStation 3.

Cerny estuvo involucrado en Sonic 2 de SEGA Genesis/Megadrive como programador

Cerny estuvo involucrado en Sonic 2 de SEGA Genesis/Mega Drive como programador

Cerny en varias entrevistas ha sido bastante claro sobre la decisión de convertir la nueva máquina de Sony en una consola con arquitectura de PC “hipervitaminado” comparándola con su antecesora “Yo no podía dejar de pensar que tal vez había un camino diferente, hacer juegos para PlayStation 3 era muy, muy difícil. Tal vez exista un hardware en que se podía desarrollar con más naturalidad”. Con respecto a los ocho Gigabytes GDDR5 de memoria unificada (que es una de las características más atractivas de la arquitectura de PlayStation 4) dijo “Una de las cosas que podría haber hecho es dejar el bus de 128 bits, que se reduciría el ancho de banda de 88 gigabytes por segundo, y luego tener eDRAM en el chip para aumentar el rendimiento pero no quisimos crear una especie de rompecabezas que la comunidad de desarrollo tendría que resolver para crear sus juegos. Y así que nos mantuvimos fieles a la filosofía de la memoria unificada“.

ps4_4

Así pues, PlayStation 4 es la primera consola de Sony “nacida” de una mente occidental

Según Cerny, PlayStation 4 puede ser un hardware bastante fácil de sobrellevar en todo su ciclo de vida “En última instancia, estamos tratando de encontrar un equilibrio entre las características que se pueden utilizar desde el primer día, y las características que permitirán que el sistema evolucione en los últimos años…”.

En 2004 Cerny recibió un premio por su trayectoria por la International Game Developers Association y en 2010 entró al cuadro de honor de la Academy of Interactive Arts & Sciences, el californiano también fue responsable del proyecto PlayStation Vita y actualmente es el jefe de la división PlayStation siendo la primera vez que un occidental esta al frente de semejante responsabilidad, veamos como le va en el futuro.