Es bueno estar en casa. Claro que me he venido con una impresión increíble del Summit. No daba mucho por este ciclo de conferencias, pero he aprendido un montón de cosas, he conocido y hablado con gente muy interesante y he tenido la oportunidad de escuchar dos de las mejores (si no las mejores) keynotes de mi vida. Lo más gracioso es que ninguna de las dos era eminentemente técnica, sino más bien «discursos sociales». En el primero de ellos Negroponte desveló todos los secretos del proyecto OLPC (One Laptop Per Child), una iniciativa en la que intervienen activamente AMD y Red Hat. Había oído hablar de esta idea, que básicamente pretende dotar a los chicos de todo el mundo (con especial atención a los menos favorecidos) con un portátil de bajo coste (100 dólares) y características muy peculiares. El hardware es limitado, pero más que suficiente para la educación, mercado al que va destinado. Con Linux de base (Fedora Core 5, que supongo que irá capado), soporte WiFi y sin disco duro (la memoria Flash incluida, de 512 Mbytes, es el medio de almacenamiento), pero con varios puertos USB, este dispositivo tiene una característica muy peculiar: su mecanismo de alimentación. El famoso crank (manivela) que se veía en los primeros prototipos existirá, pero será utilizado de forma distinta. El motivo es el de cargar el portátil mediante energía cinética (el movimiento de nuestro brazo), ya que en muchos países se usará en localizaciones donde no habrá red eléctrica. Negroponte se mostró no sólo inspirador, sino totalmente convencido del futuro de la idea. Para él el cuándo no era importante. Simplemente, el proyecto iba a estar ahí, y es que para finales del 2007 se preve que haya del orden de 100 millones de unidades preparadas para su distribución, aunque algo antes ya habrá OLPCs en varios países. Negroponte habló de una anécdota muy curiosa, según la cual habló con un directivo de una empresa de TFTs (la que incluye el OLPC es realmente peculiar, con un modo de baja energía de una concepción prodigiosa). Cuando le habló del proyecto, le explicó que las pantallas no debían ser de la máxima calidad y que podían tener algún defecto, porque se trataba de ahorrar costes, a lo que el directivo dijo que no era su idea de mantener la reputación de su afamada empresa. Negroponte le dijo «Es una lástima, porque necesitamos 100 millones de unidades al año». El directivo, obviamente, cambió de parecer ;-). Y yo mientras, refrescándome con las botellitas de agua que había por doquier y que tenían una etiqueta más que peculiar:
La otra conferencia, aún más impactante, fue la que ofreció Eben Moglen. Este abogado y profesor de Derecho en la Universidad de Columbia es el máximo responsable (o uno de los máximos) de la aparición de GPL 3. La conocida licencia que se originaba por parte del grupo GNU (del cual Stallman es máximo representante) hace dos décadas sigue su carrera imparable hacia la protección de la libertad del software. Con una especial atención a las patentes, el nuevo texto fue solo uno de los puntos que rozó Moglen en la superficie. No es normal que alguien hable durante 30 minutos sin ninguna ayuda audiovisual, sin parar, con una claridad de ideas y una dialéctica simplemente excepcional. A mí se me pusieron los pelos de punta en un par de ocasiones, y eso que soy un tío bastante insensible a las típicas keynotes, pero como me diría un directivo de HP con el que hablé algo después «había olvidado el poder de las palabras, o que un discurso podía emocionar y hacer a miles de personas revolucionarse». Ese era el tipo de discurso. La foto no es muy buena, pero ahí está el campeón de Moglen en directo.
Evidentemente, ha habido mucho más en el Summit, pero no me quiero extender. Baste decir que obviamente todos nos mostrábamos interesados por la adquisición de JBoss (cerrada hoy, el día de la bestia :-)), y que hubo, al menos para mí, un tema estrella sobre el resto: la virtualización. Creo que fui a todas las sesiones sobre el tema (unas 10, aproximadamente) y pude conocer de primera mano los avances que Xen, XenSource, Intel, AMD (estas dos últimas por separado, claro) y la propia Red Hat están logrando entre todas. Preparaos, porque VMware está en cierto peligro, y eso a la empresa le viene de perlas. De momento yo ya me instalé por fin mi primera máquina virtual bajo Linux, gracias a un Hands-On-Labs que los chicos de Red Hat impartieron a partir de Fedora y de Xen 3.0.1. Fue una Fedora dentro de otra, en realidad, pero esa limitación (la de instalar solo SSOO GNU/Linux) tiene los días contados, y pronto (creo que para después del verano) será posible instalar otros SSOO (por ejemplo, Windows) bajo el nuevo Xen, siempre y cuando contemos con un microprocesador con tecnología AMDV (Pacifica) o Intel VT (Vanderpool). ¡La cosa promete!
Veo que algunos no paran!!!
Solo un par de cosas:
Xen ya podia ejecutar desde hace mucho tiempo Windows dentro de linux pero, cosas de la paravirtualizacion (bonito palabro), al tener que modificar el kernel del SO (Windows) y ser Microsoft como es, no esta disponible al publico general. Tan solo lo tenian en los departamentos de investigacion.
Y eso «del Pacifica o Vanderpool»…que quieres que te diga…no niego las ventajas que tendran aquellos que necesiten alojar cientos de maquinas virtuales con estos procesadores, pero si no cuentas con este mercado, el mas jugoso con diferencia, el resto de usuarios de esta tecnologia ¿dependeran de lo que el procesador haga? Sinceramente, una de las ventajas de «virtualizar» es que no necesito nada «especial». Si Intel o AMD quieren vender, que lo hagan a costa de otros…
Sinceramente, Xen tiene «buena presencia» (por lo que he podido comprobar en mis carnes), pero VMWare tiene productos (algunos, los mas simples, gratis) que no tienen desperdicio. Siguen estando a años, aunque no sean «free».
Hola Planis,
Vamos a ver: decir que Xen podía ejecutar Windows desde hacía tiempo es como decir que en Apple llevaban utilizando micros de Intel desde el 2000. Así que eso no sirve de mucho, y menos en este caso porque está claro que aunque lo de Apple ha cristalizado, lo de Xen no podría hacerlo nunca porque las licencias de Windows no lo permiten.
¿Estás diciendo que la integración de tecnologías de virtualización en los micros es mala? Es una ayuda importantísima para el modelo que triunfa ahora mismo (adiós VMM, hola hipervisor), y el que tiene más futuro por distintas razones, como la gestión del hardware (fuera controladores «genéricos») y el propio rendimiento de la máquina virtual. Ya hablaron de futuras tendencias, como la denominada I/O Virtualization (algo que se conseguirá con los chipsets adecuados) que se conjuga con la virtualización hardware, y créeme, todos tiran de ese carro, porque no solo le viene bien a Xen, sino que a VMware y MS también les mola mazo la idea.
Y Xen tiene mucho más que buena presencia. En solo un año ha conseguido revolucionar el mercado, y cuando aparezca tras el verano la versión 3.0.2, ya totalmente preparada para los nuevos micros (también para después del verano) y con mejoras adicionales como el soporte del frambuffer (con lo que accedes a la interfaz gráfica de la MV directamente, mientras que ahora lo haces via VNC) y algunas cositas más que contaron te aseguro que adelantarán aún más. Coincido contigo en que VMware tiene productos geniales, y tanto Server como Player (y sobre todo, la iniciativa de los Virtual Appliances) son muy interesantes, pero yo que tú no subestimaría ni a Xen, ni a XenSource. Ya me contarás dentro de un par de años como están las cosas, majete.
Ciao!
Solo digo que Xen+Windows no era una «meganovedad». Nada mas.
Tampoco digo que la innovacion en lo micros sea «mala». Lo que dudo enormemente es que sea «vital», como van a plantear Intel y AMD (los mayores interesados en que esto triunfe claro). Tampoco me parece vital el acceso a los dispositivos hardware, y muy especialmente la tarjeta grafica. Ya se que es muy bonito, y llamativo, pero en cuestion de utilidad, VNC es mas que suficiente. Mas alla del frikismo (que me sige gustando) de tener una tarjeta openGL corriendo en dos sistema operativos a la vez en la misma maquina, me preocupa mucho mas que las tarjetas de red hagan lo que tienen que hacer sin perder rendimiento.
Ya veremos cual es el precio de esta tecnologia, ten en cuenta que por el momento es «gratis» desde el principio (hard), hasta el final (soft).
Si es una novedad si tienes en cuenta que va a estar al alcance de todo el mundo, y no de unos pocos desarrolladores en un entorno cerrado de pruebas. Y no creo que lo vendan como vital, sino como una característica más de los micros que sin duda, llama la atención. Probablemente los usuarios de a pie no la utilicen nunca, pero si AMD o Intel quieren tratar de promocionar sus productos hablando de ese soporte no veo nada malo en ello. Yo lo haría si incluyera una característica nueva en algún nuevo producto mío.
En cuanto a lo de la tarjeta gráfica, creo que es más importante de lo que piensas para muchos. No todo el mundo puede tirar de una consola de comandos, y por algo la interfaz gráfica tanto en el sistema operativo como en las aplicaciones es la elección mayoritaria hoy en día.
Y el precio de la tecnología es cero, amigo. Precisamente lo que se persigue con Xen es dar SERVICIOS sobre esa tecnología. Soporte, desarrollos empresariales, implantación y formación, etc. Que es de lo que viven todos los grandes de Linux, nope?
A ver si vemos el vaso medio lleno para variar!
Pingback: Incognitosis » Blog Archive » Microsoft mete la zarpa en OpenOffice.org