Recuerdo estar en la redacción de PC Actual cuando llegó el primer móvil con MP3 que probábamos. No era un smartphone, ojo. Hablo del año 2002 o 2003. Aquello era un feature phone simplón, probablemente un Nokia, pero que incluía al fin un procesador y memoria suficientes para poder usarlo como un Walkman.
Aquello estaba más claro que agua, me dije. El iPod está acabado.
Era de cajón. ¿Para qué llevar dos dispositivos, cuando uno solo hacía (bastante) bien todo? Y claro, así pasó.
Pues me está pasando igual con los sistemas operativos, que ahora mismo tienen una integración modesta de funciones de IA, muy separada y fragmentada, pero que probablemente se transformen en algo bastante distinto en los próximos tres o cinco años.
Y lo harán porque más que seguir manejando el ordenador con ratón y teclado como hasta ahora (que también), lo que haremos será hablar con él. Pedirle cosas. «Búscame esto», «Ponme esta canción», «ábreme esto otro», «resérvame este hotel o este restaurante», «créame una hoja de cálculo de aquello», y así.
Nos lo están demostrando todos esos sistemas de IA que comienzan ya a lograr precisamente eso. Operator, de OpenAI, ha sido el que más ha llamado la atención últimamente, pero en realidad ha sido el último en llegar. Hace más o menos lo mismo que ya mostraron Computer Use, de Anthropic (el nombre es terrible) o Project Mariner de DeepMind.
En todos los casos el usuario se convierte un poco en el capitán Kirk, ordenando cosas con la voz para que la inteligencia artificial escuche, procese y ejecute. El secreto está en que la IA «ve» nuestra pantalla, así que cuando le decimos que haga algo puede manejar un ratón y teclado virtual y hacerlo.
Yo aquí veo una oportunidad excepcional para Microsoft o Apple, que llevan unos años difíciles en el escritorio. Todo estaba ya muy mascado en el escritorio, y cada vez era más difícil que un sistema operativo como Windows o macOS nos resultase novedoso.
Pues bien, esto puede lograr precisamente eso. Irá creo yo bastante más allá de lo que ya hace Copilot, que como decía antes está como un poco «aparte», un poco separado de la experiencia general. Entiendo que Copilot debería de hecho desaparecer como entidad propia para acabar «fusionado» con Windows. Y lo mismo con macOS, que debería tener una especie de Siri combinado con Apple Intelligence pero de verdad para fusionarse también con macOS.
Por supuesto, esto no solo es una oportunidad para Windows o macOS, sino para otras alternativas menores como Linux o ChromeOS. Es curioso, pero Linux parece ir un poco a su bola en este terreno: que yo sepa no hay proyectos que estén tratando de ofrecer algo así como un «Copilot para Linux». Justo esta semana Red Hat apuntaba a la integración de IA en Fedora y Gnome, pero a saber cómo saldrá eso si sale.
Mientras, ChromeOS tiene la ventaja de que Google tiene Gemini y controla Chrome por completo: parece natural que acabe existiendo algún tipo de desarrollo que combine ambas patas. Y en todos los casos, yo veo bastante claro eso de que hablar con el ordenador será más y más frecuente por la sencilla razón de que será más cómodo. «Máquina, cambia al tema oscuro de Windows» o «Máquina, busca un nuevo dispositivo Bluetooth» o «Máquina, apágate», como le solemos decir a Alexa en casa.
Será normal y natural, y nos evitará estar todo el día con el ratón y el teclado, y planteará un caso de uso potente si quieres usar un sistema operativo de escritorio con unas gafas inteligentes puestas. No sé. A mí me parece un futuro obvio. Ver los vídeos de esto es un poco inquietante, y eso que por ahora todo está como muy verde.
Y aun así, todo es como aquel móvil de 2002 o 2003.
Veremos qué pasa. Tiempos emocionantes.
Imagen | Daniel Unibe
Discrepo. La mayor parte del tiempo que usamos el ordenador, lo hacemos diseñando, creando, manejando hojas de cálculo, usando programas muy específicos según el tramado que se desarrolle (en la administración, en un bufete de abogados, en una industria), es decir, cosas que una SO integrado con una IA no puede hacer.
La menor parte del tiempo hacemos eso que cuentas: buscar un documento, abrir una carpeta, poner una canción, reservar un vuelo, apagar el ordenador, que sin cosas que se pueden decir con la voz, como ahora hacemos con Alexa, o Siri o lo que sea
Todo eso es precisamente lo que los agentes de IA permitirán hacer teóricamente.
Que puede que no, claro, pero creo que para muchas cosas haremos lo que siempre intentamos hacer: delegar. Que lo haga el ordenador, si puede ser, para no tener que hacerlo yo.
Veremos.
Concuerdo es que debería fusionarse todo de manera que no se detecte un “Siri”, un “Copilot” o un “Gemini”. Sino que esté completamente integrado en los SO a tal punto que no sepamos que la estamos invocando. ¿Que me gusta la IA metida en todo? Para nada, pero quién soy yo para detener el mundo.
Tendrá sus desventajas, desde luego, pero esto es como ir contra el PC o contra internet. Tienen sus desventajas y «están metidos en todo», pero mira. No nos va mal.
tengo una opinion menos optimista, esto puede convertirse en el nuevo navegador, una plataforma para generar informacion, no creo que desde el punto de vista regulador apple o microsoft se les permita incorporar sus modelos de IA dentro del sistema operativo.
esto sera mas parecido a una plataformar que se accede con claros modos de conexion no como algo viviente pasivo en el ordenador. el pc tendra un desarrollo de IA distinto al movil.
No solo va a ser o poder controlar el navegador, sino todo a través de nuestra voz. Esa es al menos mi visión. Y aunque habrá alguna diferencia con el móvil, al final el resultado será el mismo. Le dirás a una máquina lo que quieres, y ella lo hará.
No tengo claroq ue vayamos a utilizar los ordenadores a través de la voz. Al emnos, tal y como concebimos los ordenadores hoy en día. ¿Qué ventajas reales puede aportar?
Sí creo que la IA acabará integrándose dentro del propio sistema operativo. Más como una extensión del mismo. Siendo eso, un asistente.
Para poder aprovechar todo el potencial que nos puede ofrecer la IA integrada en un sistema operativo, me imagino un dispositivo más cercano a lo que son Rabbit R1 o Humane AI Pin. Muy del estilo a lo que pudimos ver en la película Her.
¿Por qué creo que un dispositivo de este estilo puede tener más sentido?
El factor determinante es la movilidad. Si me encuentro en mi casa, sentado delante de la pantalla de mi ordenador, lo más probable es que la interacción a través del teclado y ratón sea mucho más rápida.
En cambio, si estoy fuera de casa, podría pedirle algunas de las acciones que has mencionado en el artículo. Aquello que necesite revisión por nuestra parte se podría resolver bien mediante una conversación con el dispositivo, o bien proyectando una imagen o vídeo que genere el dispositivo en unas ¿gafas?.
Quizá deban pasar varios años para que podamos ver un dispositivo así. Sobre todo si queremos que tenga la capacidad de realizar esto en local, sin necesidad de conexiones s servidores remotos.
Quién sabe ????
Puede ser, claro, pero también puede que incluso con el ratón y teclado delante le digas al PC «hazme esta gestión o esta tarea» y sea realmente más rapido que hacerla tú como la hacías hasta ahora. Yo creo que puede ser el futuro, pero como dices… ¿quién sabe?