Ayer España entera estaba de fiesta. A Google, claro, le dio igual: eligieron ese día para presentar Gemini, su nueva plataforma de inteligencia artificial. Yo lo vi de chiripa a última hora porque estaba celebrando la Constitución mis cosas con amigos, pero pasó una cosa curiosa.
De lo que leí todo me pareció muy bien, pero también me pareció hasta aburrido. Google presumía de que superaban a GPT-4 en todas o casi todas las pruebas que habían pasado, y luego sacaban pecho especialmente con eso de que su IA es multimodal. O lo que es lo mismo: entiende casi todo lo que le pones delante, sea texto, imágenes o vídeo.
El vídeo —os recomiendo echar un vistazo, son seis minutos y medio— es ciertamente curiosete y probablemente me hubiera alucinado e incluso aterrorizado hace unos años. Hoy ya no. A estas alturas, visto lo que hemos visto este año, me asombran pocos logros de la IA porque todos los veo obvios. Pues claro que hace todo eso que hace. Una vez más la condena del ser humano: nuestra capacidad de asombro se agota rápidamente.
Y aún así, hubo una nota discordante e importante: la de Gemini Nano, ese modelo del que he hablado esta mañana en Xataka y que como decía allí tiene un par de peculiaridades. La primera, que está diseñado para correr en tu móvil. Y la segunda, que puede hacerlo sin necesidad de que estés conectado a internet.
Adiós a la dependencia de la nube. Cuando usas ChatGPT, Bard o cualquier otro modelo de IA, lo haces gracias a que la nube está ahí. Hay muchos centros de datos echando humo —literalmemente, porque vaya tela lo de las emisiones de CO2— para contestar a nuestras cositas, pero con esto de Gemini Nano la cosa cambia.
De repente la IA está en tu móvil, quietecita y preparada para ti.
Es básicamente una aplicación más que podrás aprovechar aunque no estés conectado a la Wi-Fi de casa o a la red móvil de turno. Es un ejemplo claro del ‘edge computing’ que es un concepto con un nombre muy chulo y muy anglosajón para definir algo que siempre ha existido en la informática. Esto es, que las cosas se ejecuten en tu dispositivo, en local, y no en la nube.
Y así es como empieza esta nueva era de ‘IA de bolsillo’, como la he llamado. En inglés se ha visto mucho el término ‘on device’, más amplio —se aplica también a esa misma integración futura en PCs y portátiles—, pero como digo, es un paso importante porque volvemos a una filosofía en la que seremos independientes de la nube —como éramos antes— para usar la IA de forma (teóricamente) más personal.
Los ejemplos de aplicaciones prácticas que ponía Google eran escasos. Solo los Pixel 8 Pro podrán comenzar a aprovechar Gemini Nano, y lo harán para cosas bastante chorras: resumir conversaciones de voz pregrabadas y generar contestaciones de texto automáticas en aplicaciones de mensajería. Y ya. Lo guay, insisto, es que lo harán sin necesidad de estar conectadas a la nube —aunque para enviar esos mensajes sí que tendrás que estar conectado—.
Pero es solo el principio. Uno en el que intuyo que el móvil pasará a ser todavía más importante en nuestras vidas porque habrá una IA siempre dispuesta a contestar a nuestras preguntas, resolver nuestras dudas y a hacernos compañía cuando la necesitemos. Sin descanso, sin enfermar, sin excusas, y siempre perfecta.
Es de lo que hablaba cuando comentaba que «Tu mejor amigo será una IA«, algo que sí me asombra, que creo que puede estar más cerca de lo que creemos y que además me aterroriza un poco. Si el móvil ya nos aislaba, el móvil con IA podría convertirnos en, como decían en IKEA, repúblicas independientes y unipersonales. Supongo que al final no será para tanto, pero qué carallo. Esto da un poco de miedito.
Y luego estás ias intercambian información cuando se conectan entre si y generan un resumen que lleva solo un lugar de destino: make América great again