He hablado mucho de los ñafotas. Lo hice en 2013 cuando se lanzaron las fascinantes Google Glass, y luego volví a tocar el tema con otros lanzamientos como el de las Spectacles en 2016, las hipotéticas gafas de realidad aumentada de Apple y por supuesto las gafas que Zuck proponía para su (por ahora absolutamente fracasado) metaverso.
Luego, por supuesto, llegarían las gafas más ambiciosas del mundo, las Apple Vision Pro. Harry ya nos habló de aquello. Yo era medio optimista con este tipo de dispositivo. De toda esa obsesión que tenemos con «qué sustituirá al móvil», las gafas parecían buenas candidatas. Pero poco a poco me fui dando cuenta de una cosa.
El móvil es el dispositivo eterno.
Lo dije entonces y me reafirmo ahora. Sobre todo tras haber visto las nuevas gafas de realidad aumentada de Meta, que por ahora se conocen como ‘Project Orion’. En The Verge tuvieron acceso inicial a una demo con algunos medios más y las probaron durante dos horas, y el vídeo que hicieron de sus primeras impresiones, breve y entrentenido, fue para mí contundente.
No quiero parecer un grinch tecnológico, pero a mí las gafas me un producto con el mismo futuro que las Vision Pro: probablemente molará usarlas durante un ratito, pero dudo mucho que alguien las conciba como un producto para usar constantemente durante su día a día.
Las demos eran simpáticas, pero no especialmente contundentes. Lo de jugar a un sucedáneo de Pong en realidad aumentada queda muy bien en los vídeos, pero estoy bastante seguro que tras la primera partida no jugarás jamás. Creo que los juegos inmersivos, que te encierran en su mundo virtual, tienen mucho más sentido, aunque aquí Pokemon ya nos demostró que esas experiencias que se entremezclan con el mundo real pueden ser un éxito.
Pero es que de nuevo me faltó que Meta me respondiera a la pregunta crucial a la que no creo que nadie me pueda responder en este segmento:
¿Qué puedo hacer mejor con estas gafas de lo que ya hago las cosas con mi móvil?
Yo, sinceramente, no encuentro la respuesta. Está bien poder integrar algunas prestaciones en un dispositivo que llevas puesto, pero una vez más aquí parecían forzar la máquina. En una parte de la demo las gafas revisaban una serie de ingredientes en una mesa y tras reconocerlos proponían la receta de un batido. No sé. Bien, pero… ¿Ya está? ¿Eso es todo? ¿Esa es la killer app que nos propone Meta para vendernos el concepto? El control por gestos con la pulsera parece curioso, pero una vez más, un poco gimmick.
Insisto. No lo veo —y nunca mejor dicho—. De hecho, cuanto más pienso en este tipo de dispositivo, más creo que como mucho será otro complemento más de nuestro móvil. Como los auriculares o el reloj inteligente. Bien usarlos para escenarios y cosas ocasionales, pero no me veo gastando 1.000 o 2.000 dólares en unas (si es que acaban costando eso, que igual es hasta un precio absurdo). No tengo nada claro que efecto red puede haber aquí, qué es lo que facilita y nos conecta más y lo convertirá en algo que todos queramos usar. ¿Jugar a Pong, quizás? No lo creo.
Es algo como decía que le ocurre también a Apple con las Vision Pro. Apenas las mencionó en el evento de presentación de los iPhone 16, y parece un producto que están dejando de lado.
Aquí, por cierto, una idea paralela: se ha confirmado que Jony Ive está trabajando con OpenAI en un dispositivo hardware de IA, ¿y sabéis qué? Estoy seguro de que serán unas gafas. Unas que probablemente copiarán cosas de las Vision Pro o Project Orion, pero que sobre todo harán una cosa.
Molar.
Eso es lo que siempre ha intentado hacer Ive. Que sus productos molen, y que tú moles más al llevarlos o usarlos o simplemente tenerlos. Y entiendo que esa es aquí la máxima. Como siempre con él, la forma sobre la función y no al revés.
Diría además que esas gafas de OpenAI no serán tan ambiciosas en eso de querer plantear esa realidad aumentada. Apuesto por unas gafas que se centrarán en que hablemos con ellas y que quizás también ofrezcan respuestas y datos a partir de lo que vemos con ellas. No tanto proyectar información sobre la realidad como «ver» esa realidad y poder interactuar con ella, pero con la voz y el audio como protagonistas.
Eso permitiría (creo) abaratar costes y centrarse precisamente en hacer que esas gafas de IA sean molonas y te diferencien y quieras comprarla para pertenecer a la élite de los ñafotas de la IA.
Que igual me equivoco, claro. Pero me da que por ahí pueden ir los tiros. El tiempo dirá.
Actualización (15/12/2024): tres meses después he cambiado de idea.