El martes se celebró la conferencia inaugural del Google I/O 2024, el evento para desarrolladores de Google. Sundar Pichai —se impone cambio de entrenador, señores— bromeaba al final preguntándose cuántas veces había dicho la palabra «AI».
Y en lugar de contarlas, hizo algo simpático: le pasó la transcripción de la keynote a Gemini, que le dijo que habían pronunciado esa palabra 120 veces. Luego, para seguir con la broma, la dijo una vez más. Da igual cuántas veces la dijera. Si hay algo que quedó claro durante el evento, fue esto:
Google va perdiendo.
Eso se notó poco a poco, y eso que presentar, presentaron una avalancha de novedades. Empezaron hablando de las mejoras de Gemini 1.5. Permite dar como entrada un conjunto de datos gigante (dos millones de tokens, o sea, cerca de 1,4 millones de palabras), pero ¿sabéis quién podrá usar eso? Los desarrolladores que paguen.
¿Sabéis quién podrá usar GPT-4o? Todo el mundo, y gratis. Los que paguen lo podrán usar más, sí, pero aquí OpenAI gana.
OpenAI 1 – Google 0.
También comentaron que uno podría buscar en Google Fotos por contexto «muéstrame las fotos en las que Lucia aprende a nadar». Que está muy bien, pero eso implica que Google Fotos sabrá aún más sobre tu vida. O que Gemini podrá ayudarte en Google Workspace redactándote correos, siempre y cuando pagues 20 dólares al mes. O usar Gems, que son como asistentes personalizados que no entendí que podían hacer exactamente. Pero de nuevo, nada si no pagabas.
No necesito (creo) mucho eso. ChatGPT y la versión gratuita de Gemini también lo pueden hacer, aunque ciertamente la integración con Gmail no está ahí y la cosa es un poco más artesanal. Meh.
2-0.
También presentaron sus nuevos modelos de IA generativa, Imagen 3 (competidor de Midjourney) y Veo (de Sora). No los puedo probar: solo están disponibles para un grupo «selecto» de creadores, y cuando lleguen lo harán a la plataforma creativa y de desarrollo de pago de Google, Vertex AI. Es cierto que Midjourney es de pago y Sora no está aún disponible públicamente, pero aquí ganan una vez más Midjourney y OpenAI, porque o llevan tiempo funcionando o han mostrado que de momento parecen bastante mejores, sean o no para mediocres.
3-0.
Y qué os diría yo de la evolución de las búsquedas. De esas «AI Overviews» que harán que junto a los resultados normales del buscador podamos abrir un resultado directamente generado por IA. Puede que tengan su aquel —la demo de por qué el disco no sonaba en el tocadiscos era bastante chula—, pero el problema es que nos estamos acostumbrando a sustituir a Google con ChatGPT (u otro chatbot) y olvidando en muchas cosas al buscador que antes nos conquistaba. OpenAI no parece tener aquí de momento nada que contar —había rumores—, pero es que ese buscador de Google sigue estando a medio cocinar. ¿Sabéis quién las podrá usar? Oficialmente los usuarios de EEUU de Google Labs. En realidad las puede usar cualquiera y entiendo que quieran ir despacito y no cagarla, pero esto les está condenando una vez más. Para mí, como digo, ChatGPT u otros buscadores (y aquí incluyo a Gemini, que no está del todo mal) cada vez me gustan más para contestar muchas cosas.
4-0.
Lo que más me gustó con diferencia fue Project Astra, esa iniciativa que hacía básicamente lo mismo que ya hace GPT-4o, pero que lo hacía con un truco adicional: lo mostraron funcionando en unas gafas de realidad aumentada. En la segunda mitad del vídeo aparecen, y es con mucho lo mejor y más llamativo de todo lo que mostró Google. ¿El problema? Que esto ni siquiera está disponible y no está claro cuándo lo estará. Los chicos de OpenAI ya tienen funcionando su tecnología en el iPhone, que ya ha demostrado que puede convertirse en un alucinante profesor particular o un guía para ciegos (y turistas). Qué queréis que os diga.
5-0.
En PCWorld leí una buena columna sobre todos esos lanzamientos. El autor, Mark Hachman, era un poco exagerado, pero expresaba bien sus conclusiones:
«En su mayor parte, lo que Google presentó en Google I/O fue ciencia ficción. En lugar de mostrarnos lo que es el futuro ahora, Google nos mostró lo que podría ser mañana. Es un futuro escondido detrás de la jerga, dentro de las previsualizaciones de los desarrolladores y los experimentos de Google Labs, e incluso entonces, esos experimentos no están programados para comenzar realmente hasta algún momento en el futuro».
Así es. Todo lo que mostró Google está como cogido con pinzas. No está disponible para el gran público novayaaserque. Y lo que está disponible cuesta un congo. No es para nosotros, pobres mortales, sino para empresas y emprendedores que quieran gastar lo que cuesta usar la IA. Que ciertamente consume recursos de computación y energía y eso cuesta dinero, pero… ¿compensará realmente? No lo tengo nada claro. No en el caso de Google, porque ni siquiera dejan probarla bien.
Y mientras, insisto, OpenAI está ahí, mostrándonos que Her ya está con nosotros.
No sé, Google. Más te vale espabilar.
Dos cosas que no sé y no leo a nadie comentando, a ver si alguien por aquí lo sabe: se supone que todo lo que hace chatGPT cuesta toneladas de dinero (en i+D, en almacenamiento, en procesamiento, etc.), pero openAI ofrece un montón de servicios alucinantes gratis. ¿De dónde saca el dinero para ofrecer cada vez más y mejores servicios gratuitos? Y, ¿qué hay de nuestra privacidad con todo esto? Porque vamos a mostrarle nuestras casas, nuestras fotos, nuestros e-mails y documentos, nuestras conversaciones diarias, a nuestros hijos haciendo cosas… ¿qué va a pasar con toda esa información nuestra?
OpenAI está haciendo lo que tantas otras: aprovechar los miles de millones que han invertido en ella (Microsoft la que más, unos 10.000 millones de dólares) captando usuarios y creciendo. Probablemente están perdiendo mucho dinero con la vista puesta en que en el futuro lo ganarán.
En cuanto a la privacidad, puedes ver sus términos, pero acabo a preguntarle a ChatGPT si usa los datos que metemos para entrenar los modelos y deja claro que «As of April 2023, OpenAI does not use the data shared with ChatGPT to train its models».
En resumen: mejor no compartas con ChatGPT documentos privados, sensibles o confidenciales. Por si.
Gracias, es que me estoy temiendo lo peor con los datos que OpenAI está acumulando con el paso del tiempo y su necesidad, que tendrá tarde o temprano, de rentabilizarlos. Porque quién sabe si estamos ante algo que con el tiempo se muestre incluso peor que un TikTok o una Meta, y no veo mucha preocupación en torno a esta cuestión
La duda sobre los datos es simple y la respuesta ya antigua, si el servicio es gratis, el producto eres tu (tus datos).
Siempre es u poco eso, sí.
A mí Google me perdió este año. Entiéndase, en el buscador. (En Gmail y Android soy su esclavo). Simplemente ya no uso Google, sino ChatGPT. (Y, por cierto, no sé por qué sigo pagándolo, porque gpt4o es mucho más ágil que el gpt4 de pago. Supongo que estoy esperando un contragolpe que justifique la suscripción).
Personalmente, no fui capaz de replicar la demo del chaval con el triángulo. No sé cómo se comparte pantalla con chatgpt en tiempo real. Me gustaría saber hacerlo. Y he notado que justamente este tipo de consultas sobre sí mismo se le dan fatal a chatgpt.
Hacía tiempo que no me pasaba por aquí. Cómo me gustan tus análisis, Javipas.
Hombre Uxío, siempre bienvenidísimo, ya sabes que cuando quieras encantado de leas algo y más de que comentes.
Lo de ChatGPT como sustituto del buscador es cada vez más común, y creo que será una evolución natural aunque para algunas cosas yo sigo buscando en Google bastante. Será interesante ver qué pasa.
En cuanto a la demo de las mates en el iPad, que yo sea es una opción que de momento solo está disponible en USA, entiendo que solo en iPad (quizás iPhone) y solo con GPT-4o, pero puede que solo para quienes pagan. Es con la app de ChatGPT para iPadOS, entiendo. Quizás puedas probarlo con VPN, pero no sé cómo exactamente. Si lo logras ya nos contarás, pero desde luego es una aplicación alucinante del chatbot.
Un abrazo!!!