Hace ya tiempo que no paro de hablar de inteligencia artificial. No tanto aquí, donde prefiero abordar otros temas, sino en Xataka, donde casi todos los días publicamos al menos uno o dos artículos sobre esta tecnología.
Es lógico: esto pinta a disrupción. A una que ya lograron el PC, internet o los móviles. Eso no lo digo yo (que también), sino gente mucho más lista y que ha estado metida en esos ajos en las últimas tres o cuatro décadas. Bill Gates decía justo eso hace unos días, por ejemplo, y suele ser bastante cauto con sus predicciones.
Todo se ha acelerado con la aparición de dos grandes fenómenos virales. El primero, el de las IAs generativas de imágenes. DALL·E 2, Midjourney y Stable Diffusion se han convertido en plataformas creativas alucinantes. Imperfectas, eso sí, como precisamente contábamos hoy en Xataka en mi tema al hablar de lo mal que se les da dibujar manos humanas. Y aún así, insisto, alucinantes.
El segundo, por supuesto, el de las IAs conversacionales representadas por ChatGPT. El motor de OpenAI es por ahora el gran protagonista de una escena en la que Google va con pies de plomo con Bard, y en el que Microsoft ha querido hacer justo lo contrario al anunciar y lanzar «Bing con ChatGPT» (aunque es un modelo algo mejorado, ese nombre es bastante apropiado).
Lo curioso es que a los seres humanos nos encantan dos cosas. Primero, fliparnos («Uauh, qué pasada, ¿has visto lo bien que contesta a todo?») y luego, inpepinablemente, criticarlos («Uauh, qué horor, ¿has visto cómo ha metido la pata ChatGPT/Bing/Bard en eso?»).
Con Stable Diffusion y sus competidores ya ocurrió eso mismo. Del asombro inicial muchos se dieron cuenta de que la magia tenía su lado oscuro: la de las imágenes (sobre todo las que tienen derechos de autor) que se usaron indiscriminadamente para entrenar al modelo. El debate detonó alguna que otra demanda que está en marcha y que podría definir este escenario, pero no tengo nada claro que sea posible controlar algo así. Lo vimos con GitHub y su Copilot, que es básicamente un ChatGPT especializado en programar. Ahora estamos viendo cómo a esa fascinación por ChatGPT o Bing se ve enfrentada a su mayor limitación:
Estos motores fallan más que una escopeta de feria.
Es algo que no paramos de ver los últimos días. No solo es que fallen porque sí: es que además los usuarios estamos poniéndoles todas las zancadillas que podemos para forzarles a decir cosas que no deberían y a convertirse en versiones malévolas (o al menos gamberras) de las originales.
En los últimos días he contado cómo a ChatGPT le sacaron su hermano gemelo gamberro, DAN, cómo Bard metió la pata (más o menos) con su demo inicial, cómo ambos contaminan, cómo «torturaron» a Bing con ChatGPT para que confesara sus «leyes de la robótica«, cómo estos motores están también comenzando a usarse para el mal y como Bing puede llegar a desvariar bastante. ¿Cuál es el hilo conductor de todas esas noticias?
Que ChatGPT y Bing están muy lejos de ser perfectos.
Es un discurso que se está viendo mucho por ahí. Lo comentábamos hoy entre los editores: parece que hay una corriente en medios —y nosotros estamos un poco metidos— de poner a caer de un burro a la inteligencia artificial. De soltar aquello de «no os flipéis».
Esos mensajes han llegado también de gente bastante potente en el ámbito tecnológico. Yann Le Cun, responsable de la IA de Meta, decía que ChatGPT «no es nada revolucionario, aunque está bien hecho», y Vinton Cerf —cocreador del protocolo TCP/IP— advertía de los problemas éticos de usarlo. Estos días leía también una entrevista a Kazuhiko Nishi, creador del MSX —me temo que eso, al menos en este ámbito, le pone un escalón por debajo de mis otros dos citados—, que decía también que «ChatGPT sigue siendo muy tonto».
Y luego están las críticas de otra gente en medios diversos. En The Atlantic escribían poco después de su aparición que «ChatGPT es más tonto de lo que piensas«, y algo parecía soltaban en Mashable, Wired o en El País, donde contaron como Bing perdía los papeles con Pedro Sánchez.
A ver. Es cierto. Estos motores, insisto (otra vez) se equivocan y se inventan cosas. Esta mañana yo he tenido una conversación bastante estúpida con Bing a raíz de la hora. Me la dijo mal desde el principio y luego no paró de tratar de defender que en todo momento la había dicho bien. Es una lástima que debajo de cada mensaje no aparezca la hora del mensaje, pero da igual: creedme, que soy humano, porras. Bing con ChatGPT metió la pata (otra vez). Todo eso me lleva al corolario de esta reflexión.
Todo esto no importa (mucho).
Así es. Y no lo hace porque esta tecnología está en pañales. Lo que se ha conseguido en apenas unos meses —en realidad, unos pocos años, que esto de los Large Language Model viene de algo más atrás— es sencillamente increíble, y que ChatGPT o metan la pata es normal.
De hecho aquí me ha gustado mucho el hilo de Steven Sinofsky, que fue directivo de Microsoft durante años y que suele hacer comentarios estupendos y coherentes. Aquí la primera parte del hilo:
Y debió animarse o se le quedó incompleto, porque aquí está la segunda:
En esos mensajes hay uno especialmente relevante para esta reflexión. Este, en el que comenta cómo «la primera década del PC fue literalmente la de «hacerlo funcionar». ¿Con internet? Seguridad, enlaces rotos, etc».
Es una buena analogía. Los PCs son ahora máquinas estupendas y maduras, pero durante años los estándares bailaban porque aquella era la fase de desarrollo, lo mismo que con una internet que por mucho que nos alucinara, era imperfecta e incompleta. Aún hoy puede considerarse así —de ahí que ideas como la de esa descentralizada Web 3.0 tengan su encanto—, pero como decía, durante los primeros años internet era bastante cutre (¿Geocities? ¡Argh!). Y acordaos de los móviles, chicos. No ya de los que precedieron al iPhone, sino de los primeros años de Android compitiendo con estos. Las aplicaciones, los servicios, la conectividad y las cámaras eran bastante castaña. Nos flipaban, pero también eran totalmente imperfectos. Hoy no se puede decir que sean caros perfectos, pero la cosa ha mejorado un porrón.
Así que queridos lectores, haced caso a Sinofsky y a ese primer mensaje. Los LLMs —la base de ChatGPT— «representan el primer avance tecnológico que tiene el potencial de desplegarse de forma transparente a 7.000 millones de smartphones y por tanto puede ser un cambio de plataforma». O lo que es lo mismo: una disrupción.
Ni metaverso, ni criptos, ni leches. Esto va a ser la pera. Que sí, que meten la pata, que se inventan cosas, que son imprecisos, que contestan mal, que se pueden usar para el mal (como el PC, internet o el móvil). Todo eso da igual, porque esto es solo el principio. Insisto.
Esto va a ser la pera. Dadle tiempo al tiempo.
¿Seguro que te dijo la hora mal? Por lo que he podido ver, te dijo la hora en el huso GMT, que es una hora menos que la hora en España.
Por lo que he podido ver, le dices que tu hora está en CEST, que es dos horas más que la GMT, pero eso es en verano y ahora es invierno.
Vale, ya veo; el problema es que se hace un lío con los minutos 🙂
Eso es. El problema estaba en los minutos. No debe tener reloj interno, o si lo tiene no le hace mucho caso.
Pues la verdad, a mi todo esto me asusta; pero no en plan «uuuhhh las maquinas van a pensar por si solas y destruirán a la raza humana» (que también), sino por la educación y las creencias en «verdades univerinventadas». Y no es que con lo de la educación me ponga en modo «abuelo cebolleta» y piense que hay que erradicarlo de los centros educativos (que tambien) sino con la posibilidad de que las personas se cierren en sus aseveraciones únicas, me explico. Internet es la mejor revolucion que ha vivido la raza humana (hasta ahora), pero el mal uso que se empieza a hacer de él (ella) esta creando borregos digitales. Mucha gente cree a pies juntillas lo que le devuelve Google (o el que sea), y ahora por lo menos, te devuelve no menos de 10 resultados (en primera pagina, digo) que pueden ser contrarios unos a otros y que el borrego digital terminara aceptando el que mas se acerque a sus «creencias» o tribu, pero, ¿y cuando solo haya uno (llámese chat GPT o HAL 9000) que de una respuesta y que todos demos por buena? Los borregos digitales no pondrán en duda lo que diga su nuevo mesías, entre otras cosas porque solo habrá esa palabra, «palabra de HAL, palabra de Dios». Que lleguemos a eso sí me da miedo y no me cabe duda de que llegaremos; mi consuelo es que yo no lo veré, o si lo veo, me importara todo tan poco que será como no verlo.
Esa es una amenaza, sí, pero hay una realidad aquí Javier, o al menos eso creo yo: la gente se cree lo que quiere creerse. Da igual los argumentos que les des. Somos cabezotas y solemos creer tener la razón absoluta, así que aunque el chatbot nos diga algo, igual no acabamos de creérnoslo. Si son cosas que no sabes sí, claro, y ahí está el peligro: en que las respuestas sean incorrectas y/o imprecisas.
la disrupción creo que estará cuando le pongan cuerpo, ojos, oidos, y movilidad a esa inteligencia y digan que es un asistente personal y que estará pendiente de cada uno de los humanos jeje hoy no lo veo muy lejano… y dado que la curva es exponencial puede que en menos de 10 años, asi que será divertido de ver
10 años me parecen muy pocos para eso, pero desde luego eso también es factible, claro.
Pingback: Gepetequé | Incognitosis