Tecnología

No necesitamos gráficas tan potentes

Dicen las malas lenguas que las inminentes gráfica NVIDIA GeForce RTX 4090 tendrán un consumo de unos 450 W. La RTX 3090 consume unos 350 W, y ya es una bestia parda, así que la pregunta es obvia.

¿Necesitamos tanto?

Pues quizás no. Esa gráfica será, dicen, el doble de potente que su predecesora, así que multiplicar por dos el rendimiento cuando el consumo sube un 28% (esos 100 W) parece buen negocio. Habrá que ver los precios —seguramente astronómicos— pero aquí la cuestión no es si esas gráficas molarán o no (sí). Ni siquiera si son caras o no (sí). La cuestión es que quizás nos estamos pasando.

Comenté algo similar en el pasado. Lo de que igual no necesitamos tanto. Lo dije por ejemplo con los M1 Ultra, pero en el pasado también dije algo que sonaba a «deberíamos de hacer tecnología que no aprovechamos» y muchos me pusisteis firmes. «No JaviPas», decíais, «no se trata de no hacerla, sino de que quizás la aprovecharemos en el futuro».

Eso es de hecho lo que ha pasado con la tecnología en muchos campos. Ahora me parece que el estándar PCIe 7.0 es hasta demasiado rápido, pero es que para cuando llegue seguro que le sacamos provecho. Y lo mismo pasó hace tres décadas cuando los ordenadores de 16 bits dejaron atrás a aquellos Spectrum o C64 de 8 bits para siempre. Y por supuesto, los acabamos necesitando, como los que vendrían después.

Con las gráficas, la verdad, no lo tengo tan claro. No al menos en estos momentos. Ya jugamos estupendamente, y aunque mola jugar en 4K a todo trapo y con nivel de detalle Ultra, tampoco es que en muchos juegos dé tiempo a fijarse en detallitos: tú estás intentando cargarte al tío de la AK-47, no mirando cómo tu cara se refleja en el charco mientras el agua vibra tras tus pisadas con un realismo alucinante.

El caso es que igual en TechRadar tienen razón. Igual estamos borrachos de potencia y la resaca va a ser brutal. Teniendo en cuenta cómo estamos en términos de precios de luz y consumos energéticos, añadir más leña al fuego quizás no sea buena idea. Es cierto que probablemente unos cuantos millones de usuarios jugando de cuando en cuando al ‘Battlefield 2042’ a todo trapo con sus RTX 4090 tampoco cambien mucho el panorama, pero es que se puede disfrutar tanto o más de ese juego (y del resto) con mucho menos.

Y ahí está el quid de la cuestión, como dicen en esa publicación. En que todas esas gráficas alucinantes que se nos vienen encima tanto de NVIDIA como de AMD, todos esos procesadores y todos esas battlestations que veremos por ahí serán en muchos casos una oda a la exageración. Que sí, que algunos le sacarán partido, pero la inmensa mayoría no, y cuando lo que desaprovechas agrava el problema del consumo energético o el cambio climático, igual deberíamos cortarnos un pelo. E igual deberían cortárselo los fabricantes (imposible).

Con lo bien que estábamos jugando al Match Day II en el C-64. Sin estas malditas olas de calor que parece que vienen para quedarse. Ays.

Pero claro, el progreso es el progreso. Luces y sombras.

Maldición.

¿Quieres recibir un correo de aviso cuando publique nuevas entradas?

Standard

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

13 comentarios en “No necesitamos gráficas tan potentes

  1. Manuel dice:

    A mi parece que las RTX 3090 no estan pensadas para jugar. Con sus 24 GB de VRam su publico objetivo son mas bien las aplicaciones gráficas que usan Cuda y sacan partido de esa cantidad de ram, como Davinci Resolve o el soft de 3D.
    El consumo es importante, pero si me permite hacer la exportación de mi proyecto a 4K en la mitad de tiempo, bienvenidas sean estas tarjetas.
    Yo no he jugado nunca, sin embargo solo me interesan las gráficas mas potentes, y cuanto mas mejor.

    • Pocas apps sacan partido de esa gráfica, y diría que ni siquiera con DaVinci ganas mucho, pero ciertamente ayudan a recortar tiempos en algunos escenarios. Pero yo diría que la mayoría de la gente que las compra es para jugar (o minar, hasta no hace mucho).

      • Manuel dice:

        Veo que desconoces el tema. Davinci Resolve toma partido de múltiples gráficas, en cuanto a cálculo, sin embargo no puede sumar la ram de las gráficas. Si usas dos tarjetas con 8 GB, DR solo ve 8 GB, no 16. De ahí la importancia de los 24 GB de la 3090. Y en resoluciones altas con muchos nodos, esa ram extra se nota bastante. En el foro de BMD es bastante habitual el error de falta de memoria cuando trabajas con altas resoluciones (>4K), y la única solución es mas ram. Yo con mi 3090 nunca lo he sufrido.
        En cuanto a su uso en juego, no lo digo yo, que no juego, es lo que leo en las web especializadas, que los 24 GB no aportan practicamente nada, y por tanto mejor una 3080. Otra cosa es lo que la gente hace.

      • Ah, pues gracias por el apunte, bueno saberlo Manuel. ¿Hay muchos editores de vídeo que tú sepas que elijan máquinas Windows con GPUs potentes como tú? Creí que era un campo conquistado por Apple, pero desconozco el segmento e igual es solo una (errónea9 percepción.

  2. joanra dice:

    Recién he comprado la AMD 6750 XT por 600 euros y no podría estar más contento. Creo que las series 3080 y 3090 no están destinadas a jugar sino a otra cosa. La gran asignatura pendiente en las tarjetas gráficas es justamente la eficiencia energética, a estas alturas los consumos deberían estar por debajo de 120 W en potencias tipo Nvidia 3070.

  3. Manuel dice:

    «¿Hay muchos editores de vídeo que tú sepas que elijan máquinas Windows con GPUs potentes como tú? Creí que era un campo conquistado por Apple…»
    Te respondo por aqui pues no puedo en tu comentario.
    Eso de que Apple domina en el sector de la edición de video profesional no es cierto. Las estaciones de trabajo basadas en Windows tienen mucha presencia en el sector edición online, color grading y VFX. Ten en cuenta que durante muchos años Apple no tuvo un ordenador de sobremesa que pudiera rivalizar con las estaciones Windows en potencia y posibilidades de expanción. Ya con el nuevo Mac Pro (a un precio bastante alto) y ahora con las nuevas soluciones con SoC ARM esto esta cambiando.
    Por ejemplo en el foro de BMD, donde es habitual la configuración hardware en la firma de las entradas, asi a bote pronto, creo que dominan los equipos PC, y en los que se usa MacOS hay mucho hackintosh.
    Los PC/workstations basados en Windows se usan en buen montón de sectores, no solo para jugar.