
La joven compañía TinyCorp, conocida en los círculos del software libre y la inteligencia artificial, ha decidido lanzar un órdago a AMD: quiere que el fabricante diseñe una tarjeta gráfica basada en la futura arquitectura RDNA 5 con nada menos que 96 GB de memoria de vídeo y que, además, se venda por unos 2.500 dólares la unidad. Una petición que, sobre el papel, suena tan atractiva para el sector de la IA como complicada de materializar para la industria del hardware.
Con esta idea sobre la mesa, TinyCorp aspira a levantar un centro de datos dedicado a IA alimentado con miles de GPUs de este tipo, buscando así una alternativa más asequible al dominio actual de NVIDIA en el segmento profesional. El movimiento encaja en la tendencia global hacia el abaratamiento del cómputo para modelos de IA de gran tamaño, aunque se enfrenta de lleno a la realidad de los costes de producción y a la escasez de componentes avanzados.
Un centro de datos de 5 MW sustentado en 3.000 GPUs RDNA 5
La propuesta de TinyCorp gira en torno a la compra de un edificio valorado en torno a 11,5 millones de dólares, con capacidad para suministrar hasta 5 megavatios de potencia eléctrica. Ese espacio se destinaría a alojar una infraestructura basada en unas 3.000 tarjetas gráficas RDNA 5, siempre que AMD acceda a fabricar la versión de 96 GB de VRAM que reclama la startup.
El plan de negocio es relativamente sencillo de explicar: aprovechar este gran despliegue de hardware para ofrecer servicios de cómputo de inteligencia artificial a terceros, monetizando la potencia disponible mediante la venta de “tokens” de inferencia en plataformas como OpenRouter y similares. Según los cálculos difundidos por la propia empresa, esta infraestructura podría generar unos 5,4 millones de dólares en ingresos, siempre que el coste por tarjeta se mantenga en ese entorno de 2.500 dólares.
La clave para TinyCorp es contar con una GPU de “consumo avanzado” capaz de manejar modelos de lenguaje de gran tamaño sin tener que recurrir a las carísimas soluciones profesionales de NVIDIA. En la práctica, lo que persiguen es que una tarjeta pensada para el mercado entusiasta rinda lo bastante bien como para sustituir a productos que ahora mismo cuestan entre tres y cuatro veces más, manteniendo el consumo y la inversión inicial bajo control.
Esta visión entronca con una tendencia cada vez más visible también en Europa: reutilizar o adaptar hardware de juego para tareas de IA en centros de datos pequeños y medianos, evitando así las cifras prohibitivas asociadas a las GPUs puramente empresariales. Sin embargo, el requisito de contar con 96 GB de VRAM en una sola tarjeta coloca el listón en un nivel que hoy, a precios actuales, ronda lo imposible.
Una GPU de 96 GB de VRAM a precio “de calle”: reto técnico y económico
La cifra de 96 GB de memoria para una tarjeta orientada (al menos sobre el papel) al mercado de consumo resulta llamativa. Ahora mismo, solo algunas gráficas profesionales como la NVIDIA RTX 6000 Ada / RTX 6000 de gama workstation alcanzan un volumen similar de VRAM, con precios que se mueven habitualmente entre los 8.000 y los 10.000 dólares en el canal internacional. Pretender un producto con características cercanas a ese nivel a 2.500 dólares multiplica las dudas sobre su viabilidad.
Desde el entorno de TinyCorp se ha deslizado la idea de que RDNA 5 podría apoyarse en memoria GDDR7 combinada con un bus de 512 bits y módulos de alta densidad de 3 GB, incluso recurriendo a configuraciones de doble cara en el PCB, de forma similar a lo que se ha visto en ciertas tarjetas basadas en la arquitectura Blackwell en el ecosistema de NVIDIA. La teoría técnica existe, pero la práctica choca con el precio y la disponibilidad de este tipo de memorias.
En la actualidad, producir módulos de DRAM de alto rendimiento sigue siendo caro, y la industria de semiconductores arrastra todavía los efectos de años de tensiones en la cadena de suministro. Aunque se espera que RDNA 5 llegue al mercado alrededor de 2027, los analistas apuntan a que integrar 96 GB en una tarjeta que no se comercialice como producto puramente profesional es, hoy por hoy, un escenario muy optimista.
Para AMD, aceptar la propuesta tal y como la plantea TinyCorp supondría asumir un margen muy ajustado o prácticamente inexistente, a menos que se produzca una caída drástica en los costes de la memoria GDDR7 y mejore de forma notable la disponibilidad de estos chips. En el contexto europeo, donde muchos centros de datos y laboratorios de investigación buscan reducir su dependencia de NVIDIA, una tarjeta así resultaría especialmente interesante, pero el cálculo financiero sigue siendo el gran obstáculo.
Más allá del hardware, la jugada de TinyCorp también tiene una dimensión estratégica: presiona públicamente a AMD para que ofrezca una alternativa potente y con mucha memoria en el rango de precio en el que hoy se mueven las GPU de gama entusiasta, obligando al fabricante a posicionarse en el debate sobre cómo democratizar el cómputo para IA sin disparar los costes.
Uso de GPUs “de consumo” para IA y choque con la realidad del mercado
Otro punto llamativo del plan de TinyCorp es el énfasis en emplear tarjetas gráficas de consumo —las mismas gamas que utilizan muchos jugadores en casa— para ejecutar tareas de entrenamiento e inferencia de IA que tradicionalmente se reservan a modelos profesionales. Desde un punto de vista de rentabilidad, la lógica es clara: si una GPU “barata” puede hacer el trabajo de una profesional diez veces más cara, los márgenes se disparan.
En los últimos años han surgido múltiples proyectos, también en España y en otros países europeos, que se han apoyado en GPUs de gaming para arrancar iniciativas de IA con presupuestos ajustados. Sin embargo, la gran barrera aparece cuando los modelos crecen hasta decenas de miles de millones de parámetros y necesitan cantidades enormes de memoria. Ahí es donde los 96 GB que pide TinyCorp marcan la diferencia, porque permitirían cargar modelos muy grandes en una sola tarjeta o en un número reducido de ellas, reduciendo cuellos de botella.
El problema es que el mercado no se adapta tan rápido a este tipo de demandas. Las fábricas de chips y de memoria tienen ciclos de planificación largos, y priorizan productos con mayor retorno asegurado, como las GPUs profesionales de alto margen. Introducir una variante “especial” para un cliente relativamente pequeño, aunque mediático, obliga a replantear líneas de producción, contratos de suministro y acuerdos con otros socios.
Además, el ecosistema de IA se ha convertido en una auténtica carrera armamentística donde NVIDIA mantiene una posición muy dominante. Su catálogo de GPUs profesionales ofrece memorias elevadas, software muy pulido y un ecosistema maduro, lo que dificulta que alternativas basadas en hardware de consumo logren hacerse un hueco relevante más allá de nichos concretos o de proyectos que buscan, precisamente, minimizar costes a toda costa.
En este contexto, el planteamiento de TinyCorp no deja de ser una forma de poner sobre la mesa una reivindicación que comparten muchos desarrolladores: acceder a más memoria y potencia sin pagar precios desorbitados. La cuestión es si los fabricantes de hardware están dispuestos —y pueden— responder a ese mensaje sin comprometer su propia rentabilidad.
Relación tensa con AMD y el plan B de fabricar sus propias placas
La historia entre TinyCorp y AMD no viene de cero. En el pasado, la startup ha protagonizado cruces públicos de declaraciones con el fabricante por problemas de drivers, errores en el software y la falta de soporte formal para utilizar GPUs domésticas en entornos de inteligencia artificial profesional. Esta relación, algo turbulenta, no ha impedido que ahora vuelvan a llamar a la puerta de AMD, pero sí añade un componente adicional de fricción.
Desde TinyCorp se ha llegado a insinuar que, si AMD no fabrica la versión de 96 GB que ellos piden, la compañía estaría dispuesta a diseñar y ensamblar sus propias placas utilizando únicamente el silicio proporcionado por AMD. Es decir, adquirir los chips gráficos “desnudos” y montar alrededor de ellos todo el resto del hardware necesario: PCB, memoria, sistema de alimentación y refrigeración.
Llevar a cabo algo así no es imposible, pero implica unos niveles de inversión, ingeniería y certificación considerables, más propios de un gran integrador de hardware que de una startup enfocada al software y los servicios de IA. En todo caso, la mera amenaza funciona como una forma de presión para que AMD contemple, al menos, la viabilidad de esa variante de 96 GB dentro de su futuro catálogo RDNA 5.
De fondo aparece un debate que también afecta al mercado europeo: hasta qué punto las empresas de IA pueden —o deben— depender de unos pocos grandes proveedores de GPU. Proyectos como el que propone TinyCorp alimentan la idea de un ecosistema más diverso, en el que distintos actores puedan adaptar el hardware a sus necesidades concretas, aunque la realidad industrial imponga límites muy claros.
Mientras tanto, la posición oficial de AMD sobre una GPU RDNA 5 de 96 GB a 2.500 dólares sigue siendo una incógnita. No hay confirmación pública de que se vaya a fabricar un modelo con estas especificaciones, y el calendario estimado para la llegada de RDNA 5 deja un amplio margen en el que pueden cambiar tanto los costes de la memoria como la demanda del mercado de IA.
Al final, la iniciativa de TinyCorp ilustra hasta qué punto la demanda de cómputo accesible para IA está tensionando el mercado de las tarjetas gráficas. Pedir a AMD una GPU RDNA 5 con 96 GB de VRAM a precio relativamente contenido refleja la presión que startups, centros de datos y laboratorios sienten frente al dominio de NVIDIA y al encarecimiento de las soluciones profesionales, pero también choca con una industria del hardware que se mueve a otro ritmo y con márgenes mucho más rígidos de lo que muchos desearían.
from Actualidad Gadget https://ift.tt/GbdTWOC
via IFTTT





No hay comentarios:
Publicar un comentario