news

NVIDIA compra Groq por $20B: el chip que hace ChatGPT 10x mas rapido

La adquisicion mas grande en la historia de NVIDIA marca el inicio de la era de inferencia. Te lo explico facil: por que pagaron $20 mil millones por una startup de 300 empleados.

Carlos VegaCarlos Vega-29 de enero de 2026-12 min de lectura
Compartir:
Terminal de computadora con codigo representando chips de procesamiento de IA

Foto de Gabriel Heinzer en Unsplash

En resumen

NVIDIA acaba de pagar $20 mil millones por Groq, la startup que creo un chip capaz de ejecutar modelos de IA 10 veces mas rapido que las GPUs tradicionales. El fundador de Groq, que abandono la secundaria y creo los TPUs de Google como proyecto de 20% de su tiempo, ahora trabaja para Jensen Huang. Te explico que es un LPU y por que esto cambia todo.

La compra que cambia el juego de la IA

Imagina que tienes el coche mas rapido del mundo. Ganas todas las carreras, dominas el mercado, y de repente aparece una startup con un motor que va 10 veces mas rapido. ¿Que haces? Lo compras.

Eso es exactamente lo que acaba de hacer NVIDIA. El 24 de diciembre de 2025, Jensen Huang firmo un cheque de $20 mil millones de dolares para adquirir Groq, una empresa de apenas 300 empleados que habia desarrollado algo que NVIDIA no tenia: un chip disenado exclusivamente para ejecutar modelos de IA a velocidades que las GPUs tradicionales no pueden alcanzar.

Te lo explico facil: mientras las GPUs de NVIDIA son como atletas completos que hacen de todo bien, el LPU de Groq es como un velocista especializado que solo hace una cosa, pero la hace mejor que nadie.

Y esa cosa es inferencia, el proceso de ejecutar modelos de IA ya entrenados. Es lo que pasa cada vez que le preguntas algo a ChatGPT, cada vez que Copilot te sugiere codigo, cada vez que un coche autonomo decide frenar.

Que es un LPU y por que importa

Antes de entrar en los numeros del acuerdo, necesitas entender que hace especial a Groq. Porque sin esto, la historia no tiene sentido.

El problema que Groq resolvio

Las GPUs de NVIDIA fueron disenadas originalmente para videojuegos. Con el tiempo, resultaron ser excelentes para entrenar modelos de IA porque pueden hacer muchos calculos en paralelo. Pero tienen un problema cuando se trata de inferencia en tiempo real: necesitan mover datos constantemente entre el chip y la memoria externa.

Imagina que eres un chef cocinando. Si tu nevera esta en la cocina (memoria en el chip), puedes cocinar rapido. Pero si tu nevera esta en el garaje (memoria externa), cada vez que necesitas un ingrediente tienes que caminar hasta alla. Eso es lo que les pasa a las GPUs con la inferencia.

La solucion de Groq: todo en el chip

Jonathan Ross, el fundador de Groq, decidio crear un chip donde toda la memoria esta dentro del procesador. Nada de viajes al garaje. Todo queda en la cocina.

El resultado es un chip llamado LPU (Language Processing Unit) con estas caracteristicas:

Especificacion Groq LPU NVIDIA H100
Memoria 230MB SRAM (en el chip) 80-96GB HBM (externa)
Ancho de banda interno 80 TB/s 3.35 TB/s
Velocidad ventaja 24x mas rapido internamente Base de comparacion
Consumo energia 240-375W ~700W

El truco esta en ese ancho de banda interno. Los datos se mueven 24 veces mas rapido dentro de un LPU que dentro de una GPU. Eso se traduce directamente en velocidad de respuesta.

Los numeros que convencieron a NVIDIA

Cuando ejecutas el modelo Llama 70B (el que usa Meta para muchas cosas), esto es lo que pasa:

Metrica Groq LPU NVIDIA H100
Tokens por segundo 280-300 60-100
Con tecnicas avanzadas 1,660+ ~200
Tiempo primera respuesta 0.2 segundos 0.5-1.0 segundos
Energia por token 1-3 Joules 10-30 Joules

Lo que nadie te cuenta es que esa diferencia de velocidad no es solo "bonita". Es la diferencia entre un chatbot que responde instantaneamente y uno que te hace esperar. Es la diferencia entre un robot que reacciona en tiempo real y uno que llega tarde a la fiesta.

La historia de Groq: de Google a NVIDIA

Jonathan Ross: el desertor escolar que creo los TPUs

La historia de Groq empieza con su fundador, y es una historia que parece sacada de una pelicula.

Jonathan Ross abandono la preparatoria porque se aburria. Se convirtio en el primer estudiante de licenciatura en su universidad autorizado a tomar cursos de doctorado. Luego "se graduo exitosamente abandonando".

En 2011 entro a Google como ingeniero de software. Dos anos despues, en su 20% de tiempo libre (el programa famoso de Google donde puedes trabajar en proyectos personales), empezo a disenar un chip especializado para machine learning.

Ese proyecto se convirtio en el TPU (Tensor Processing Unit), el chip que hoy alimenta mas del 50% de la infraestructura de computo de Google. Cada vez que usas Google Search, Google Photos, o YouTube, estas usando algo que empezo como proyecto de fin de semana de Jonathan Ross.

En 2016, Ross dejo Google para fundar Groq con la idea de hacer algo aun mas especializado: un chip disenado desde cero para inferencia de IA, sin los compromisos de un chip de proposito general.

De startup a unicornio a adquisicion

La trayectoria de Groq fue rapida:

Ano Evento Valoracion
2016 Fundacion -
2017 Seed ($10M de Chamath Palihapitiya) -
2021 Serie C ($300M) $1B+ (unicornio)
2024 Serie D ($640M) $2.8B
2025 Serie E ($750M) $6.9B
2025 Adquisicion NVIDIA $20B

En total, Groq levanto $1.75 mil millones de inversores como BlackRock, Samsung, Cisco y Tiger Global antes de ser adquirida.

Los clientes que validaron la tecnologia

Groq no era solo promesas. Ya tenia clientes de peso:

  • Meta: Proveedor oficial de inferencia para Llama API
  • IBM: Partnership con watsonx
  • Dropbox, Volkswagen, Riot Games, Canva, Robinhood
  • Arabia Saudita: Contrato de $1.5 mil millones para un data center en Dammam
  • 1.9 millones de desarrolladores usando GroqCloud

Cuando tienes a Meta usando tu chip para su API de IA, claramente hiciste algo bien.

Anatomia del acuerdo: $20 mil millones

La estructura que evita reguladores

Aqui viene la parte interesante. NVIDIA no compro Groq de manera tradicional. El acuerdo esta estructurado de una forma muy especifica:

Aspecto Detalle
Tipo de acuerdo Licencia no exclusiva + acqui-hire
Pagos 85% upfront, 10% mediados 2026, 5% fin 2026
Empleados ~90% se van a NVIDIA
Groq como empresa Sigue existiendo tecnicamente
GroqCloud Continua operando "independiente"

Jensen Huang fue muy cuidadoso con las palabras:

"Aunque estamos agregando empleados talentosos a nuestras filas y licenciando la propiedad intelectual de Groq, no estamos adquiriendo Groq como empresa."

El truco esta en esa frase. Al estructurarlo como "licencia + contratacion" en lugar de "adquisicion", NVIDIA intenta evitar el escrutinio antimonopolio que mato su intento de comprar ARM por $40 mil millones en 2022.

Por que $20 mil millones tiene sentido

Puede parecer mucho pagar $20B por una empresa de 300 personas, pero hagamos las cuentas:

  • Ingresos de Groq 2025: ~$500 millones proyectados
  • Multiplo: ~40x ingresos (alto pero no absurdo para IA)
  • Adquisicion anterior mas grande de NVIDIA: Mellanox por $7B en 2019
  • Lo que gana NVIDIA: Tecnologia de inferencia que no tiene, talento, clientes

Para contexto, NVIDIA genera $35+ mil millones por trimestre. $20 mil millones es lo que ganan en menos de 2 meses. Y con esto compran el liderazgo en un mercado que va a explotar.

El mercado de inferencia: por que NVIDIA tenia que actuar

El cambio de paradigma

Hasta ahora, el negocio de chips de IA era principalmente entrenamiento: crear los modelos. NVIDIA domina ese mercado con ~90% de participacion.

Pero algo esta cambiando:

Ano Entrenamiento Inferencia
2023 67% 33%
2026 (proyectado) 34% 66%

El mercado de inferencia va a ser el doble que el de entrenamiento para fin de 2026. Y en inferencia, las GPUs de NVIDIA tienen competencia seria.

Los competidores que preocupaban a NVIDIA

Antes del acuerdo, NVIDIA enfrentaba amenazas reales en inferencia:

  • Groq: LPUs 10x mas rapidos
  • Cerebras: Chips del tamano de una oblea completa
  • Sambanova: Arquitectura dataflow
  • AMD: MI300X con 192GB de memoria
  • Google: TPUs evolucionando constantemente
  • AWS: Trainium e Inferentia

Al comprar Groq, NVIDIA elimina al competidor mas peligroso y adquiere su tecnologia. Es un movimiento defensivo y ofensivo al mismo tiempo.

La integracion: que viene despues

Rubin Platform (2026)

NVIDIA planea integrar la tecnologia de Groq en su proxima plataforma llamada Vera Rubin, que llega a finales de 2026:

Componente Detalle
Proceso TSMC 3nm
CPU Vera (88 nucleos ARM)
Memoria HBM4 con 22 TB/s
Componente Groq "LPU strips" / Rubin CPX
Velocidad inferencia 500-800 tokens/segundo

Los primeros racks con tecnologia Groq se esperan para Q3-Q4 de 2026.

El mensaje de Jensen Huang

"Planeamos integrar los procesadores de baja latencia de Groq en la arquitectura de fabrica de IA de NVIDIA, extendiendo la plataforma para servir una gama aun mas amplia de cargas de trabajo de inferencia de IA y tiempo real."

En otras palabras: NVIDIA quiere que puedas hacer todo con sus chips. Entrenamiento con GPUs, inferencia con LPUs, y todo integrado en un solo ecosistema.

Impacto en el mercado

AMD: el mas afectado

AMD habia pasado todo 2025 posicionando sus chips MI350 como alternativas para inferencia. Ahora enfrenta una NVIDIA con la mejor tecnologia de entrenamiento Y la mejor tecnologia de inferencia.

"Un golpe devastador", dijo un analista de Bernstein.

AMD todavia tiene su partnership con OpenAI para entregar 6GW de chips MI450, pero la propuesta de valor se complico significativamente.

Intel: mas problemas

La linea Gaudi de Intel, que se comercializaba como alternativa economica para inferencia, pierde atractivo cuando NVIDIA puede ofrecer una solucion integrada.

Startups de chips: consolidacion

El mensaje para el resto del ecosistema es claro: si creas algo que NVIDIA necesita, te compraran. Si no, buena suerte compitiendo contra un gigante que ahora tiene todo.

Reaccion de Wall Street

Las acciones de NVIDIA subieron 11% en los 6 dias posteriores al anuncio. Analistas de Bank of America subieron su precio objetivo a $245.

Stacy Rasgon de Bernstein lo resumio asi:

"Parece estrategico en naturaleza para NVIDIA mientras aprovechan su cada vez mas poderoso balance para mantener dominio en areas clave."

El elefante regulatorio

La sombra de ARM

En 2022, la FTC demando para bloquear la adquisicion de ARM por NVIDIA. El caso termino con NVIDIA abandonando el intento.

Las razones citadas entonces:

  • NVIDIA obtendria informacion competitivamente sensible
  • Socavaria incentivos para innovacion
  • Demasiada concentracion de poder

Por que este acuerdo es diferente (segun NVIDIA)

Aspecto ARM (fallido) Groq (actual)
Estructura Adquisicion directa Licencia + acqui-hire
Groq sigue existiendo N/A Si (tecnicamente)
Exclusividad Total "No exclusiva"

El argumento de NVIDIA: no estamos comprando la empresa, solo licenciando tecnologia y contratando gente. Groq sigue existiendo. No hay monopolio.

Los escepticos

Expertos legales no estan convencidos:

"Pagar $20 mil millones se parece sospechosamente a un precio de adquisicion. Si la FTC determina que el acuerdo fue estructurado especificamente para evitar revision antimonopolio, podrian buscar deshacerlo o imponer penalidades severas."

El hecho de que el 90% de los empleados de Groq se vayan a NVIDIA hace que la "independencia" de Groq parezca una ficcion legal.

Lo que esto significa para ti

Si usas herramientas de IA

Buenas noticias: la inferencia va a ser mas rapida y mas barata. Cuando ChatGPT, Claude o cualquier otro modelo use infraestructura NVIDIA-Groq, las respuestas seran practicamente instantaneas.

Si desarrollas con IA

GroqCloud seguira existiendo (por ahora), pero la integracion con el ecosistema CUDA de NVIDIA hara que sea mas facil construir aplicaciones de IA en tiempo real.

Si inviertes en tecnologia

NVIDIA acaba de eliminar a su competidor mas peligroso en inferencia. Su dominio del mercado de chips de IA es ahora aun mas completo.

Si te preocupa la concentracion del mercado

Este es el tercer intento de NVIDIA de consolidar poder (despues de Mellanox y ARM). Solo ARM fallo. El patron es claro: NVIDIA usa su posicion dominante para comprar cualquier amenaza.

Conclusion: el fin del principio

La adquisicion de Groq marca el inicio de una nueva era. Ya no es suficiente con entrenar modelos de IA. Ahora la batalla es por quien puede ejecutarlos mas rapido, mas eficientemente, mas barato.

NVIDIA, que ya dominaba el entrenamiento, ahora tiene la mejor tecnologia de inferencia tambien. AMD, Intel y las startups tienen que responder o quedarse atras.

Jonathan Ross, el chico que abandono la secundaria y creo los TPUs de Google en su tiempo libre, ahora trabaja para Jensen Huang. Su creacion, el LPU, sera parte de cada chip NVIDIA en el futuro.

El truco esta en lo que viene despues. Si NVIDIA logra integrar la velocidad de Groq con la escala de sus GPUs, el resultado sera una plataforma de IA que nadie puede tocar.

Y eso, para bien o para mal, significa que el futuro de la IA pasa por una sola empresa.

Preguntas frecuentes

Que es exactamente un LPU?

Un Language Processing Unit (LPU) es un chip disenado especificamente para ejecutar modelos de lenguaje de IA. A diferencia de las GPUs que son de proposito general, el LPU tiene toda su memoria dentro del chip (SRAM en lugar de HBM externa), lo que elimina el cuello de botella de mover datos y permite velocidades 10x mayores en inferencia.

Por que NVIDIA pago $20 mil millones por una startup?

El mercado de inferencia de IA va a ser el doble que el de entrenamiento para 2026. NVIDIA dominaba entrenamiento pero tenia competencia seria en inferencia. Al comprar Groq, eliminan al competidor mas avanzado y adquieren tecnologia que no tenian. Para una empresa que genera $35B+ por trimestre, $20B es una inversion estrategica.

Que pasa con GroqCloud y los clientes actuales?

Segun el acuerdo, GroqCloud seguira operando de forma "independiente" con Simon Edwards como nuevo CEO. Los clientes existentes como Meta, IBM y Dropbox deberian poder seguir usando el servicio, aunque la integracion con NVIDIA probablemente cambiara las cosas a mediano plazo.

Puede la FTC bloquear este acuerdo?

Es posible pero dificil. NVIDIA estructuro el acuerdo como "licencia no exclusiva + contratacion de empleados" en lugar de una adquisicion tradicional. Esto complica cualquier intento regulatorio, aunque expertos legales advierten que la FTC podria argumentar que es una adquisicion disfrazada.

Cuando veremos productos con tecnologia Groq de NVIDIA?

Los primeros racks con tecnologia Groq integrada se esperan para Q3-Q4 de 2026 como parte de la plataforma Vera Rubin. La integracion completa probablemente tome 2-3 anos.

¿Te ha sido útil?
Carlos Vega
Escrito por

Carlos Vega

Divulgador tecnologico especializado en IA aplicada. Hace accesible lo complejo.

#nvidia#groq#lpu#chips ia#adquisicion#inferencia#semiconductores#jensen huang

Artículos Relacionados