ARM

Precio en Arm Holdings

Cerrado
ARM
€200,02
+€15,04(+8,13%)

*Datos actualizados por última vez: 2026-04-27 00:02 (UTC+8)

A fecha de 2026-04-27 00:02, Arm Holdings (ARM) tiene un precio de €200,02, con una capitalización de mercado total de €212,96B, un ratio P/E de 141,57 y un rendimiento por dividendo de 0,00%. Hoy, el precio de la acción ha oscilado entre €179,80 y €202,98. El precio actual está 11,26% por encima del mínimo del día y 1,45% por debajo del máximo del día, con un volumen de trading de 20,48M. Durante las últimas 52 semanas, ARM ha cotizado entre €85,41 y €202,97, y el precio actual está a -1,45% del máximo de las últimas 52 semanas.

Estadísticas clave de ARM

Cierre de ayer€174,74
Capitalización de mercado€212,96B
Volumen20,48M
Ratio P/E141,57
Rendimiento por dividendo (últimos doce meses)0,00%
BPA diluido (últimos doce meses)0,75
Ingresos netos (ejercicio fiscal)€676,36M
Ingresos totales (ejercicio fiscal)€3,42B
Fecha de ganancias2026-05-06
BPA estimado0,58
Estimación de ingresos€1,25B
Acciones en circulación1,21B
Beta (1A)3.338

Sobre ARM

Arm Holdings plc diseña, desarrolla y licencia productos de unidades centrales de procesamiento y tecnologías relacionadas para empresas de semiconductores y fabricantes de equipos originales en los que confían para desarrollar productos. Ofrece microprocesadores, propiedad intelectual de sistemas (IPs), unidades de procesamiento gráfico, IP físicos y sistemas IP asociados, software, herramientas y otros servicios relacionados. Sus productos se utilizan en diversos mercados, como automoción, infraestructura informática, tecnologías de consumo y Internet de las cosas. La compañía opera en Estados Unidos, República Popular China, Taiwán, Corea del Sur y a nivel internacional. La empresa fue fundada en 1990 y tiene su sede en Cambridge, Reino Unido. Arm Holdings plc opera como una subsidiaria de Kronos II LLC.
SectorTecnología
IndustriaSemiconductores
CEORene Anthony Andrada Haas
Sede centralCambridge,None,GB
Sitio web oficialhttps://www.arm.com
Empleados (año fiscal)8,33K
Ingresos medios (1 año)€410,80K
Ingresos netos por empleado€81,19K

Preguntas frecuentes sobre Arm Holdings (ARM)

¿A qué precio cotiza hoy Arm Holdings (ARM) hoy?

x
Arm Holdings (ARM) cotiza actualmente a €200,02, con una variación en 24 h del +8,13%. El rango de trading de 52 semanas es de €85,41 a €202,97.

¿Cuáles son los precios máximo y mínimo de 52 semanas para Arm Holdings (ARM)?

x

¿Cuál es el ratio precio-beneficio (P/E) de Arm Holdings (ARM) y qué indica?

x

¿Cuál es la capitalización de mercado de Arm Holdings (ARM)?

x

¿Cuál es el beneficio por acción (BPA) del trimestre más reciente de Arm Holdings (ARM)?

x

¿Deberías comprar o vender Arm Holdings (ARM) ahora?

x

¿Qué factores pueden afectar el precio de las acciones de Arm Holdings (ARM)?

x

¿Cómo comprar acciones de Arm Holdings (ARM)?

x

Aviso de riesgo

El mercado de valores implica un alto nivel de riesgo y volatilidad en los precios. El valor de tu inversión puede subir o bajar, y es posible que no puedas recuperar la totalidad del importe invertido. El rendimiento pasado no es un indicador fiable de los resultados futuros. Antes de tomar cualquier decisión de inversión, debes evaluar cuidadosamente tu experiencia, situación financiera, objetivos de inversión y tolerancia al riesgo, además de realizar tu propia investigación. Si lo consideras necesario, consulta con un asesor financiero independiente.

Aviso legal

El contenido de esta página se proporciona únicamente con fines informativos y no constituye asesoramiento de inversión o financiero ni recomendaciones de trading. Gate no se hará responsable de ninguna pérdida o daño derivado de dichas decisiones financieras. Además, ten en cuenta que es posible que Gate no pueda ofrecer todos sus servicios en determinados mercados y jurisdicciones, entre los que se incluyen, entre otros, los Estados Unidos de América, Canadá, Irán y Cuba. Para obtener más información sobre las ubicaciones restringidas, consulta el Acuerdo de usuario.

Otros mercados de trading

Últimas notícias sobre Arm Holdings (ARM)

2026-04-25 02:41

Meta implementará millones de chips AWS Graviton para cargas de trabajo de IA

Mensaje de Gate News, 25 de abril — Amazon anunció el 24 de abril que Meta utilizará millones de chips AWS Graviton para cargas de trabajo de IA, lo que supone una victoria importante para AWS con sus procesadores ARM de fabricación propia. Los chips se utilizarán para la inferencia de IA y la computación general, en lugar de entrenamiento de modelos. El acuerdo abarca varios años y vale miles de millones de dólares, y Meta planea implementar decenas de millones de núcleos de procesador Graviton5. El anuncio llega después de la asociación cloud de seis años de Meta en Estados Unidos con $10 billion con Google Cloud en agosto de 2025, aunque la empresa sigue manteniendo relaciones con AWS y Microsoft Azure. El movimiento refleja cambios más amplios en la industria, ya que Amazon amplía su negocio de chips de IA a medida. En abril, Anthropic se comprometió a gastar US$100 billion durante más de 10 años en cargas de trabajo de AWS enfocadas en chips personalizados, lo que llevó a Amazon a invertir una cantidad adicional de US$5 billion en la startup.

2026-04-15 06:36

La placa de desarrollo para PC basada en Arm N1 de chips de NVIDIA aparece, la entrada al mercado es inminente

Mensaje de noticias de Gate, 15 de abril — La placa de desarrollo N1 de NVIDIA, una (SoC) basada en Arm para PCs con Windows, co-desarrollada con MediaTek desde finales de 2024, ha salido a la luz en una plataforma china de compraventa de segunda mano. La placa incluye módulos de memoria SK Hynix LPDDR5X y tiene un precio de 9,999 yuanes (aproximadamente $1,370). Se cree que los chips N1/N1X son derivados del GB10 usado en la estación de trabajo de IA DGX Spark de NVIDIA, con velocidades de reloj, ancho de banda de memoria y recuentos de núcleos ajustados para entornos de portátiles. N1X integra 10 núcleos de CPU Arm Cortex-X925 de alto rendimiento, 10 núcleos Cortex-A725 de bajo consumo y núcleos de GPU Blackwell, con el objetivo de mejorar las capacidades de gaming y de creación de contenido en laptops con Windows basadas en Arm. El CEO de NVIDIA, Jensen Huang, mencionó por primera vez el chip N1 en septiembre del año pasado durante un anuncio con Intel, señalando que se usaría en DGX Spark y productos similares. Se espera que el chip se presente oficialmente durante GTC 2026, que se celebrará junto con Computex Taipei del 1 al 4 de junio. Se informa que Lenovo y Dell están preparando lanzamientos de productos relacionados.

2026-04-10 06:31

SK Telecom se une a Arm y Rebellions para desarrollar una solución de inferencia para centros de datos de IA

Noticias del Gate News, 10 de abril, SK Telecom anunció que firmó un memorando de entendimiento (MOU) trilateral con la empresa británica de diseño de chips Arm y la startup surcoreana de chips de IA Rebellions, para desarrollar conjuntamente soluciones de servidores de inferencia para centros de datos de IA. Según el acuerdo, las tres partes combinarán la nueva CPU AGI de Arm y el chip de aceleración de IA RebelCard, que se espera que Rebellions lance en el tercer trimestre de este año, para desarrollar conjuntamente servidores de inferencia de IA, y realizarán pruebas y validación en los centros de datos de IA de SK Telecom. En particular, la CPU AGI de Arm está optimizada para entornos de inferencia de alta densidad y despliegues masivos de IA, mientras que RebelCard está diseñado específicamente para la inferencia de IA a gran escala.

2026-03-25 08:05

El intermediario más seguro de la industria de chips se adentró en el camino más peligroso

40 mil millones de dólares y 15 mil millones de dólares, lo que los separa no es una curva de crecimiento, sino una auto-ruptura del modelo de negocio. El 24 de marzo, Arm presentó en San Francisco su primer CPU de centro de datos desarrollado internamente en 35 años de historia. Este chip, llamado AGI CPU, cuenta con 136 núcleos Neoverse V3, proceso TSMC de 3 nm, TDP de 300W, Meta es su primer cliente y se desplegará a gran escala en el transcurso del año. También anunciaron colaboraciones con OpenAI, Cerebras, Cloudflare, SAP y SK Telecom. El CEO de Arm, Rene Haas, dio una serie de objetivos en la presentación, diciendo que para 2031, el negocio de chips alcanzará 15 mil millones de dólares en ingresos anuales, con una facturación total de la compañía de 25 mil millones de dólares y un beneficio por acción de 9 dólares. ¿Qué significa esta cifra? La compañía Arm en su año fiscal 2025 (hasta marzo de 2025) tendrá ingresos totales de 4,007 millones de dólares, según su informe anual, con ingresos por licencias de 1,839 millones y regalías de 2,168 millones, con un margen bruto del 97%. En otras palabras, una empresa con ingresos anuales de 4 mil millones de dólares planea en cinco años alcanzar un tamaño similar al de toda la división de centros de datos de Intel solo con un nuevo negocio. Según el informe financiero del cuarto trimestre de 2024 de Intel, su división DCAI (centros de datos y AI) generó 12,8 mil millones de dólares en todo el año. ![](https://img-cdn.gateio.im/social/moments-b28ad97cef-f349f58fa5-8b7abd-ceda62) De 40 a 150 mil millones, un salto de 3.7 veces, detrás de esto está el intento de Arm de transformarse de una simple empresa de licencias de IP en una híbrido que vende tanto diseños como productos terminados. Esto no tiene precedentes en la industria de chips. ¿Por qué Arm se arriesga? La respuesta está en su lista de clientes. En los últimos tres años, los principales clientes de centros de datos de Arm han estado haciendo lo mismo. Según datos públicos de AWS, Amazon ya ha migrado más del 50% de su capacidad EC2 a sus propios chips Graviton, con el más reciente Graviton5 alcanzando 192 núcleos. Google Cloud reveló que su chip Axion ya soporta más de 30,000 aplicaciones internas migradas, con una mejora en eficiencia energética del 80%. Microsoft también usa Cobalt 200 basado en la arquitectura Neoverse de Arm, con proceso de 3 nm de TSMC y 132 núcleos. ![](https://img-cdn.gateio.im/social/moments-c5de4f78e1-d55712aa2b-8b7abd-ceda62) Estas empresas de la nube utilizan arquitecturas licenciadas de Arm, pero diseñan, fabrican y despliegan sus propios chips. Arm obtiene ingresos por licencias y regalías, no por la venta de chips. A medida que más capacidad de cálculo sea absorbida por estos chips propios, el techo de ingresos de Arm en centros de datos será cada vez más claro. Analizando la estructura de ingresos de los últimos cuatro años, el perfil de ese techo se vuelve más concreto. Según sus informes anuales, los ingresos totales de la compañía en FY2022 a FY2025 crecerán de 2,7 mil millones a 4 mil millones de dólares, con un crecimiento anual promedio de aproximadamente 14%. Las regalías aumentaron de 1,562 millones a 2,168 millones, y las licencias de 1,141 millones a 1,839 millones. La tasa de crecimiento de regalías, que en años anteriores fue menor, se ha estabilizado en torno al 20%, impulsada en gran parte por la actualización de la arquitectura Armv9 en dispositivos móviles, no en centros de datos. ![](https://img-cdn.gateio.im/social/moments-bc18c9e7b5-cd622fbbbf-8b7abd-ceda62) Proyectando a esa tasa, incluso si los ingresos por licencias y regalías crecen alrededor del 20% anual, para 2031 solo alcanzarán aproximadamente 10 mil millones de dólares. Los otros 15 mil millones deberán provenir de un negocio que aún no existe. Esa es la lógica matemática detrás de que Arm decida fabricar sus propios chips. Elegir fabricar sus propios chips significa competir directamente con sus clientes. Una empresa que vende planos de construcción empieza a construir edificios por sí misma, mientras sus compradores ya llevan años construyendo con esos planos. Este es el verdadero contexto del AGI CPU de 136 núcleos. Según The Register, este chip tiene una frecuencia base de 3.2 GHz, máxima de 3.7 GHz, memoria DDR5 de 12 canales, con 6 GB/s de ancho de banda por núcleo, 96 canales PCIe 6.0 y soporte para CXL 3.0. Arm lo posiciona como “la base del poder de cómputo en la era de la IA agentic”, enfocado en tareas de programación y gestión de flujo de datos en inferencias de IA, sin competir directamente con GPU. El ritmo de cambio en la cuota de mercado también lo explica. Según Omdia, en 2025, los servidores con arquitectura Arm representarán aproximadamente el 21% del mercado global, con un crecimiento del 70%. Pero en los centros de datos a gran escala, esa proporción ya se acerca al 50%. La monopolización de 40 años de x86 no está colapsando, sino siendo reemplazada chip por chip. El riesgo de que Arm fabrique sus propios chips no está en la tecnología, sino en las relaciones. Meta está dispuesta a ser su primer cliente, en parte porque no tiene proyectos de chips propios tan maduros como Amazon o Google. Pero, ¿qué pensarán Amazon, Google y Microsoft? Cuando un proveedor empieza a competir por tu negocio, ¿seguirías confiando en que te otorgue la licencia de la arquitectura más importante? La apuesta de Arm es que el crecimiento del mercado de centros de datos será más rápido que el deterioro de las relaciones con sus clientes. Rene Haas cree firmemente que la demanda de CPU en la era de la IA será tan grande que la coexistencia de chips propios y licencias de arquitectura será posible. El objetivo de 15 mil millones de dólares es una valoración de esa creencia. 35 años vendiendo planos, por primera vez construyendo por cuenta propia. Los planos siguen vendiéndose, y también se construyen edificios, solo hay que ver si caben en el mismo terreno. Haz clic para conocer las oportunidades laborales en BlockBeats. **Únete a la comunidad oficial de BlockBeats:** Grupo de suscripción en Telegram: https://t.me/theblockbeats Grupo de Telegram: https://t.me/BlockBeats_App Cuenta oficial en Twitter: https://twitter.com/BlockBeatsAsia

Publicaciones destacadas de Arm Holdings (ARM)

LittleFishFlyToTheS

LittleFishFlyToTheS

Hace 30 minutos
Nvidia pierde cuota de mercado, ¿dónde están las oportunidades en una nueva etapa de la revolución AI? Este es el noveno artículo de la serie de 100 artículos sobre inversión en IA. En los artículos anteriores, revisamos Intel, AMD y ARM. Sus precios de acciones en el último año no han sido pequeños: AMD se duplicó, Intel triplicó, ARM también alcanzó niveles históricos. Después de subir, surge una pregunta sencilla: ¿Todavía se pueden mantener las acciones que ya subieron? ¿Hay oportunidades en las que no han subido? Para responder a esta pregunta, no se puede evitar una palabra clave: inferencia. En los análisis de esas empresas que subieron, las dos palabras que aparecen repetidamente son estas. Entonces: ¿qué tan grande es la pista de inferencia? ¿En qué etapa estamos actualmente? ¿Qué empresas se beneficiarán y cómo? ¿Cuáles ya están valoradas por el mercado y cuáles no? Este es el noveno artículo de la serie de 100 artículos sobre inversión en IA, con una extensión de 15,000 palabras, contenido rico y fácil de leer. Se recomienda guardar primero y luego leer. 1. ¿Qué tan grande es la pista? El entrenamiento de modelos es "escribir programas", la inferencia es "el proceso en el que se llama a ese programa todos los días". Después de entrenar GPT, millones de personas le hacen preguntas todos los días, y cada interacción consume poder de inferencia. Claude Code realiza una tarea, el agente corre 100 rondas por sí mismo, cada ronda es inferencia. Diversos estudios de la industria y medios de comunicación apuntan en la misma dirección: después de que el modelo entra en producción, la inferencia se convertirá en la mayor parte del costo del ciclo de vida, con un rango estimado común del 80-90%. Es decir, en la factura de computación en la era de la IA futura, 8 de cada 10 yuanes serán por inferencia. Pero en los últimos tres años, casi toda la discusión del mercado ha sido sobre entrenamiento, porque el entrenamiento es una historia más "seductora": quién tiene más H100, quién tiene más parámetros, quién entrena primero el próximo modelo. La inferencia se considera una tarea secundaria después del entrenamiento. Esta percepción errónea está siendo corregida, y esa es la razón fundamental por la que las empresas de semiconductores de este último año han sido reevaluadas. Entonces, ¿qué tan grande es la pista de inferencia? Específicamente, se puede medir desde cinco ángulos. Primero, el número de usuarios. ChatGPT tiene 900 millones de usuarios semanales y 50 millones de pagos. La comparación en China es aún más directa: el volumen diario de llamadas a tokens pasó de 1 billón a principios de 2024 a 140 billones en 2026, un aumento de 1,400 veces. Esta área aún no está saturada. Segundo, la intensidad de uso. El volumen de tokens procesados por OpenAI en octubre de 2025 era de 6 mil millones por minuto, y en abril de 2026 ya alcanzaba 15 mil millones, en solo medio año se multiplicó por 2.5. Los ingresos por versión empresarial representan más del 40%, y los usuarios empresariales usan la plataforma varias decenas de veces más que los consumidores. Tercero, la longitud de las conversaciones. La longitud del contexto pasó de unos pocos cientos de tokens en los primeros tiempos a los 1 millón de tokens en la API V4 Pro / Flash de DeepSeek, con una salida máxima de 384,000. Cuanto más larga sea la conversación, mayor será el consumo de memoria y poder de cálculo en una sola inferencia. Cuarto, los modelos en sí mismos cada vez consumen más poder de cálculo. Modelos de inferencia como OpenAI o1, DeepSeek R1, Claude Thinking, antes de responder, primero "piensan" internamente en miles o incluso decenas de miles de tokens. Jensen Huang mencionó, usando DeepSeek R1 como ejemplo, que los modelos de inferencia pueden requerir mucho más cálculo, incluso hasta 100 veces más. Antes, cuando preguntabas a la IA, ella respondía directamente; ahora, si le haces una pregunta difícil, primero "piensa" medio minuto en su mente antes de dar la respuesta. Ese "pensar medio minuto" es el consumo adicional de poder de cálculo. Quinto, los agentes. Una tarea de un agente generalmente requiere llamar al modelo de 10 a 100 veces. La actividad semanal de OpenAI Codex ya supera los 4 millones (al 22 de abril de 2026), y esto es solo un producto de una empresa. Un experto en la cadena de la industria de IA estima que el consumo total de poder de cálculo de los agentes inteligentes puede ser más de 10 veces el de modelos de lenguaje de gran escala con parámetros similares. Multiplicando estas cinco cosas, en tres o cinco años, la demanda total de inferencia experimentará una expansión de magnitud, no es una narrativa exagerada, sino una evaluación cada vez más cercana a la realidad principal. 《¿Dónde están las oportunidades en la segunda etapa de la revolución AI tras la gran caída de cuota de Nvidia en inferencia?》
0
0
0
0
LittleFishFlyToTheS

LittleFishFlyToTheS

Hace 9 horas
《NVIDIA share drops to 48%, where are the opportunities in the inference era?》 Este es el noveno artículo de la serie de 100 artículos sobre inversión en IA, con 20,000 palabras. Se recomienda guardarlo primero, probablemente pocos podrán terminar de leerlo. En las primeras entregas se analizaron Intel, AMD, ARM. Sus precios en bolsa en el último año no han sido pequeños: AMD se duplicó, Intel triplicó, ARM también alcanzó máximos históricos. Después de subir, surge una pregunta sencilla: ¿todavía se puede mantener lo que ya ha subido? ¿Hay oportunidades en las que no han subido? Para responder a esta pregunta, no se puede evitar una palabra clave: inferencia. En los análisis anteriores, esas dos palabras se repiten constantemente cuando se habla de las empresas que han subido. Entonces: ¿qué tan grande es la pista de inferencia? ¿En qué etapa estamos actualmente? ¿Qué empresas se beneficiarán? ¿Cuáles ya están valoradas por el mercado y cuáles no? Esto es lo primero que hay que entender. Uno, ¿qué tan grande es la pista? El entrenamiento de modelos es "escribir programas", la inferencia es "el proceso en el que se llama a ese programa todos los días". Después de entrenar GPT, millones de personas le hacen preguntas todos los días, y cada consulta consume poder de cálculo de inferencia. Claude Code realiza una tarea, un agente corre 100 rondas por sí mismo, cada una es inferencia. Diversos estudios de la industria y medios apuntan en la misma dirección: después de que el modelo entra en producción, la inferencia se convertirá en la mayor parte del costo del ciclo de vida, con estimaciones comunes entre el 80 y el 90%. Es decir, en la era futura de IA, en la factura de computación, 8 de cada 10 dólares serán para inferencia. Pero en los últimos tres años, casi toda la discusión del mercado ha sido sobre entrenamiento, porque el entrenamiento es una historia más "seductora": quién tiene más H100, quién tiene más parámetros, quién entrena primero el próximo modelo. La inferencia se ve como una tarea secundaria tras el entrenamiento. Este sesgo cognitivo está siendo corregido, y esa es la razón fundamental por la que en el último año estas empresas de semiconductores han sido reevaluadas. ¿Pero qué tan grande es la pista de inferencia? Específicamente, se puede medir desde cinco ángulos. Primero, número de usuarios. ChatGPT tiene 900 millones de usuarios semanales, 50 millones de pagos. La comparación en China es más directa: el volumen diario de llamadas a tokens pasó de 100 mil millones a principios de 2024 a 140 billones en 2026, un aumento de 1,400 veces. Esta área aún no está saturada. Segundo, intensidad de uso. El volumen de tokens procesados por OpenAI en octubre de 2025 era de 6 mil millones por minuto, en abril de 2026 ya alcanzó 15 mil millones, en solo medio año se multiplicó por 2.5. Los ingresos por versión empresarial representan más del 40%, y los usuarios empresariales usan decenas de veces más que los consumidores. Tercero, longitud de las conversaciones. La longitud del contexto pasó de unos pocos cientos de tokens en los primeros tiempos a los 1 millón de tokens en la API V4 Pro / Flash de DeepSeek, con una salida máxima de 384,000. Cuanto más larga la conversación, mayor consumo de memoria y poder de cálculo en una sola inferencia. Cuarto, los modelos en sí mismos cada vez requieren más poder de cálculo. Modelos como OpenAI o1, DeepSeek R1, Claude Thinking, en sus respuestas primero "piensan" internamente miles o incluso decenas de miles de tokens. Jensen Huang mencionó, usando DeepSeek R1 como ejemplo, que los modelos de inferencia pueden requerir mucho más cálculo, incluso hasta 100 veces más. Antes, cuando preguntabas a la IA, te daba la respuesta directamente; ahora, si le haces una pregunta difícil, primero "piensa" medio minuto en su cabeza y luego responde. Ese "pensar medio minuto" es un consumo adicional de poder de cálculo. Quinto, los agentes. Una tarea de un agente generalmente requiere llamar al modelo de 10 a 100 veces. La actividad semanal de OpenAI Codex ya supera los 3 millones, y esto es solo un producto de una empresa. Un experto en la cadena de valor de IA estima que el consumo total de cálculo de los agentes inteligentes puede ser más de 10 veces el de modelos de lenguaje de gran escala con parámetros similares. Multiplicando estos cinco factores, en tres o cinco años, la demanda total de inferencia experimentará una expansión de magnitud, no es una narrativa exagerada, sino una tendencia cada vez más aceptada. En economía, existe un fenómeno llamado Paradoja de Jevons: cuando aumenta la eficiencia en el uso de un recurso, el consumo total en realidad aumenta porque se vuelve más barato y más escenarios se atreven a usarlo. Tras la mejora en eficiencia de las máquinas de vapor, el consumo de carbón en Reino Unido se disparó; tras la caída en el precio de tokens de inferencia, las llamadas a IA se multiplicaron. Es el mismo guion. La IEA estima que el consumo de electricidad en centros de datos globales pasará del 1.5% del total en 2024 a duplicarse en 2030, alcanzando 945 TWh, aproximadamente la suma del consumo anual de Alemania y Francia. Además, las acciones concretas en la industria refuerzan aún más el argumento: El ARR de Anthropic pasó de 1,000 millones de dólares a finales de 2024 a 30,000 millones a principios de 2026, en 14 meses. Para sostener esta curva, la compañía aseguró más de 11 GW de capacidad de cálculo a finales de 2025 y principios de 2026, incluyendo una orden de 21 mil millones de dólares en TPU a Broadcom. OpenAI ya prometió desplegar 10 GW de chips personalizados. Google aumentó en un 50% su objetivo de envío de TPU para 2026, hasta 6 millones de unidades. Las cifras de inversión de los proveedores de la nube son aún más directas. Google planea gastar entre 175 y 185 mil millones de dólares en capital en 2026, casi el doble de lo invertido en 2025; Amazon invertirá 200 mil millones; Meta planea aumentar en un 65% hasta 118 mil millones. En total, los ocho principales proveedores de la nube elevarán su gasto de capital a más de 600 mil millones en 2026, con un crecimiento anual del 40%. Juntando todo esto, la conclusión es simple: la curva de demanda de inferencia en IA ya supera la capacidad de suministro de cualquier proveedor de hardware. Este es el trasfondo completo de la pista de inferencia: en la era del entrenamiento, se "crea un dios"; en la era de la inferencia, "ese dios es llamado por millones de personas todos los días, cada agente lo llama 100 veces, cada vez pensando en decenas de miles de tokens". Pasar del primero al segundo, el consumo de cálculo no aumenta linealmente, sino de forma geométrica. Dos, ¿qué acciones se beneficiarán? Que la pista sea grande no significa que todas las empresas se beneficien, además, la posición de dominio de NVIDIA ya se está debilitando en los datos. Para 2026, en el mercado global de chips de inferencia de IA, la participación de NVIDIA será aproximadamente del 48.2%, AMD alrededor del 16.7%, y el conjunto de ASIC aproximadamente del 18.5% (incluyendo TPU de Google 7.8%, Inferentia de AWS 5.2%, otros ASIC 5.5%), y los chips de inferencia nacionales suman un 16.6%. NVIDIA mantiene más del 80% de cuota en el mercado de entrenamiento, pero en inferencia solo tiene menos de la mitad, un 48.2%. ¿Y por qué? En la era del entrenamiento, NVIDIA compite en fuerza integral: GPU de alto rendimiento + interconexión NVLink + ecosistema CUDA. Esta combinación es una ventaja en entrenamiento.
0
0
0
0