viernes, 6 de febrero de 2026

El “SaaSpocalipsis” llega a la bolsa: la IA hunde las acciones de software y sacude a Europa

caida acciones software por la inteligencia artificial

El desplome de las acciones de software por el avance fulgurante de la inteligencia artificial se ha convertido en uno de los movimientos más llamativos de los mercados en los últimos meses. Lo que empezó como un ajuste razonable en las valoraciones del sector se ha transformado, según algunos operadores, en un auténtico “SaaSpocalipsis”, con ventas en cadena que recuerdan a las grandes correcciones tecnológicas.

En pocas semanas, se han evaporado cientos de miles de millones en capitalización bursátil de compañías ligadas al software, los servicios de datos y los modelos de suscripción. El miedo a que la IA pueda realizar, automatizar o abaratar buena parte de las tareas que hoy facturan estas empresas ha desatado un nerviosismo que se extiende tanto por Wall Street como por las principales plazas europeas.

En el parqué estadounidense, varios intermediarios describen un ambiente casi de pánico en torno al sector. Operadores de firmas como Jefferies hablan abiertamente de ventas masivas al grito de “sácame de aquí”, con clientes que liquidan posiciones en bloque sin pararse demasiado a mirar precios o fundamentales. El movimiento no se limita a un puñado de empresas: afecta a compañías de software general, proveedores de SaaS, firmas de datos y grupos de servicios corporativos.

De la desconfianza al “apocalipsis” del software en bolsa

En el parqué estadounidense, varios intermediarios describen un ambiente casi de pánico en torno al sector. Operadores de firmas como Jefferies hablan abiertamente de ventas masivas al grito de “sácame de aquí”, con clientes que liquidan posiciones en bloque sin pararse demasiado a mirar precios o fundamentales. El movimiento no se limita a un puñado de empresas: afecta a compañías de software general, proveedores de SaaS, firmas de datos y grupos de servicios corporativos.

Los índices sectoriales lo reflejan con crudeza. El S&P North American Software encadena varias semanas con números rojos y caídas mensuales del entorno del 15%, niveles que no se veían desde los peores momentos de 2008. Un índice específico de software elaborado por Goldman Sachs llegó a dejarse alrededor de un 6% en una sola sesión, su peor día desde el último gran episodio de ventas forzadas por tensiones comerciales.

Este castigo no se produce en el vacío. Desde los máximos del pasado otoño, el S&P 500 Software acumula pérdidas cercanas al 26%, mientras el S&P 500 general prácticamente está plano o incluso avanza ligeramente. El contraste alimenta la sensación de que el mercado ha seleccionado al software como principal “chivo expiatorio” de la irrupción de la IA.

El golpe también se aprecia en productos de inversión amplios. El ETF iShares Expanded Tech-Software Sector ha encadenado hasta seis jornadas consecutivas a la baja, acumulando negativas que se traducen en la peor racha mensual desde la crisis financiera. Su caída, superior al 15% en apenas unas semanas, se ha convertido en símbolo de la desconfianza generalizada hacia el modelo de negocio tradicional del software.

Anthropic en el punto de mira: la chispa que incendia el mercado

Dentro de esa oleada de ventas, el papel de la inteligencia artificial generativa es clave. El detonante más visible ha sido Anthropic, una de las grandes startups de IA respaldada por gigantes como Amazon y Alphabet. Su anuncio de nuevas herramientas orientadas directamente a tareas profesionales ha actuado como catalizador de los temores que llevaban tiempo latentes.

La compañía ha presentado complementos para su agente Claude orientados a departamentos jurídicos y funciones administrativas complejas: revisión de contratos, gestión de acuerdos de confidencialidad, cumplimiento normativo o elaboración de informes legales, entre otras funciones. Es decir, justo el tipo de servicio por el que desde hace años cobran soluciones de software de pago y bases de datos profesionales.

La reacción fue inmediata. En cuestión de horas, se esfumaron centenares de miles de millones de euros en valor bursátil de empresas de software y datos. Firmas muy ligadas al mundo legal y de la información profesional como Thomson Reuters, CS Disco o LegalZoom llegaron a registrar desplomes de doble dígito en una sola jornada, con caídas que rondaron desde el 12% al 20%.

Pero la onda expansiva fue más allá del nicho jurídico. La propia London Stock Exchange Group, con un negocio importante de datos y analítica financiera, cedió del orden de un 13% en una sesión. Otras compañías de contenidos y datos corporativos sufrieron un castigo similar, en un ambiente en el que cualquier modelo muy dependiente de la venta de información y software especializado queda automáticamente bajo sospecha.

Analistas de casas como Swissquote o XTB coinciden en que el anuncio de Anthropic no ha descubierto nada nuevo sobre la IA, pero sí ha cambiado la percepción del mercado: se pasa de ver a estos actores como meros proveedores de modelos a considerarlos competidores directos en las aplicaciones y flujos de trabajo donde hoy ganan dinero las grandes firmas de software.

Europa se contagia: datos, legaltech y software empresarial bajo presión

El nerviosismo no se ha quedado al otro lado del Atlántico. Las bolsas europeas han recogido el guante y han reaccionado con fuertes descensos en compañías de datos, editoriales profesionales y desarrolladores de software empresarial. El epicentro se ha situado en Reino Unido, Países Bajos y Alemania, donde cotizan varios de los grupos más expuestos a la digitalización corporativa.

En Londres, nombres tan consolidados como RELX, Experian, Sage o la propia LSEG registraron caídas de entre el 7% y el 14% en sesiones marcadas por la volatilidad. En Ámsterdam, Wolters Kluwer, otro gigante del software y la información para profesionales, se dejó del orden de un 13%. Todas estas compañías comparten un patrón: modelos de negocio basados en suscripciones, venta de licencias y explotación de grandes bases de datos.

El mercado teme que la llegada de asistentes inteligentes capaces de leer, resumir y generar documentos, informes o análisis sobre la marcha reduzca los márgenes o incluso el número de usuarios que necesitan acceso directo a estas plataformas. Si un solo agente de IA puede hacer en minutos tareas que antes implicaban múltiples licencias por empleado, el modelo clásico de “más usuarios, más ingresos” entra en cuestión.

Al otro lado del Rin, la alemana SAP se ha convertido en un caso de estudio dentro del DAX. Sus acciones acumulan un descenso superior al 20% desde comienzos de año, hasta mínimos de alrededor de año y medio, pese a que sus cifras operativas siguen siendo razonablemente sólidas. La capitalización bursátil se ha reducido en decenas de miles de millones, en un contexto de corrección amplia de compañías de software tanto en Europa como en EEUU.

En el trasfondo, pesa el temor a que la IA generativa pueda reemplazar parte del software de gestión empresarial tradicional, especialmente en segmentos de nube y SaaS. Durante años, SAP ha vivido de la migración de sus clientes a modelos de pago por suscripción y de ingresos recurrentes; hoy, el mercado se pregunta si agentes inteligentes y plataformas más ligeras podrían automatizar muchos procesos estándar para los que antes hacían falta múltiples módulos y licencias.

Gigantes del software entre el castigo y la oportunidad

La corrección tampoco está respetando a los grandes referentes del sector en Wall Street. Microsoft, Oracle, ServiceNow, Adobe, Salesforce o Palantir han visto cómo sus cotizaciones retrocedían con fuerza desde los máximos de finales de 2025. En algunos casos, las caídas rondan o superan el 40% desde los picos del ciclo alcista.

En el caso de Microsoft, pese a presentar resultados sólidos, el foco se ha desplazado hacia la desaceleración del crecimiento en la nube y el enorme esfuerzo inversor en IA. Sus acciones llegaron a corregir alrededor de un 10% en apenas unos días, encadenando varias sesiones negativas hasta firmar su peor mes en más de una década. Aun así, hay gestores que han aprovechado el retroceso para incrementar posiciones, confiando en que la compañía termine por consolidarse como uno de los grandes ganadores de la revolución de la IA.

Otros actores, como Oracle o ServiceNow, tampoco se libran. El mercado les penaliza tanto por la competencia de nuevas soluciones basadas en IA como por sus propios retos financieros y de apalancamiento. En este entorno, las casas de análisis han empezado a mover ficha: firmas como Piper Sandler han recortado recomendaciones sobre compañías como Adobe, Freshworks o Vertex, alertando de que la “compresión de asientos” y la automatización del código vía IA pueden limitar los múltiplos que los inversores están dispuestos a pagar.

No todas las historias son negativas. Palantir, muy asociada a la analítica avanzada y la IA aplicada, ha conseguido presentar un crecimiento de ingresos muy por encima de las previsiones, con avances del entorno del 70% interanual en algunos trimestres. Sus títulos han reaccionado con alzas puntuales de casi el 7%, demostrando que el mercado sigue dispuesto a premiar a aquellos modelos de negocio que ya monetizan la IA de forma creíble.

Con todo, los resultados trimestrales muestran una brecha clara: aproximadamente dos tercios de las empresas de software del S&P 500 han logrado batir las expectativas de ingresos, frente a más del 80% del conjunto del sector tecnológico. La rentabilidad actual, de momento, no basta para disipar las dudas sobre su capacidad de crecimiento a largo plazo en un mundo cada vez más dominado por modelos de IA.

Índices, ETF y análisis técnico: un sector en sobreventa

Desde el punto de vista técnico, muchos indicadores apuntan a un nivel de sobreventa poco habitual en el sector del software. El múltiplo medio de beneficios de los principales índices de empresas del ramo se sitúa en los niveles más bajos de los últimos años. En algunas grandes capitalizadas, la relación precio/beneficio ha caído a entornos de menos de 23 veces resultados estimados, cuando hace no tanto se pagaban primas mucho más elevadas.

El índice de fuerza relativa (RSI) a 14 días de varios de estos valores, incluido el de algunos gigantes como Microsoft, se mueve en zonas típicas de sobreventa, lo que sugiere que al menos a corto plazo podría estar gestándose un rebote técnico. Estrategas de firmas como BTIG consideran que el sector está “probablemente lo suficientemente castigado como para un repunte”, aunque advierten de que la reconstrucción de una base sólida de confianza llevará tiempo.

La propia dinámica de mercado añade leña al fuego. El interés corto —las posiciones bajistas— en empresas de mediana y gran capitalización de software ha aumentado notablemente en los últimos meses, sobre todo en compañías de ciberseguridad y SaaS. Al mismo tiempo, varios indicadores de volatilidad, como el VIX, se han disparado, reflejando la tensión en un entorno en el que los inversores apalancados se han visto obligados a reducir riesgo a marchas forzadas.

En paralelo, algunos gestores de capital privado y crédito, especialmente en Europa, han empezado a revisar a fondo sus carteras de préstamos y participadas de software. Firmas de financiación directa y fondos de deuda han recortado su exposición al sector, en algunos casos a la mitad, y han encargado análisis específicos para identificar qué compañías pueden ser más vulnerables a la disrupción de la IA.

Al final, el cuadro es de un sector técnicamente barato pero aún dominado por la incertidumbre. Para los inversores que buscan valor a largo plazo, esta combinación puede ofrecer puntos de entrada atractivos, pero también obliga a afinar mucho la puntería: ya no basta con comprar “software” como bloque; la clave es distinguir quién tiene una estrategia de IA creíble y quién puede quedarse rezagado.

¿La IA como verdugo o como tabla de salvación del software?

Más allá del ruido de corto plazo, lo que está en juego es una reevaluación de fondo del papel del software en la nueva arquitectura digital. Cada vez más analistas sostienen que la creación de valor se está desplazando desde la capa de aplicaciones —donde han dominado las grandes firmas de software tradicionales— hacia la infraestructura de IA, los centros de datos y las plataformas que orquestan modelos y datos.

En este nuevo esquema, salen reforzados los proveedores de chips, hardware para centros de datos, servicios de nube a gran escala y plataformas capaces de actuar como “sistema operativo” de la IA. Muchas de estas compañías comunican carteras de pedidos crecientes y perspectivas de ingresos al alza, incluso mientras el software puro sufre un ajuste severo. El mercado, en definitiva, se está reordenando a favor de quienes controlan la infraestructura y los datos críticos.

Para las empresas de software empresarial y SaaS, la cuestión es si son capaces de integrar la IA en sus productos de forma que refuercen, y no erosionen, su modelo de negocio. Algunas, como SAP, han decidido colocar la IA en el centro de su estrategia, incorporando funciones inteligentes en un amplio abanico de aplicaciones en la nube y destacando que buena parte de los nuevos contratos incluyen ya licencias asociadas a capacidades de IA.

La narrativa oficial es clara: posicionarse como facilitadores de IA en los procesos diarios de las empresas, ayudando a automatizar tareas, reducir errores y ganar productividad, en lugar de ser desplazados por soluciones externas. Al mismo tiempo, muchas de estas compañías han lanzado programas de recompra de acciones de miles de millones de euros, con el doble objetivo de respaldar la cotización y enviar un mensaje de confianza al mercado.

Sin embargo, sigue flotando una duda de fondo: ¿hasta qué punto los agentes y asistentes de IA, cada vez más potentes, podrán sortear o sustituir los modelos de licencia tradicionales? Muchos inversores temen que, incluso con una integración técnica impecable, el poder de fijación de precios del software de toda la vida quede tocado, lo que forzaría a las empresas a replantear de arriba abajo su estructura de ingresos.

Selección quirúrgica y horizonte incierto para los próximos años

Entre las gestoras y bancos de inversión se consolida una visión común: la fase de compras indiscriminadas de tecnología ha terminado. El desplome de las acciones de software por la IA se interpreta como parte de un reajuste más amplio de las valoraciones en los sectores de crecimiento, tras años de múltiplos muy exigentes. La diferencia ahora es que la disrupción no es teórica: ya se percibe de forma directa en productos, procesos y márgenes.

Expertos de firmas como LPL Financial, JP Morgan o Edward Jones subrayan que la IA aumenta la competencia, presiona los precios y hace más difícil sostener ventajas competitivas duraderas. En ese contexto, asignar valoraciones justas se complica: el abanico de posibles trayectorias de crecimiento para muchas compañías se ha ampliado, y con él la brecha entre los potenciales ganadores y perdedores.

Los episodios históricos de grandes revoluciones tecnológicas sugieren que la estabilización de los precios en bolsa exige, primero, una mayor visibilidad sobre las ganancias futuras. En el caso del software, la incógnita es doble: por un lado, cómo evolucionará la demanda de sus soluciones en un entorno donde la IA automatiza cada vez más tareas; por otro, qué parte de esa automatización capturarán ellas mismas y qué parte quedará en manos de nuevos actores, desde startups de nicho hasta grandes plataformas de infraestructura.

Mientras tanto, el mercado oscila entre la visión más pesimista —la de quienes ven al software tradicional como la próxima industria “vieja” que será arrasada por una nueva ola tecnológica— y la postura de quienes creen que el castigo actual está dejando a precios atractivos a empresas con balances sólidos, bases de clientes muy fidelizadas y capacidad real de adaptación.

En este escenario, Europa juega un papel especial como termómetro del sentimiento global hacia el software empresarial. Casos como SAP, RELX, Wolters Kluwer, Sage o los propios operadores de grandes infraestructuras de datos sirven de referencia para calibrar hasta qué punto los inversores están dispuestos a seguir apostando por los modelos de suscripción y licencias en un mundo donde la IA, para bien o para mal, ha pasado a ocupar el centro del escenario.

Lo que está ocurriendo en bolsa con las acciones de software golpeadas por la inteligencia artificial no se limita, en realidad, a un simple cambio de humor del mercado: refleja un proceso más profundo de reordenación del poder dentro del ecosistema digital, en el que se está decidiendo quién capturará el valor de la próxima década tecnológica y quién tendrá que reinventarse a marchas forzadas para no quedarse atrás.



from Actualidad Gadget https://ift.tt/Yi4nfxm
via IFTTT

Telefónica vende su filial en Colombia a Millicom y aligera su deuda

Venta de filial de Telefónica en Colombia

Telefónica ha dado un nuevo paso en su repliegue de Latinoamérica al cerrar la venta de su filial en Colombia a Millicom, un movimiento que combina un ingreso relativamente moderado con un impacto muy relevante en su balance. La operación, ya comunicada a la Comisión Nacional del Mercado de Valores (CNMV), se enmarca en el giro estratégico del grupo para concentrarse en mercados considerados clave y reducir su endeudamiento.

El acuerdo supone el traspaso a Millicom de la totalidad de la participación de Telefónica en Colombia Telecomunicaciones, equivalente al 67,5% del capital. A cambio, el operador español recibe 214 millones de dólares, unos 182 millones de euros al tipo de cambio actual, y consigue rebajar su deuda financiera neta en torno a 1.550 millones de euros, un efecto que la propia compañía ha destacado como el verdadero núcleo de la operación.

Detalles de la venta y rebaja de la deuda

Según ha explicado el grupo presidido por Marc Murtra, la transacción se ha completado una vez obtenidas todas las autorizaciones regulatorias exigidas y confirmadas las condiciones pactadas. Con ello, Millicom pasa a controlar el 67,5% de Colombia Telecomunicaciones, mientras que el Estado colombiano mantiene, de momento, el 32,5% restante, cuyo traspaso también está previsto que termine en manos de la compañía compradora.

El precio final del acuerdo ha sido sensiblemente inferior a la estimación inicial. En un primer momento, Telefónica había anunciado que la operación rondaría los 368 millones de euros, pero ajustes habituales en este tipo de procesos -especialmente ligados a la actualización de la deuda liberada- han rebajado el importe hasta los citados 182 millones de euros.

Con todo, la clave para la multinacional española no está tanto en el dinero recibido como en el efecto sobre su estructura financiera. La salida de Colombia permitirá una reducción de la deuda financiera neta cercana a los 1.550 millones de euros, lo que refuerza el desapalancamiento del grupo en un momento en el que el sector de las telecomunicaciones afronta fuertes necesidades de inversión en redes de nueva generación.

En la documentación remitida a la CNMV, Telefónica subraya que el balance global de la operación debe medirse en términos de alivio de deuda y reordenación geográfica, más allá del precio contante y sonante. Esta lógica financiera encaja con la hoja de ruta que la compañía viene aplicando en la región desde hace varios años.

Los principales parámetros de la transacción se resumen en: 214 millones de dólares de precio de venta (unos 182 millones de euros), 67,5% de participación transmitida y un impacto en deuda de aproximadamente 1.550 millones de euros. El contrato, además, ha sido objeto de los típicos ajustes de cierre vinculados a posición de caja, deuda y otros elementos financieros.

Operación de Telefónica y Millicom en telecomunicaciones

Giño estratégico: menos Latinoamérica, más foco en mercados clave

La venta de la filial colombiana se inserta en una estrategia de fondo de Telefónica para reducir su exposición en América Latina. La compañía considera que buena parte de los mercados de la región presentan una combinación compleja de volatilidad macroeconómica, riesgo de tipo de cambio y entornos regulatorios cambiantes, factores que lastran la visibilidad de retornos a largo plazo.

En ese contexto, el grupo ha ido encadenando desinversiones en varios países. Además de Colombia, Telefónica ha vendido ya sus negocios en Argentina, Perú, Uruguay y Ecuador, lo que refuerza la idea de que su apuesta latinoamericana se concentrará exclusivamente en Brasil, país que mantiene la categoría de mercado estratégico.

En Argentina, la compañía se desprendió de su filial a favor del grupo Clarín por alrededor de 1.190 millones de euros. En Uruguay y Ecuador, el comprador también fue Millicom Spain, que pagó 389 millones y 329 millones de euros, respectivamente. En el caso de Perú, la venta a la argentina Integra Tec International se cerró por unos 900.000 euros, una cifra muy reducida si se compara con el tamaño del mercado, pero que se explica por la delicada situación financiera de la filial, en concurso de acreedores y con una deuda cercana a 1.240 millones de euros al cierre de 2024.

Aún quedan operaciones pendientes. Telefónica mantiene abiertos los procesos de salida en Chile, México y Venezuela. Este último es el mercado que genera más interrogantes, tanto por el entorno político como por la inflación y el marco regulatorio. En Chile, en cambio, ya se han producido contactos y muestras de interés de posibles compradores, aunque sin un calendario definitivo a la vista.

Mientras se reordena en Latinoamérica, el grupo ha dejado claro que su foco de crecimiento pasa por España, Alemania, Reino Unido y Brasil, las cuatro geografías que considera prioritarias. La idea es concentrar recursos en mercados donde ve mayor estabilidad regulatoria y capacidad de generar caja, al tiempo que reduce complejidad operativa y exposición a divisas más volátiles.

Veinte años de Telefónica en Colombia: de la expansión al adiós

La salida de Colombia pone fin a una etapa de dos décadas en las que Telefónica ha tenido un papel protagonista en la modernización de las telecomunicaciones del país. La propia compañía ha querido remarcar que abandona el mercado dejando una “huella” en términos de digitalización, conectividad e inclusión tecnológica.

El desembarco de la operadora española se produjo en 2005, cuando adquirió el segundo operador móvil colombiano. Un año después, reforzó su apuesta al hacerse con el control mayoritario de Colombia Telecomunicaciones, lo que le permitió combinar servicios fijos y móviles y avanzar en una oferta convergente bajo la marca Movistar.

A lo largo de estos años, la empresa impulsó la expansión de la banda ancha fija y móvil, así como el despliegue de redes de fibra óptica y tecnologías móviles de última generación (4G y 5G). Este esfuerzo inversor ayudó a extender el acceso a servicios digitales a millones de usuarios, tanto en grandes ciudades como en zonas menos atendidas.

En 2012, la compañía dio un paso adicional al unificar los servicios fijo y móvil bajo la marca Movistar Colombia, con el objetivo de reforzar su presencia comercial y mejorar la experiencia del cliente. En los últimos años, ante la presión competitiva del líder del mercado (Claro) y la necesidad de ganar escala, Telefónica exploró fórmulas de cooperación, como el acuerdo de compartición de red con Tigo y el proyecto de integración entre ambos operadores.

Esa etapa de colaboración culmina ahora con la venta de la participación de Telefónica a Millicom, lo que, en la práctica, cierra un ciclo de 20 años de presencia continuada en el país andino. Para la operadora española, el capítulo colombiano queda así definitivamente concluido, al menos en términos accionariales.

Millicom se refuerza y aspira a un gran segundo operador en Colombia

Mientras Telefónica repliega velas, Millicom consolida su apuesta por Colombia. La compañía ya era uno de los actores clave del sector a través de Tigo, operador del que controla aproximadamente el 50% y que se ha situado como la segunda marca del país, por detrás de Claro y por delante de Movistar.

Con la compra del 67,5% de Colombia Telecomunicaciones, Millicom da un paso más hacia la creación de un operador de gran tamaño y con músculo financiero, capaz de sostener las inversiones necesarias en redes de fibra y 5G. El movimiento se produce, además, tras el visto bueno -con condiciones- que la Superintendencia de Industria y Comercio (SIC) colombiana concedió a mediados de noviembre para la integración de las operaciones de Tigo y Movistar.

Queda aún por completarse un elemento clave: la venta del 32,5% que mantiene el Estado colombiano en Colombia Telecomunicaciones. Según las previsiones conocidas, ese traspaso también se realizará a favor de Millicom y podría materializarse en abril, lo que terminaría de definir el mapa accionarial de la nueva compañía resultante.

En un comunicado, Millicom ha defendido que la operación persigue fortalecer el sector de las telecomunicaciones en Colombia mediante la consolidación de un operador con la escala necesaria para acometer “mejoras cruciales en redes, espectro y tecnología”. La firma sostiene que la inversión en infraestructuras de fibra óptica y redes móviles 5G se acelerará, lo que debería traducirse en conexiones más rápidas y fiables para los usuarios finales.

La compañía apunta también a que la fusión y la mayor capacidad inversora permitirán ampliar el acceso a servicios digitales avanzados, reforzar la competencia frente al líder y mejorar la calidad de la experiencia del cliente, en línea con la tendencia de concentración que se observa en otros mercados de telecomunicaciones, tanto en Europa como en América Latina.

Un reordenamiento regional con Millicom como socio recurrente

El acuerdo en Colombia no es un hecho aislado, sino parte de una relación cada vez más intensa entre Telefónica y Millicom en América Latina. En los últimos años, el grupo con sede en Luxemburgo se ha convertido en comprador recurrente de activos de la teleco española en la región.

La venta de las filiales de Uruguay, Ecuador y Colombia a Millicom suma en conjunto alrededor de 900 millones de euros, sin contar la deuda asociada transferida con dichas operaciones. Esta cifra refleja la apuesta de la compañía por fortalecer su presencia en varios mercados latinoamericanos mediante adquisiciones selectivas.

Mientras tanto, Telefónica utiliza estos recursos y el alivio de deuda para sanear su balance y redirigir inversiones hacia aquellos países donde aspira a consolidar un liderazgo claro o a mantener posiciones de referencia. Brasil se mantiene como el único mercado latinoamericano dentro de ese perímetro estratégico, junto con España, Alemania y Reino Unido en Europa.

Analistas y especialistas del sector interpretan este proceso como un reajuste necesario de escala y de exposición al riesgo. En un entorno en el que el despliegue de nuevas redes exige miles de millones en inversión, un tema habitual en el Mobile World Congress, resulta complicado sostener una presencia dispersa en demasiados países con marcos regulatorios muy diferentes y monedas inestables.

La operación con Millicom en Colombia, por tanto, se entiende como uno de los movimientos más significativos de este plan, tanto por el impacto en deuda como por el simbolismo de poner punto final a dos décadas de presencia en uno de los principales mercados de la región.

Con la venta de su filial colombiana a Millicom, Telefónica cierra un capítulo importante de su historia en América Latina y avanza en su estrategia de concentrarse en mercados considerados más estables y rentables, a la vez que rebaja de forma significativa su endeudamiento. Para Colombia, el movimiento supone la consolidación de un nuevo gran operador -liderado por Millicom y Tigo- con capacidad de afrontar las inversiones en fibra y 5G que exige la próxima fase de la transformación digital del país.



from Actualidad Gadget https://ift.tt/eq4n6zk
via IFTTT

jueves, 5 de febrero de 2026

Windows 11 y realidad mixta: apps y trucos para tus gafas VR

cómo usar la realidad mixta en Windows 11

Si tienes unas gafas de realidad virtual y un PC con Windows 11, estás en un momento muy interesante: Microsoft está cambiando por completo la forma de usar la realidad mixta, alejándose de los antiguos cascos Windows Mixed Reality y apostando por nuevas herramientas pensadas para visores como Meta Quest. Esto tiene cosas muy positivas, pero también algún que otro quebradero de cabeza si usas hardware algo más veterano.

En los últimos meses hemos visto cómo algunos usuarios con visores como Lenovo Explorer se han llevado una sorpresa desagradable: Windows 11 ha dejado de dar soporte directo a ciertos cascos de realidad mixta clásicos, lo que rompe, por ejemplo, su integración con SteamVR. Al mismo tiempo, Microsoft ha lanzado utilidades como Mixed Reality Link y las llamadas Volumetric Apps, que buscan llevar el entorno de Windows y las aplicaciones 2D al espacio 3D de plataformas como Meta Quest.

¿Qué está pasando con Windows 11 y los cascos de realidad mixta clásicos?

Una de las situaciones más comentadas en la comunidad es la de los usuarios de cascos como Lenovo Explorer, que formaban parte del ecosistema Windows Mixed Reality tradicional y ahora se ven “descolgados” en Windows 11. Un caso típico es el de quien conecta su visor para jugar en SteamVR y descubre que, aunque el sistema detecta el casco, SteamVR no lo reconoce como dispositivo válido.

Estos cascos aparecen en el sistema, en los dispositivos y en el panel de configuración, pero la integración con la capa de realidad mixta de Microsoft ha cambiado en las últimas versiones de Windows 11. El resultado práctico es que SteamVR, que dependía de ese puente de compatibilidad, deja de identificar correctamente el visor y no permite lanzar juegos o experiencias VR como antes.

Ante esta situación, algunos usuarios han optado por una solución radical: volver a versiones anteriores de Windows 11, como la build 23H2. En más de un caso, este downgrade ha devuelto la funcionalidad completa al visor, permitiendo de nuevo el uso normal con SteamVR y el resto de aplicaciones. No es una solución elegante, pero sí un “atajo” que, hoy por hoy, está funcionando cuando no hay alternativas oficiales.

Hay que tener en cuenta que hablar de revertir a 23H2, usar un arranque dual o mantener una instalación previa de Windows implica ciertas molestias: posibles problemas de seguridad, menos soporte a largo plazo y la necesidad de gestionar dos entornos distintos. Aun así, para quienes quieren seguir aprovechando un casco Lenovo Explorer u otro dispositivo de la vieja guardia, en ocasiones sigue siendo el único camino fiable.

Windows 11 y las nuevas apuestas: Mixed Reality Link

Mientras los visores antiguos pierden peso, Microsoft está empujando un nuevo modelo basado en visores autónomos modernos. Una pieza clave de esta estrategia es Mixed Reality Link para Windows 11, una aplicación disponible en la Microsoft Store que todavía está en fase preview, pero que adelanta muy bien por dónde va el futuro de la realidad mixta en el ecosistema Windows.

Mixed Reality Link está pensada sobre todo para visores como Meta Quest 3 y Meta Quest 3S, que cuentan con cámaras a color y funciones de realidad aumentada. Gracias a esta herramienta, el entorno de Windows 11 puede proyectarse en las gafas en forma de varios monitores virtuales, creando una especie de escritorio inmersivo en realidad mixta, ideal para trabajar, navegar, ver contenido o combinar aplicaciones tradicionales con experiencias XR.

Uno de los puntos que más llaman la atención es que la conexión entre el PC con Windows 11 y las gafas se establece mediante un código QR. Es un método cómodo: instalas la app en el ordenador, sigues las instrucciones, escaneas el código desde las gafas y, a partir de ahí, ambos dispositivos quedan vinculados. Desde la propia aplicación de Mixed Reality Link puedes gestionar todos los visores enlazados, lo que facilita mucho el uso de varios cascos o el cambio entre distintos equipos.

Aunque Microsoft no ha presentado Mixed Reality Link como un producto definitivo, su intención es clara: convertir a Windows 11 en un “hub” de realidad mixta interoperable con los visores más populares, en lugar de depender de un ecosistema cerrado de cascos propios como ocurrió con Windows Mixed Reality. Este enfoque encaja con la alianza estratégica entre Microsoft y Meta, que busca impulsar experiencias de productividad y entretenimiento en plataformas como Meta Quest.

Requisitos para usar Mixed Reality Link en Windows 11

A día de hoy, para aprovechar Mixed Reality Link necesitas cumplir una serie de condiciones tanto a nivel de hardware como de software. Aunque la herramienta está aún en preview, Microsoft exige una base técnica relativamente potente, similar a lo que solemos ver en cualquier entorno VR de PC.

En términos generales, los requisitos para que Windows 11 y la realidad mixta funcionen con fluidez pasan por tener un PC “VR Ready” con una gráfica moderna, suficiente RAM y una CPU actual. No es un simple complemento gráfico: los monitores virtuales, la decodificación de vídeo en tiempo real y la gestión de latencias bajas requieren un sistema robusto para evitar tirones o mareos.

En cuanto a los visores compatibles, Mixed Reality Link se ha presentado poniendo el foco sobre Meta Quest 3 y Meta Quest 3S gracias a sus cámaras RGB y capacidades de passthrough a color. Esto permite mezclar tu entorno real con ventanas y monitores virtuales de Windows. Es previsible que, con el tiempo, la lista de visores compatibles crezca, pero por ahora estas gafas de Meta son el principal objetivo.

Volumetric Apps: de ventanas 2D a experiencias 3D espaciales

cómo usar la realidad mixta en Windows 11

Otra pieza fundamental del movimiento de Microsoft hacia la realidad mixta es la iniciativa de Volumetric Apps, una nueva API para transformar aplicaciones de Windows en contenidos 3D “espaciales”. Esta tecnología se dio a conocer en la conferencia para desarrolladores Microsoft Build 2024, y se integra de lleno en la colaboración con Meta.

La idea es que las aplicaciones clásicas de Windows, pensadas originalmente para mostrarse en una pantalla 2D plana, puedan adquirir un formato volumétrico dentro de un espacio 3D. En vez de tener solo ventanas flotando, las interfaces, gráficos y modelos pueden expandirse en el entorno, permitiendo nuevas formas de interacción y visualización, tanto para trabajo como para ocio.

En una de las demostraciones se mostró cómo un controlador Xbox podía “desplegarse” en el espacio 3D, con sus componentes de color y gráficos detallados distribuidos alrededor. Esto permite examinar el dispositivo en profundidad, casi como si lo tuvieras delante, pero con la ventaja de poder ver capas, cortes y anotaciones que en una pantalla plana serían mucho menos intuitivas.

Con este enfoque, Microsoft pretende que Windows dé el salto a la llamada “computación espacial”, ofreciendo a los desarrolladores una API capaz de generar aplicaciones volumétricas adaptadas a la XR. Para quienes crean software profesional, de diseño, ingeniería, análisis de datos o incluso educación, supone un gran salto: ya no se trata solo de abrir una ventana más grande, sino de convertir la información en objetos y espacios manipulables.

Esta API encaja también en la estrategia conjunta Meta-Microsoft, que hasta la fecha se había concretado en aplicaciones de Office en 2D para Quest, Xbox Cloud Gaming y futuros visores con estética inspirada en Xbox. Las Volumetric Apps van un paso más allá y plantean la convivencia de Windows y Meta Quest dentro de un entorno XR pensado para algo más que “pantallas flotantes”.

Aplicaciones clave para sacar partido a tus gafas VR en PC

Además de las herramientas que está impulsando Microsoft, el ecosistema de realidad virtual en PC se apoya en varias aplicaciones imprescindibles. Cada una cumple una función distinta, pero todas ellas son fundamentales para exprimir tu visor cuando lo conectas a un ordenador.

SteamVR: la puerta de entrada al catálogo de juegos VR

Si te interesa principalmente jugar, la respuesta suele ser clara: SteamVR es la opción más directa y sencilla para acceder al catálogo de Steam. Al estar desarrollada por Valve, la integración con la tienda y la biblioteca de juegos es nativa, lo que simplifica mucho el proceso de instalación, configuración y lanzamiento de títulos VR compatibles.

SteamVR es una plataforma gratuita y actúa como una especie de “sistema operativo” de realidad virtual dentro de tu PC, gestionando la interfaz, la posición de los mandos, el visor y las distintas experiencias. Desde ahí lanzas juegos, ajustas la sala de juego, calibras tu posición o configuras parámetros avanzados como la tasa de refresco o la resolución interna.

Cuando todo va bien, basta con conectar las gafas, arrancar SteamVR y disfrutar de los juegos tal como fueron pensados por los desarrolladores. Sin embargo, como ya hemos visto con casos como el del Lenovo Explorer, si Microsoft cambia piezas clave de su sistema de realidad mixta o elimina compatibilidades, la conexión entre el visor y SteamVR puede romperse, obligando a buscar alternativas o incluso a revertir la versión de Windows.

Air Link: realidad virtual inalámbrica desde tu PC

Muchos usuarios quieren olvidarse de los cables y aprovechar las capacidades WiFi de sus gafas. En el caso de las Meta Quest, Air Link se ha convertido en una de las soluciones estrella para transmitir juegos y aplicaciones de PC de forma inalámbrica. No necesitas un cable USB largo: basta con un buen router y una red estable.

Air Link es gratuita y permite que el PC renderice los juegos mientras el visor recibe el vídeo en streaming y envía de vuelta los movimientos. Esta combinación da mucha libertad física al jugador, aunque exige una red WiFi potente, preferiblemente en la banda de 5 GHz o 6 GHz, y que el ordenador esté conectado por cable al router para reducir la latencia.

Si todo está bien configurado, la experiencia puede ser tan fluida como jugar con cable, pero es muy sensible a interferencias, saturación de la red o routers de baja calidad. Por eso, suele recomendarse jugar cerca del punto de acceso y evitar que otros dispositivos estén consumiendo mucho ancho de banda al mismo tiempo.

Virtual Desktop: streaming avanzado y más opciones de ajuste

Para quienes quieren un extra de control o tienen visores distintos, una de las aplicaciones más conocidas es Virtual Desktop, una solución de pago que ronda los 14,79 euros. Se compra una sola vez y da acceso a una experiencia de escritorio virtual muy pulida, además de opciones avanzadas de streaming para juegos.

Virtual Desktop permite conectar las gafas al PC tanto por WiFi como por cable, pero su gran baza es la personalización: ajustes finos de bitrate, opciones de latencia, diferentes modos de compresión de vídeo y perfiles según el tipo de contenido. Para algunos usuarios, especialmente quienes tienen redes muy buenas o quieren afinar al máximo, la mejora frente a otras soluciones justifica sobradamente el precio.

Más allá de los juegos, Virtual Desktop funciona también como un entorno de trabajo inmersivo, con monitores virtuales donde puedes abrir aplicaciones de Windows, navegar o ver contenido multimedia. Esto lo convierte en una herramienta versátil, útil tanto para ocio como para productividad o estudio.

ALVR: alternativa gratuita y abierta para streaming VR

Otra opción interesante es ALVR, una herramienta gratuita y de código abierto que también permite transmitir contenido VR desde el PC al visor. Es una alternativa muy apreciada por la comunidad por su filosofía abierta y por la posibilidad de experimentar con diferentes configuraciones y builds.

ALVR, al igual que Air Link y Virtual Desktop, depende de una red WiFi estable y de un PC con suficiente potencia gráfica. La flexibilidad de sus ajustes y la comunidad que hay detrás son dos de sus grandes puntos fuertes, aunque su configuración puede ser un poco más técnica para usuarios que prefieren algo “enchufar y listo”.

¿Necesito cable para usar mis gafas VR con el PC?

Una de las dudas más frecuentes es si es obligatorio utilizar un cable para conectar tus gafas VR al PC. La respuesta es que no siempre hace falta, pero dependerá de tus necesidades y de la calidad de tu red. Muchas soluciones modernas están pensadas precisamente para funcionar de forma inalámbrica.

Aplicaciones como Air Link, Virtual Desktop o ALVR han sido diseñadas para ofrecer streaming VR inalámbrico. Esto te permite moverte con total libertad, sin temer por tirar del cable o tropezar. Sin embargo, para que la experiencia sea buena necesitas una red WiFi rápida, lo más limpia posible de interferencias y un router que aguante el tipo cuando la tasa de datos y la demanda de baja latencia son altas.

En cambio, el cable sigue siendo una opción muy válida cuando quieres garantizar la menor latencia posible y reducir los problemas de calidad de imagen por compresión. Un enlace USB de alta velocidad o incluso DisplayPort/HDMI, según el visor, proporciona una conexión más estable, ideal para juegos competitivos o experiencias muy exigentes.

Coste de las principales aplicaciones VR para PC

A la hora de montar tu ecosistema VR en PC, también conviene saber qué parte del software es de pago y cuál es gratuito. En el terreno de las aplicaciones “puente” la variedad es amplia, así que puedes empezar sin gastar nada o invertir un poco si quieres funciones extra.

Tanto SteamVR como ALVR y Air Link se ofrecen de forma totalmente gratuita. SteamVR se descarga desde la propia tienda de Steam, Air Link viene integrado en el ecosistema de Meta Quest y ALVR se puede obtener desde sus repositorios oficiales. Con estas herramientas, ya tienes un buen punto de partida para jugar y experimentar con realidad virtual sin costes adicionales.

Virtual Desktop, por su parte, es una aplicación de pago con un coste aproximado de 14,79 euros en la tienda correspondiente al visor. Es un pago único que desbloquea todas sus funciones, y suele considerarse una muy buena inversión si vas a utilizar mucho la VR para juegos, escritorio remoto o trabajo, y quieres un control fino de la calidad de imagen y la latencia.

Requisitos de PC para disfrutar de la realidad virtual

La realidad virtual es una de las tareas más exigentes que puedes pedirle a tu ordenador. No basta con que “arranque” el sistema: necesitas un equipo con una GPU potente, una CPU moderna y suficiente memoria RAM para mover los juegos o aplicaciones XR con fluidez y sin cortes, y conviene usar herramientas para monitorear el sistema.

En general, los fabricantes recomiendan tarjetas gráficas etiquetadas como “VR Ready”, normalmente a partir de gamas medias-altas de Nvidia o AMD en las generaciones recientes. La CPU debe ser capaz de manejar tanto el juego como la lógica de seguimiento del visor, y la RAM rara vez debería bajar de los 16 GB si quieres una experiencia cómoda.

Los requisitos concretos varían según el juego o la aplicación: no es lo mismo visualizar un entorno sencillo que renderizar un simulador de conducción ultradetallado. Conviene revisar siempre las especificaciones recomendadas por cada título y compararlas con tu hardware antes de lanzarte, especialmente si vas a combinar VR con streaming inalámbrico o monitores virtuales múltiples.

Retos y oportunidades del cambio de rumbo en la realidad mixta

El avance hacia Mixed Reality Link y las Volumetric Apps trae consigo un escenario dual. Por un lado, los usuarios de visores Windows Mixed Reality clásicos pueden verse perjudicados por cambios en el soporte de Windows 11, que afectan a la compatibilidad con SteamVR y otras plataformas. Por otro, quienes usan gafas más modernas como Meta Quest 3 se benefician directamente de la nueva estrategia.

La posibilidad de trabajar con monitores virtuales, proyectar aplicaciones de escritorio en entornos XR y convertir programas 2D en experiencias 3D inmersivas abre la puerta a usos que van mucho más allá de los juegos. Diseño industrial, educación, análisis avanzado de datos o revisiones de producto son solo algunos campos en los que la computación espacial puede marcar una diferencia enorme.

Para los desarrolladores, la API de Volumetric Apps ofrece un nuevo lienzo en el que experimentar con interfaces tridimensionales, contenido interactivo y presentaciones volumétricas. Y para los usuarios finales, la combinación de herramientas como Mixed Reality Link y soluciones de streaming inalámbrico crea un ecosistema muy rico, aunque con la obligación de vigilar la compatibilidad según el visor y la versión de Windows.

Con todos estos elementos sobre la mesa, el panorama actual de Windows 11 y la realidad mixta se puede resumir en una idea clara: Microsoft está apostando fuerte por la integración con visores como Meta Quest y por un futuro de aplicaciones espaciales, mientras deja atrás parte de su viejo ecosistema Windows Mixed Reality.

Para quienes estrenan unas gafas VR modernas, las opciones para sacarles partido en PC no paran de crecer; para los que siguen usando cascos como el Lenovo Explorer, puede que toque tomar decisiones complicadas, como mantener una versión concreta de Windows o buscar caminos alternativos para seguir disfrutando de la realidad virtual en su ordenador. Comparte esta información y más usuarios sabrán del tema.



from Actualidad Gadget https://ift.tt/nveW72I
via IFTTT