domingo, 26 de abril de 2026

Poner una moneda en el router de WiFi: mito viral, riesgos reales y qué hacer de verdad

Truco de poner una moneda en el router WiFi

En los últimos meses, las redes sociales se han llenado de vídeos y mensajes que recomiendan poner una moneda encima del router de WiFi para lograr más cobertura y una conexión más estable. El truco es tan simple y barato que muchos usuarios en España y en el resto de Europa se han planteado probarlo antes de llamar a su operadora o cambiar de equipo.

Detrás de esta idea hay una mezcla de física real, medias verdades y bastante folklore digital. La teoría suena convincente: el metal de la moneda actuaría como una especie de antena o reflector, ayudando a redirigir las ondas inalámbricas y a estabilizar la señal. Pero cuando se revisa con calma lo que dicen los estudios y los especialistas en redes, el resultado es bastante distinto al que prometen los vídeos virales.

De dónde sale el truco de la moneda en el router

Moneda colocada sobre un router WiFi

La idea de usar una moneda para “arreglar” el WiFi se apoya en un principio físico correcto: los metales pueden reflejar, absorber o modificar las ondas de radio. De hecho, en el ámbito académico se han estudiado y diseñado superficies metálicas para controlar cómo se reparte la señal inalámbrica en un espacio concreto.

Un ejemplo citado a menudo es el de un equipo de la Universidad de Dartmouth, que desarrolló reflectores impresos en 3D recubiertos de metal para reforzar la cobertura en determinadas zonas y reducirla en otras. En sus pruebas consiguieron mejoras de varios decibelios en áreas concretas, pero usando piezas de unos 20 o 30 centímetros, con formas calculadas y colocadas de manera muy precisa alrededor del punto de acceso.

A partir de ahí, en internet se ha simplificado la idea hasta el extremo: se ha pasado de superficies diseñadas al milímetro a recomendar tirar una moneda cualquiera encima del router doméstico. Es un salto enorme desde lo que muestran los estudios serios hasta el truco casero que circula por TikTok, Twitter o foros tecnológicos.

Además, el truco se ha amplificado porque encaja muy bien con la lógica de los remedios virales: no cuesta dinero, se hace en un segundo y promete resultados casi mágicos. Eso basta para que mucha gente lo comparta, incluso aunque no haya una comprobación real detrás.

Qué prometen quienes recomiendan poner una moneda en el router

Truco casero con moneda sobre router WiFi

Los defensores de este método aseguran que poner una moneda en la parte superior del router puede mejorar varios aspectos de la conexión. Entre las explicaciones que más se repiten están las siguientes:

  • “Efecto antena”: al ser metálica, la moneda supuestamente funcionaría como una extensión de las antenas internas o externas del router.
  • Mejor distribución de la señal: se afirma que ayuda a “redirigir” las ondas WiFi dentro de la vivienda, evitando zonas muertas.
  • Función de disipador o estabilizador: algunas versiones sostienen que podría reducir las variaciones de la señal y hacer la conexión más estable.
  • Más estabilidad física: en una interpretación mucho más terrenal, hay quien usa la moneda simplemente para añadir peso cuando el router es muy ligero y se mueve por la tensión de los cables.

Este conjunto de argumentos tiene algo en común: se apoyan en conceptos reales, como la conductividad del metal o la reflexión de ondas, pero se aplican sin rigor. No hay medidas, no hay cálculos y, sobre todo, no hay pruebas serias que confirmen la mejora que prometen.

En Europa y en España, donde los hogares suelen combinar paredes de ladrillo, hormigón y estructuras metálicas, el comportamiento del WiFi ya es de por sí complejo. Con ese contexto, confiar en que un objeto del tamaño de una moneda reorganice de forma útil todas esas reflexiones y pérdidas de señal es, como poco, optimista.

Qué dicen los expertos en redes sobre la moneda en el router

Router WiFi con moneda y señal inalámbrica

Los especialistas en telecomunicaciones y en hardware coinciden en un punto clave: no existe base científica sólida que respalde que una moneda mejore la señal WiFi de un router doméstico. Las redes inalámbricas que usamos en casa operan, en la mayoría de casos, en las bandas de 2,4 GHz y 5 GHz, con longitudes de onda muy concretas.

Para que un elemento metálico actúe como antena efectiva o como reflector útil, su tamaño, forma y posición deben estar diseñados para esas frecuencias. En los estudios académicos se utilizan estructuras de varios centímetros o decenas de centímetros, y se calcula con precisión física el efecto que tendrán en el patrón de radiación. Una moneda corriente es, directamente, demasiado pequeña para cumplir esa función.

De hecho, los fabricantes de routers como TP-Link o NETGEAR insisten en justo lo contrario de lo que propone este truco: recomiendan mantener el dispositivo lejos de objetos metálicos, de superficies reflectantes y de cualquier cosa que pueda bloquear o deformar la señal.

Cuando alguien percibe una mejora tras colocar la moneda, los expertos apuntan a dos explicaciones mucho más probables: un simple efecto placebo o una coincidencia (por ejemplo, menos saturación de la red en ese momento, menos dispositivos conectados o una pequeña reubicación del equipo al colocar la moneda).

En el ámbito técnico, no hay mediciones reproducibles que demuestren ganancias de cobertura o de velocidad atribuibles a este truco. Y eso, en un campo donde es relativamente sencillo medir la potencia de la señal o la tasa de transferencia, es bastante significativo.

Riesgos y efectos negativos de colocar objetos sobre el router

Router WiFi con objeto metálico encima

Más allá de su falta de utilidad, el truco de la moneda puede traer consecuencias indeseadas para el router y para la calidad de la conexión. Los fabricantes diseñan estos dispositivos para trabajar muchas horas seguidas, y una parte crucial de ese diseño es la gestión del calor.

La mayoría de modelos actuales, tanto de operadoras como de marcas de consumo, cuentan con ranuras de ventilación en la parte superior, lateral o inferior. Apoyar monedas, llaves u otros objetos encima puede contribuir a bloquear esos orificios, dificultando la circulación del aire y elevando la temperatura interna.

Cuando el equipo se calienta más de la cuenta, es habitual que el rendimiento se degrade: bajan las velocidades, aumentan los cortes puntuales de la red y, en casos extremos, el router se reinicia o se apaga para protegerse. A medio y largo plazo, trabajar de forma continuada a más temperatura de la prevista puede acortar su vida útil.

Además, acumular metal cerca de las antenas del router tampoco es buena idea. El metal puede provocar reflexiones y rebotes desordenados de la señal, generando pequeñas interferencias o zonas con peor cobertura dentro de la vivienda. Es justo lo contrario de lo que se pretende conseguir con este tipo de trucos caseros.

Por todo ello, los técnicos consultados suelen ser claros: no recomiendan colocar nada encima del router, ni siquiera si son objetos pequeños como una simple moneda. Si lo que se busca es estabilizar físicamente el aparato, es preferible usar soportes específicos, bases antideslizantes o colocar mejor los cables.

Por qué el WiFi falla de verdad en casa

Router WiFi colocado en casa

La mayoría de problemas de conexión en hogares de España y de otros países europeos tienen poco que ver con trucos mágicos y mucho con factores muy concretos. Entre las causas más habituales de un WiFi lento o inestable están:

  • Ubicación incorrecta del router: escondido en un mueble, en una esquina o en zonas muy alejadas de donde se usan los dispositivos.
  • Obstáculos físicos: paredes gruesas de carga, tabiques de hormigón, suelos y techos entre plantas, muebles voluminosos o estructuras metálicas.
  • Interferencias de otros aparatos: microondas, televisores, altavoces Bluetooth, bases de teléfonos inalámbricos u otros routers cercanos.
  • Saturación de la red doméstica: demasiados móviles, ordenadores, consolas, televisores y domótica conectados al mismo tiempo.
  • Configuración poco optimizada: uso de un solo canal muy saturado, firmware desactualizado o mezcla poco eficiente de bandas de 2,4 y 5 GHz.

En viviendas habituales en España, con varias habitaciones y paredes de ladrillo u hormigón, no es raro que aparezcan “puntos muertos” donde la señal casi no llega. Esos problemas no desaparecen ni se reducen por dejar una moneda sobre la carcasa del router; requieren ajustes más de fondo.

También conviene recordar que la banda de 5 GHz ofrece más velocidad, pero tiene menos alcance y atraviesa peor los obstáculos que la de 2,4 GHz. Por eso funciona muy bien cerca del router, pero se degrada rápido con la distancia y los muros, algo que ningún truco con monedas va a solucionar.

Dónde no colocar nunca el router y cómo ubicarlo mejor

Si se quiere mejorar de verdad el WiFi sin costes extra, el paso más efectivo suele ser reubicar el router. Los expertos en redes coinciden en una serie de recomendaciones generales para pisos y casas:

  • Zona central de la vivienda: cuanto más centrado esté respecto a las estancias donde se usa internet, mejor se repartirá la señal.
  • Posición elevada y abierta: sobre una mesa, estantería o mueble bajo, evitando el suelo, cajones o espacios cerrados.
  • Lejos de grandes objetos metálicos: radiadores, estructuras metálicas, chasis de televisores o armarios con mucho metal.
  • A distancia de electrodomésticos problemáticos: especialmente la cocina y el microondas, que pueden generar interferencias fuertes.

Al mismo tiempo, hay ubicaciones que conviene evitar siempre que sea posible:

  • La cocina: concentra electrodomésticos que interfieren con el WiFi y grandes superficies metálicas que bloquean la señal.
  • Junto a ventanas: parte de la señal se “escapa” hacia la calle y se pierde cobertura útil en el interior.
  • Escondido tras el televisor o dentro de un mueble: el propio aparato, los cables y el material del mueble actúan como barrera.
  • Sótanos, esquinas o trasteros interiores: alejan innecesariamente el punto de emisión de las zonas donde se navega.

En casas con paredes muy densas, como ocurre en muchas construcciones en España, Canarias o el resto de Europa, colocar el router en un pasillo central o en el salón suele ofrecer mejores resultados que dejarlo en una habitación apartada o junto al cuadro de comunicaciones, por muy cómodo que sea para ocultar los cables.

Con estos ajustes básicos, en muchos hogares se consigue una mejora muy superior a la que promete cualquier truco viral, y sin necesidad de recurrir a objetos improvisados encima del dispositivo.

Alternativas reales para mejorar la conexión sin recurrir a mitos

Una vez descartada la moneda como solución milagrosa, siguen existiendo numerosas formas, algunas gratuitas y otras de bajo coste, para optimizar el WiFi en casa. Los técnicos suelen sugerir una combinación de medidas según el tamaño de la vivienda y el uso que se haga de la red.

Entre las opciones más sencillas y al alcance de cualquier usuario están:

  • Reiniciar periódicamente el router: ayuda a resolver pequeñas saturaciones y a liberar memoria.
  • Actualizar el firmware: muchas operadoras lo hacen de forma remota, pero conviene comprobarlo o solicitarlo si el equipo es antiguo.
  • Cambiar la contraseña y revisar quién está conectado: evitar accesos no autorizados puede aliviar la carga de la red.
  • Seleccionar adecuadamente la banda: usar 5 GHz para dispositivos cercanos que requieren alta velocidad y 2,4 GHz para equipos lejanos.

Cuando la vivienda es grande o tiene varias plantas, puede ser necesario ir un paso más allá:

  • Repetidores WiFi: amplían la cobertura llevando la señal a habitaciones alejadas del router principal.
  • Sistemas WiFi mesh: crean una red unificada con varios nodos repartidos por la casa, muy útiles en chalés o pisos grandes.
  • PLC (adaptadores por la red eléctrica): aprovechan el cableado eléctrico para llevar la conexión a enchufes donde se conectan puntos de acceso WiFi adicionales.

En todos estos casos, los resultados son medibles y replicables, algo que no ocurre con improvisaciones como la moneda en el router o el papel de aluminio mal colocado. La clave está en entender cómo se comporta la señal y en intervenir sobre factores realmente determinantes.

En definitiva, el truco de poner una moneda encima del router de WiFi es un buen ejemplo de cómo una idea con cierta base teórica puede transformarse en mito cuando se simplifica en exceso. No mejora la cobertura ni la velocidad, puede contribuir al sobrecalentamiento del equipo y, en el mejor de los casos, solo añade algo de peso al dispositivo. Para lograr una conexión más estable en casa, resulta mucho más efectivo revisar la ubicación del router, reducir interferencias, ajustar la configuración y, si la vivienda lo exige, apoyarse en soluciones como repetidores o sistemas mesh, que sí están diseñados para cambiar de verdad la forma en que llega el WiFi a cada rincón.



from Actualidad Gadget https://ift.tt/QoDZ6uU
via IFTTT

Bitcoin ante la crisis de seguridad cuántica: ¿podrá reaccionar a tiempo?

crisis de seguridad cuantica del bitcoin

La conversación sobre la crisis de seguridad cuántica del bitcoin ha pasado de los debates teóricos a una preocupación muy concreta: qué ocurre con los millones de monedas cuyas claves públicas ya son visibles en la cadena y que podrían quedar al alcance de un ordenador cuántico avanzado, y la proliferación de soluciones de cifrado cuántico. Mientras el hardware progresa, la gran incógnita ya no es solo técnica, sino de gobernanza: ¿puede la red coordinar a tiempo la mayor actualización de seguridad de su historia?

En Europa y España, donde Bitcoin se usa cada vez más como activo de inversión y reserva de valor, esta cuestión no es académica. Bancos, custodios regulados, fondos y pequeños ahorradores se preguntan hasta qué punto sus tenencias podrían verse comprometidas si llega el llamado Q-Day, el momento en que la computación cuántica consiga romper la criptografía actual. Y, sobre todo, si Bitcoin será capaz de reaccionar sin sacrificar los principios que le han dado sentido desde 2009.

Qué puede y qué no puede romper la computación cuántica en Bitcoin

Los análisis técnicos recientes, entre ellos los difundidos por CoinDesk y reseñados por medios especializados europeos, coinciden en un punto clave: la minería de Bitcoin y el libro contable no son el objetivo principal de la amenaza cuántica. El proceso de validación de bloques se apoya en funciones hash que, incluso frente a ordenadores cuánticos, no se consideran vulnerables en el corto y medio plazo.

La preocupación se centra en otro frente: la propiedad de las monedas. Las carteras de bitcoin usan criptografía de curva elíptica (ECC) para derivar, a partir de una clave privada secreta, una dirección pública visible. Con ordenadores clásicos, invertir ese proceso es prácticamente imposible en tiempos razonables; pero un algoritmo cuántico, Shor, reduce drásticamente la dificultad teórica de ese problema.

Según los datos citados por CoinDesk, actualmente unos 6,9 millones de BTC, aproximadamente un tercio del suministro emitido, están potencialmente expuestos porque sus claves públicas ya se han publicado en la blockchain. Aquí entran direcciones muy antiguas, formatos de dirección de los primeros años y cualquier monedero desde el que se haya gastado en algún momento, dejando la clave pública al descubierto.

Entre las cantidades simbólicas destaca el cerca de 1 millón de bitcoins atribuidos a Satoshi Nakamoto, intactos desde los inicios de la red y que, por el formato empleado en su día, se encuadran en el grupo con exposición futura. Para un atacante cuántico, estas direcciones formarían parte de un listado que podría ir procesando una a una, sin necesidad de competir contra transacciones en tiempo real.

La publicación de un trabajo de Google ha añadido presión al debate. El documento sostiene que un potencial ataque cuántico contra la criptografía de curva elíptica podría requerir menos recursos de los estimados hace unos años, en una ventana de tiempo que empieza a solaparse con los horizontes de inversión de fondos institucionales europeos. La advertencia es clara: cuando el ataque sea factible en la práctica, es posible que ya no quede margen para reaccionar.

Taproot, claves expuestas y por qué parte del riesgo se ha ampliado

seguridad cuantica en bitcoin

La amenaza cuántica no nace de un fallo puntual del protocolo, sino de cómo han evolucionado tanto Bitcoin como la tecnología que pretende atacarlo. La actualización Taproot, activada en 2021, buscaba mejorar la eficiencia y la privacidad de las transacciones, algo que en su momento se vio como un avance lógico y necesario para el ecosistema.

Sin embargo, uno de sus efectos secundarios ha resultado ser relevante en este contexto: a partir de Taproot, cualquier bitcoin gastado desde direcciones compatibles acaba revelando la clave pública que protege el saldo restante vinculado a esa dirección. En un mundo donde los plazos cuánticos parecían lejanos, la compensación era razonable; con un horizonte de amenaza más cercano, la lectura cambia.

Esta situación se suma al problema de las direcciones antiguas y del reuso de direcciones por parte de grandes custodios, incluidos exchanges europeos y plataformas internacionales que operan en la UE. La práctica de reutilizar direcciones, pensada en su día como una comodidad operativa, amplía el conjunto de claves públicas visibles y, por tanto, el número de monedas potencialmente vulnerables a futuro.

Conviene subrayar que no todas las monedas tienen el mismo nivel de exposición. Algunas siguen bajo esquemas en los que la clave pública solo se revela en el momento del gasto e incluso pueden estar reforzadas por capas adicionales (como multifirmas o soluciones de custodia avanzadas). Pero el volumen acumulado en formatos menos prudentes hace que el riesgo sistémico no pueda minimizarse.

Los expertos que siguen el tema desde Europa recuerdan que la seguridad de las billeteras no depende solo del código del protocolo, sino también de los hábitos operativos de los usuarios y proveedores. Buenas prácticas como evitar el reuso de direcciones, actualizar carteras y mantener un control riguroso sobre claves y semillas son, hoy por hoy, la primera línea de defensa antes de que lleguen soluciones poscuánticas a nivel de consenso.

Ethereum se organiza, Bitcoin se atasca: dos modelos frente al riesgo cuántico

La comparación entre Bitcoin y Ethereum se ha convertido en un ejemplo recurrente para medir el nivel de preparación del ecosistema ante la amenaza cuántica. Desde 2018, la Fundación Ethereum coordina un plan formal de migración, con cuatro equipos dedicados a tiempo completo y más de una decena de grupos de desarrollo independientes desplegando redes de prueba de forma recurrente.

Ese plan contempla, distribuidos en varias fases de red, cambios concretos que trasladan la seguridad de Ethereum hacia nuevos esquemas criptográficos resistentes a la computación cuántica. La fundación mantiene además un sitio específico, pq.ethereum.org, donde se documentan avances, pruebas y propuestas, ofreciendo un relato relativamente ordenado a usuarios, reguladores y empresas, también en el entorno europeo.

Bitcoin, en cambio, carece de una hoja de ruta unificada. Existen propuestas técnicas, investigaciones independientes y debates intensos, pero no hay un órgano central que financie, priorice y aglutine el trabajo. La cultura del proyecto rechaza de raíz la idea de una autoridad única, y los cambios profundos del protocolo se entienden como un riesgo en sí mismos, algo que conviene aprobar muy de vez en cuando y tras largos procesos de consenso social.

Entre las iniciativas sobre la mesa, una de las más citadas es BIP-360, que propone la incorporación de nuevos tipos de direcciones resistentes a la computación cuántica, hacia las que los usuarios podrían migrar de forma voluntaria. Su objetivo es ofrecer una vía de transición gradual, donde quienes lo deseen puedan mover sus fondos sin forzar a toda la red al mismo ritmo.

En paralelo, un esquema impulsado por BitMEX Research plantea la creación de un sistema de detección que active medidas defensivas si se observan indicios claros de un ataque cuántico en marcha. La idea sería dotar a la red de una suerte de “alarma temprana” capaz de desencadenar respuestas coordinadas llegado el caso, aunque la implementación concreta sigue siendo motivo de discusión.

Críticas públicas, dudas internas y el choque cultural en Bitcoin

El contraste de enfoques ha llevado a voces destacadas del ecosistema a posicionarse con claridad. Nic Carter, inversor y uno de los defensores más conocidos de Bitcoin, ha calificado la respuesta actual de la comunidad como “la peor de su clase”, especialmente si se compara con la estrategia seguida por Ethereum, a la que ha descrito como referencia positiva en este ámbito.

Carter ha denunciado públicamente una actitud de negación en parte del entorno desarrollador, a quienes acusa de minimizar el riesgo, manipular el relato o simplemente evitar el tema. A su juicio, seguir retrasando decisiones clave por miedo a tocar el protocolo podría dejar a millones de bitcoins, incluidos los de inversores minoristas en España y el resto de Europa, sin protección suficiente ante una irrupción cuántica acelerada.

En el otro extremo del espectro se sitúan figuras como Adam Back, CEO de Blockstream y veterano en el desarrollo de Bitcoin. Back reconoce la necesidad de anticiparse, pero se muestra escéptico con los plazos más alarmistas. En sus intervenciones recientes ha insistido en que los sistemas cuánticos actuales siguen siendo, en gran medida, “experimentos de laboratorio”, aunque coincide en que es preferible tener actualizaciones opcionales preparadas antes de que el problema sea urgente.

Más allá de las diferencias de tono, hay un consenso parcial: la red debería contar, al menos, con mecanismos de migración voluntaria listos para activarse. El desafío reside en cómo lograrlo sin introducir puertas traseras ni reglas que puedan ser percibidas como una forma encubierta de censura o confiscación, algo a lo que buena parte de la comunidad se opone frontalmente.

En paralelo, informes y análisis académicos recuerdan que la estructura de gobernanza de Bitcoin, basada en el consenso social distribuido y la ausencia de fundaciones dominantes, ha sido una fuente de estabilidad durante casi dos décadas. Pero ese mismo modelo, que evitó cambios bruscos en el pasado, puede convertirse ahora en un freno para coordinar una respuesta rápida frente a la amenaza cuántica, especialmente si los plazos técnicos se acortan.

BIP-361: congelar o proteger, el debate más delicado hasta la fecha

En este contexto ha irrumpido una propuesta especialmente polémica: BIP-361, un borrador de mejora del protocolo que plantea la congelación de bitcoins que no migren a direcciones poscuánticas en un plazo determinado. Para algunos, se trata de una defensa preventiva necesaria; para otros, de una ruptura frontal con la promesa de inmutabilidad y ausencia de censura que define a Bitcoin.

En términos prácticos, BIP-361 propone un periodo de transición —por ejemplo, cinco años desde la activación— durante el cual los usuarios tendrían que mover sus fondos desde direcciones consideradas vulnerables (las basadas en firmas ECDSA o Schnorr sin protección adicional) hacia nuevos formatos resistentes a ataques cuánticos. Una vez vencido el plazo, las monedas que no se hubieran migrado quedarían congeladas a nivel de consenso: seguirían registradas en la blockchain, pero ya no podrían gastarse.

Los defensores de la propuesta argumentan que el verdadero riesgo sistémico sería permitir que un atacante cuántico robe y liquide millones de bitcoins en el mercado, con un impacto devastador sobre el precio y la confianza, también entre los inversores institucionales europeos. Desde esta óptica, congelar parte del suministro vulnerable sería un mal menor frente a un colapso de credibilidad mucho más difícil de gestionar.

Uno de los argumentos en contra es que parte de la exposición procede de malas prácticas de grandes custodios, como el reuso de direcciones por parte de exchanges. En lugar de intervenir las reglas de consenso, los críticos sostienen que el ecosistema debería corregir estos comportamientos mediante estándares de la industria, auditorías y presión regulatoria, especialmente en jurisdicciones como la Unión Europea, donde MiCA y otras normativas ya están configurando el marco legal de los criptoactivos.

Estudios técnicos citados por los detractores de BIP-361 señalan además que, si se dedicara una fracción razonable del espacio de bloques —por ejemplo, un 25 %— a operaciones de migración bien planificadas, sería posible trasladar la gran mayoría del valor a direcciones seguras en un periodo relativamente corto, sin necesidad de recurrir a medidas coercitivas a nivel de protocolo. Este enfoque refuerza la idea de que la educación y la coordinación pueden ser suficientes si se actúa con la debida antelación.

La alternativa privada: protocolos poscuánticos y agilidad criptográfica

Mientras la comunidad de Bitcoin discute cómo responder desde el propio protocolo, algunas empresas tecnológicas han decidido moverse por su cuenta. Una de las iniciativas más ambiciosas la lidera MicroCloud Hologram Inc., que ha anunciado su participación en el diseño de un nuevo protocolo de Bitcoin resistente a la computación cuántica, concebido como un marco de seguridad evolutivo y no como un simple parche criptográfico.

La compañía plantea una reestructuración integral de la pila, desde la capa de protocolo hasta la de aplicación, con varias líneas de trabajo: reconstrucción del sistema de firmas con algoritmos post-cuánticos, un modelo de cifrado híbrido, actualización del sistema de direcciones y un mecanismo de verificación de transacciones adaptado al nuevo contexto. El objetivo declarado es equilibrar seguridad, rendimiento y compatibilidad, reduciendo el riesgo de divisiones duras (hard forks) traumáticas.

En el apartado de firmas, MicroCloud propone sustituir ECDSA por algoritmos de clase ML-DSA y otras variantes basadas en retículos y hash. Estos esquemas se apoyan en problemas matemáticos como el del vector más corto en retículos o la resistencia a colisiones de funciones hash, considerados robustos frente a ataques cuánticos según el conocimiento actual. La arquitectura incluíría además estructuras multifirma y un sistema de “agilidad criptográfica” que permita cambiar de algoritmo sin rediseñar todo el protocolo.

El diseño incluye también un cifrado híbrido (Hybrid PQC) que combinaría algoritmos ECC tradicionales con algoritmos post-cuánticos, exigiendo firmas duales para validar transacciones. La idea es mantener la seguridad incluso si uno de los componentes se viera comprometido, ofreciendo una pasarela gradual en lugar de un salto brusco a un único estándar nuevo que aún deba madurar.

Para el sistema de direcciones, la empresa plantea mecanismos como la exposición diferida de la clave pública, el uso de direcciones de un solo uso y formatos específicamente diseñados para resistir la computación cuántica (PQA Address). Además, se prevé que los usuarios puedan migrar sus activos de manera progresiva, con herramientas específicas para minimizar el impacto en el mercado y evitar movimientos masivos forzados que generen volatilidad adicional.

Verificación multicapa, incentivos y estandarización abierta

El plan de MicroCloud no se limita a la teoría. La compañía afirma que desplegará una red de prueba resistente a la computación cuántica donde validar los nuevos algoritmos de firma, el cifrado híbrido y las estructuras de verificación multicapa. La idea es someter estas piezas a simulaciones de ataques cuánticos en diferentes escenarios, midiendo tanto la seguridad como el coste computacional y el impacto operativo.

En cuanto a la verificación de transacciones, el enfoque introduce pruebas de conocimiento cero para reforzar privacidad y seguridad, así como funciones de retardo verificables (VDF) que dificulten los ataques de alta velocidad incluso con hardware avanzado. El propósito es conservar una experiencia de uso razonable mientras se endurece la resistencia frente a nuevos vectores de ataque.

La ruta de implementación contempla varias fases: primero, un periodo de simulación intensa y perfeccionamiento técnico; después, la publicación de libros blancos, apertura del código y mecanismos de participación comunitaria. Con ello se busca que el diseño no quede en manos de un único actor, sino que pueda evolucionar bajo un modelo más cercano al de los estándares abiertos.

Una vez alcanzado un consenso técnico suficiente, el protocolo entraría en una etapa de compatibilidad con la red principal, introduciendo nuevos formatos de transacción coexistentes con el sistema actual. Herramientas dedicadas facilitarían la actualización de monederos y la migración de saldos, mientras que un sistema de incentivos económicos animaría a los participantes a completar el proceso sin demorarlo indefinidamente.

MicroCloud asegura disponer de recursos financieros significativos, con reservas de efectivo superiores a los 390 millones de dólares y un plan de inversión de más de 400 millones para el desarrollo de seguridad cuántica en la blockchain de Bitcoin, computación cuántica y holografía cuántica. Su aspiración es convertirse en un referente mundial en tecnología blockchain segura frente a la era cuántica, algo que, de materializarse, podría tener impacto directo en proveedores y usuarios europeos que adopten sus soluciones.

Experimentos, polémicas y la delgada línea entre avance real y marketing

Al margen de los planes de largo plazo, el debate se alimenta de demostraciones prácticas que buscan medir cuánto se ha avanzado en ataques cuánticos reales contra la criptografía usada por Bitcoin. El caso más comentado en los últimos meses ha sido el del investigador independiente Giancarlo Lelli, que logró vulnerar una clave de curva elíptica de 15 bits empleando hardware cuántico accesible en la nube, lo que le valió un premio de 1 BTC.

Este experimento, promovido por Project Eleven bajo el nombre de Q-Day Prize, ha sido presentado como un hito que demuestra que los ataques cuánticos dejan de ser exclusivos de laboratorios ultraespecializados. La prueba, 512 veces más potente que la anterior marca pública de 2025, ha alimentado la narrativa de que la amenaza cuántica empieza a ser tangible incluso con recursos relativamente modestos.

Sin embargo, la comunidad técnica de Bitcoin no ha tardado en señalar matices importantes. James O’Beirne, desarrollador de Bitcoin Core, ha calificado el logro como un “engaño” en términos de avance real, argumentando que la clave usada pertenece a una familia ECC de escala muy reducida, sin relación práctica con las claves de 256 bits que usa Bitcoin. Además, sostiene que gran parte del trabajo se realizó con ordenadores clásicos, incorporando la solución al propio circuito cuántico en forma de precomputación.

Para O’Beirne, el hecho de que el circuito esté diseñado para “escupir una respuesta ya conocida” desvirtúa la demostración como evidencia sobre la capacidad autónoma de un ordenador cuántico para romper claves reales de Bitcoin. Una nota de la comunidad en X (antes Twitter) ha reforzado esta visión, destacando que el método se basa en verificaciones clásicas indistinguibles del ruido aleatorio, lo que lo acerca más a una adivinanza asistida que a una ruptura efectiva de la criptografía en uso.

Desde Project Eleven, su CEO Alex Pruden defiende que toda implementación práctica del algoritmo de Shor incluye fases de procesamiento clásico previo y posterior, y que el experimento, aunque no escalable a claves de 256 bits, sigue siendo una demostración cuántica válida en un contexto experimental. Para Pruden, el valor reside en mostrar que la barrera de entrada técnica y económica sigue bajando, un dato que algunos inversores europeos toman como señal de que conviene acelerar la transición poscuántica.

Un reloj que corre para todos: plazos estimados y retos para Europa

Los plazos concretos varían según la fuente, pero el mensaje de fondo es parecido: la computación cuántica avanza y la ventana de seguridad se estrecha. Estimaciones citadas por Google apuntan a que, hacia el final de la próxima década, podría ser factible articular ataques prácticos contra ciertos esquemas criptográficos ampliamente desplegados hoy en día, lo que sitúa el margen de maniobra de Bitcoin en apenas unos años si se quiere actuar con calma.

En el frente regulatorio europeo, la sensación es ambivalente. Por un lado, el marco de MiCA y otras normas en discusión obligan a los proveedores de servicios de criptoactivos a gestionar y divulgar sus riesgos tecnológicos, lo que incluye, al menos a nivel conceptual, la amenaza cuántica. Por otro lado, la falta de estándares claros sobre criptografía poscuántica en producción hace que muchos actores esperen a que el propio sector defina soluciones estables antes de mover ficha.

Para bancos, custodios y gestoras de fondos que manejan bitcoin en nombre de clientes europeos, el dilema es especialmente sensible: deben garantizar la custodia segura a largo plazo sin depender de un protocolo que, de momento, no ha cerrado su estrategia poscuántica. Algunos optan por diversificar hacia activos o redes con planes más definidos; otros confían en que Bitcoin repetirá su patrón histórico de adaptación, aunque a menudo con debates tormentosos.

En este escenario, el papel de las empresas europeas especializadas en ciberseguridad y criptografía avanzada puede ser clave. La adopción temprana de herramientas de firma poscuántica en sistemas internos, pilotos con cifrado híbrido o auditorías específicas sobre exposición de claves públicas en carteras institucionales son medidas que no requieren cambios en el protocolo y que pueden reducir el riesgo mientras el debate en Bitcoin madura.

La discusión sobre la crisis de seguridad cuántica del bitcoin está, en el fondo, marcando una línea divisoria entre quienes priorizan proteger el sistema a toda costa, incluso a precio de alterar reglas históricas, y quienes prefieren preservar la inmutabilidad y la soberanía del usuario, asumiendo que cualquier cambio drástico en el consenso podría dañar más la propuesta de valor que un ataque futuro aún hipotético. En este equilibrio delicado, y con unos plazos que ya no parecen tan lejanos, se jugará buena parte de la confianza que instituciones, empresas y ahorradores europeos depositen en Bitcoin como activo de largo recorrido.



from Actualidad Gadget https://ift.tt/LwMK7fx
via IFTTT

WSL9x: así se ha colado Linux en los viejos Windows 95, 98 y ME

Linux en Windows 9x

Que Linux se llegue a ejecutar dentro de Windows 95, 98 o ME suena a idea imposible sacada de un foro de nostalgia informática, pero un proyecto comunitario ha demostrado que, con suficiente paciencia y conocimiento del sistema, se puede ir mucho más allá de lo que nadie esperaba de los viejos Windows 9x.

Ese experimento se llama WSL9x y adapta, a su manera, la filosofía del actual Subsistema de Windows para Linux a unos sistemas lanzados en los años noventa. No hablamos de una máquina virtual tradicional ni de un arranque dual al uso, sino de una integración cooperativa muy poco ortodoxa que hace convivir el kernel de Linux 6.19 con el propio núcleo de Windows 9x en el mismo equipo.

Qué es WSL9x y qué pretende conseguir

WSL9x, también descrito como Subsistema de Windows 9x para Linux, es un desarrollo experimental creado por Hailey (también conocida como hails), una hacker y aficionada a la informática que ha decidido llevar la idea de WSL a un terreno totalmente retro. Su objetivo no es crear una herramienta de productividad para el día a día, sino demostrar hasta dónde se puede forzar la interoperabilidad entre Windows 95/98/ME y un Linux moderno.

En esencia, el proyecto permite que ambos sistemas operativos cooperen en lugar de funcionar uno dentro del otro de forma aislada. El usuario puede seguir en su escritorio clásico de Windows 95 o 98 y, desde ahí, abrir una terminal que ejecuta Linux de forma nativa, sin virtualización pesada ni emulación completa de hardware.

La desarrolladora presentó públicamente WSL9x a través de una publicación en Mastodon, donde lo define como uno de sus «mejores hackeos» hasta la fecha. No es una afirmación exagerada: lograr que un kernel actual de Linux conviva con un sistema de hace casi treinta años implica sortear limitaciones de arquitectura que, sobre el papel, parecían un muro infranqueable.

Para comprender por qué este experimento ha llamado tanto la atención en la comunidad, conviene recordar qué es el WSL oficial. Microsoft lanzó el Windows Subsystem for Linux en Windows 10 como una capa para ejecutar herramientas y aplicaciones Linux dentro de Windows sin máquinas virtuales clásicas. Con WSL2, incluso se integró un kernel Linux real, muy optimizado, para que todo funcionara con normalidad en equipos modernos.

Subsistema Linux en Windows 9x

La gran diferencia aquí es el contexto: WSL se apoya en el kernel NT de Windows 10 y 11, mientras que WSL9x tiene que lidiar con una familia de sistemas pensados en plena era de MS-DOS, con un modelo de memoria peculiar, protección limitada y una compatibilidad heredada que Microsoft nunca diseñó para algo tan ambicioso.

Los tres pilares técnicos de WSL9x

Según la documentación disponible del proyecto, WSL9x se sostiene sobre tres componentes principales que trabajan de forma conjunta para que Linux se cuele en Windows 9x sin derribarlo del todo.

En primer lugar está el kernel de Linux modificado. En lugar de apoyarse en el comportamiento POSIX estándar y en los mecanismos habituales de gestión de llamadas al sistema, este núcleo adapta su funcionamiento para invocar directamente las APIs propias de Windows 9x. Es decir, el propio kernel Linux habla el idioma de Win9x en la medida de lo posible.

En segundo lugar, el proyecto incorpora un controlador VxD, un tipo de driver muy característico de aquella generación de Windows. Este VxD actúa como dispositivo virtual encargado del trabajo más delicado: inicializar WSL9x, gestionar los eventos que llegan desde el espacio de usuario y mediar en las operaciones que deben entregarse al kernel Linux, como fallos de página y llamadas al sistema.

El tercer bloque lo forma el cliente de WSL9x, que no deja de ser un pequeño programa DOS de 16 bits diseñado para servir de puente. Su función es pasar el control de la consola al kernel Linux como si fuera un TTY, permitiendo que el usuario interactúe con el sistema de código abierto a través de la terminal de comandos de Windows, sin elementos gráficos de por medio.

Esta arquitectura no está pensada para ofrecer una distribución Linux completa con escritorio y aplicaciones gráficas, sino para proporcionar una experiencia de terminal integrada que recuerde, en espíritu, a lo que se consigue hoy con WSL, pero con más restricciones y muchas más piruetas técnicas entre bastidores.

Arquitectura WSL9x en Windows antiguo

Cómo se gestionan las llamadas al sistema en un Windows noventero

El verdadero truco de WSL9x está en la forma en que se resuelven las llamadas al sistema (syscalls) de Linux dentro de la arquitectura limitada de Windows 9x. Estos sistemas carecen de mecanismos modernos para gestionar este tipo de instrucciones de una manera limpia, así que el proyecto recurre a una solución bastante creativa.

Windows 9x no cuenta con una tabla de descriptores de interrupción lo bastante extensa como para instalar un controlador convencional al estilo de lo que se usaría en un sistema actual. Para salvar ese obstáculo, WSL9x se apoya en el manejador de fallos de protección general (el clásico GPF que tantos recuerdos trae a quienes vivieron aquella época).

La idea es sencilla en concepto, aunque compleja en la práctica: cuando el sistema detecta una instrucción de llamada al sistema concreta (por ejemplo, una interrupción 0x80 al estilo Linux) que provoca un fallo, el controlador de WSL9x intercepta esa situación, avanza el puntero de instrucción y trata la operación como si hubiese sido procesada correctamente, redirigiéndola al kernel Linux.

De esta forma, lo que para Windows 9x sería un fallo, pasa a convertirse en el mecanismo que permite a Linux comunicarse con el hardware y con el resto del sistema. El controlador VxD vigila estas instrucciones «problemáticas» y las transforma en llamadas que el núcleo Linux puede entender y gestionar.

Este enfoque, aunque ingenioso, tiene sus consecuencias. Tanto Windows 9x como el kernel de Linux que se ejecuta en WSL9x trabajan en ring 0, el nivel de privilegios más alto del procesador. Eso quiere decir que cualquier error grave en uno de los dos puede arrastrar al otro y bloquear por completo el entorno, algo que la propia autora del proyecto advierte con claridad.

Terminal Linux dentro de Windows 9x

Qué experiencia ofrece realmente: sin escritorio, solo consola

Quien espere lanzar GNOME, KDE o cualquier otro escritorio Linux sobre Windows 95 se va a llevar un chasco. WSL9x está centrado exclusivamente en ofrecer acceso a un entorno de terminal, sin soporte para interfaz gráfica de Linux ni integración visual avanzada con el escritorio de Windows.

En la práctica, usar este sistema implica comportarse casi como un administrador de sistemas Linux en los noventa: todo se hace desde la línea de comandos, ejecutando utilidades y aplicaciones de consola directamente sobre el kernel Linux que coopera con Windows 9x. No es un entorno amigable para principiantes, y requiere cierta soltura con las herramientas clásicas de Unix.

Esta limitación no es casual. Las propias restricciones de memoria, drivers y gestión de recursos de Windows 9x complican enormemente la idea de montar un escritorio Linux moderno sobre esa base, por lo que el proyecto se centra en lo que sí puede hacer de forma mínimamente razonable: ofrecer una shell funcional y acceso a utilidades del ecosistema Linux.

WSL9x tampoco busca competir con soluciones maduras como WSL2 en Windows 10 y 11, que ya permiten ejecutar distribuciones completas con soporte gráfico y un rendimiento muy superior. Aquí la finalidad es más bien exploratoria, cercana a la arqueología informática y a la demostración de que todavía se pueden estirar las capacidades de sistemas que la propia Microsoft abandonó hace más de dos décadas.

Otro aspecto importante es la seguridad. Al funcionar con el kernel de Linux y el de Windows en el mismo nivel de privilegio, y sin los mecanismos de protección que hoy se dan por sentados, la superficie de ataque es considerable. La autora deja claro que no es una plataforma pensada para entornos sensibles, sino un experimento que conviene usar en máquinas de pruebas o en hardware que no contenga información crítica.

Retrocompatibilidad Linux en Windows 9x

Retrocompatibilidad extrema y un guiño al ecosistema europeo

Más allá de la curiosidad técnica, WSL9x vuelve a poner el foco en la peculiar relación de Windows con la retrocompatibilidad. Durante años, Microsoft ha mantenido una capacidad notable para seguir ejecutando software antiguo sobre sistemas nuevos, en ocasiones a costa de arrastrar decisiones de diseño muy antiguas.

En este caso, la compatibilidad no la construye Microsoft, sino la propia comunidad, que fuerza a Windows 95, 98 y ME a dialogar con un kernel Linux moderno. Es una especie de espejo invertido de lo que ocurre hoy con WSL2, donde es Windows 10/11 quien abre la puerta a entornos Linux, y que ha sido clave para muchos desarrolladores y administradores de sistemas también en España y el resto de Europa.

El proyecto se aloja en plataformas de código abierto como Codeberg, que están ganando presencia en el entorno europeo como alternativas a los servicios más dominantes de Estados Unidos. Esta elección encaja con el clima actual en la UE, donde la soberanía digital y el software libre tienen un peso cada vez mayor en estrategias públicas y privadas.

Obviamente, nadie va a modernizar su infraestructura industrial o sus sistemas de oficina sobre Windows 95 gracias a WSL9x, pero sí es un recordatorio de que sigue habiendo mucho interés por entender a fondo cómo funcionan los sistemas de antaño. Museos, coleccionistas, universidades y aficionados a la retroinformática encuentran en proyectos así material práctico para documentar y conservar esa historia tecnológica.

Al final, WSL9x se sitúa en un punto muy particular: no es una solución lista para producción, pero tampoco es un simple experimento de laboratorio sin relevancia. Sirve para tomar medida de hasta dónde se pueden forzar los viejos Windows 9x, para comparar su arquitectura con las versiones actuales de Windows y para recordar que la frontera entre sistemas «incompatibles» es, a veces, más flexible de lo que parecía.

Todo lo que rodea a este subsistema improvisado deja un mensaje claro: la combinación de ingeniería paciente, curiosidad y software libre sigue abriendo puertas donde, en teoría, ya no quedaba nada por explorar. Que Linux y Windows 9x puedan compartir máquina de forma cooperativa no cambiará el día a día de la mayoría de usuarios, pero sí demuestra que incluso los sistemas más veteranos todavía guardan margen para sorpresas.



from Actualidad Gadget https://ift.tt/L5PdtkJ
via IFTTT

Claude Mythos destapa 271 fallos en Mozilla Firefox y redefine la ciberseguridad

Seguridad en Firefox y análisis con IA

Mozilla ha dado un paso llamativo en la carrera por reforzar la seguridad de su navegador: una versión temprana de Claude Mythos Preview, el modelo de inteligencia artificial de Anthropic especializado en ciberseguridad, ha ayudado a localizar nada menos que 271 vulnerabilidades en Firefox. Todos estos fallos se han abordado en la versión 150 del navegador, en lo que supone una de las operaciones de saneamiento más intensas que se recuerdan en un gran proyecto de software abierto.

El volumen de errores detectados no implica que Firefox fuera un navegador descuidado o especialmente inseguro. Más bien deja claro que las nuevas herramientas de IA son capaces de revisar código a una escala y velocidad que desborda los métodos clásicos, apoyando a los equipos humanos en una tarea que, hasta ahora, dependía de muchos meses de trabajo de especialistas. La propia Mozilla insiste en que el papel de estos modelos no es mágico, pero sí lo bastante potente como para cambiar las reglas del juego.

271 vulnerabilidades en Firefox 150: qué ha pasado exactamente

Según ha explicado el CTO de Firefox, Bobby Holley, la revisión con Claude Mythos forma parte de un esfuerzo que el equipo viene realizando desde febrero para identificar vulnerabilidades de seguridad latentes en el navegador antes de que salgan a la luz. En esta evaluación inicial, Mythos Preview analizó código de Firefox 150, incluyendo componentes que aún no se habían publicado, y generó una avalancha de hallazgos que ha obligado a reorganizar prioridades internas.

En los boletines públicos de seguridad de Firefox 150 aparecen más de 40 identificadores CVE, aunque solo algunos fallos críticos están acreditados directamente al modelo de Anthropic. La cifra de 271 vulnerabilidades se refiere al conjunto de problemas descubiertos durante la auditoría automatizada, incluyendo errores que no necesariamente se traducen en un CVE independiente pero que sí afectan a la superficie de ataque del navegador.

Para hacerse una idea de la escala, Mozilla recuerda que una colaboración previa con Claude Opus 4.6 en Firefox 148 había permitido localizar 22 errores de seguridad relevantes. Con Mythos, el salto ha sido de unas doce veces más hallazgos en una sola tanda. La diferencia no está tanto en el tipo de vulnerabilidad, sino en la profundidad y el volumen de código inspeccionado y en la capacidad del sistema para razonar sobre patrones complejos.

Holley admite que, para un objetivo tan protegido como Firefox, un solo fallo grave de los detectados habría sido motivo de alerta roja en 2025. Encontrar cientos de ellos de golpe produce una sensación de vértigo, incluso en equipos veteranos, y abre el debate sobre si será posible mantener el ritmo de corrección que estas herramientas permiten alcanzar.

Auditoría de código de Firefox con inteligencia artificial

Una IA que revisa código como un experto… pero a escala de máquina

Hasta ahora, la búsqueda de fallos en navegadores como Firefox se apoyaba en una mezcla de herramientas automatizadas tradicionales (fuzzing, análisis estático) y revisiones manuales realizadas por investigadores de élite. Claude Mythos se sitúa en ese nivel alto de análisis, pero con la capacidad de recorrer enormes bases de código y de combinar pistas que, a una persona, le llevarían semanas o meses de trabajo.

Mozilla subraya un matiz importante: Mythos no está descubriendo una nueva clase de vulnerabilidades inaccesibles para los humanos. Según Holley, todos los fallos detectados podrían haber sido encontrados por un especialista bien formado con tiempo suficiente. Lo que cambia es la escala: una sola herramienta, con un acceso estructurado al código, puede localizar en unas semanas un volumen de errores que, en condiciones normales, se repartiría entre varios ciclos de desarrollo.

Esto encaja con las pruebas realizadas por otras compañías de seguridad que han experimentado con el modelo. Firmas como Palo Alto Networks señalan que Mythos es capaz de concentrar en tres semanas el equivalente a un año de pruebas de penetración en determinados entornos. Sin sustituir a los equipos humanos, multiplica su capacidad, algo especialmente relevante en un mercado donde los perfiles de alto nivel en ciberseguridad son escasos.

Además, el modelo no se limita a marcar líneas de código sospechosas. Las evaluaciones internas apuntan a que puede comprender la lógica de un fallo, proponer parches y, en algunos casos, incluso generar exploits funcionales que demuestran el impacto real de la vulnerabilidad. Esta doble cara —detectar y explotar— es la que hace que la comunidad de seguridad mire a Mythos con una mezcla de interés y preocupación.

Un punto que Mozilla ha querido dejar claro es que, durante esta colaboración, no se han identificado errores que queden fuera del alcance teórico de un investigador humano de élite. Es decir, la IA no está «inventando» nuevas formas de ataque, sino comprimiendo el trabajo intensivo de análisis en un periodo mucho más corto.

Firefox 150: una actualización masiva para los usuarios europeos

Todo este trabajo cristaliza para los usuarios en una actualización concreta: Firefox 150 llega con las 271 vulnerabilidades corregidas y se distribuye a escala global, también para España y el resto de Europa, a través de los canales habituales del navegador en escritorio y móvil. La recomendación de los equipos de seguridad es clara: actualizar cuanto antes.

La mayor parte de las vulnerabilidades se catalogan como fallos de memoria, errores lógicos y problemas de validación de entradas, categorías clásicas en navegadores modernos. Sin embargo, el hecho de que varios de los CVE más delicados reciban crédito explícito a Claude Mythos en los boletines oficiales ilustra hasta qué punto la IA ha intervenido en esta ronda de seguridad.

En Europa, donde los marcos regulatorios sobre ciberseguridad y protección de datos son especialmente exigentes, el caso de Firefox refuerza la idea de que herramientas avanzadas de auditoría automatizada pueden ayudar a cumplir plazos y exigencias normativas sin disparar los costes, y promover el uso de gestores de contraseñas para proteger mejor las credenciales críticas.

Para los usuarios finales, el impacto más inmediato no es visible en forma de nuevas funciones, sino de una reducción de la superficie de ataque que afecta directamente a extensiones, credenciales guardadas y acceso a monederos digitales. La propia Anthropic ha advertido de que Mythos es capaz de localizar y explotar vulnerabilidades de día cero en sistemas operativos y navegadores, el mismo entorno que utilizan monederos calientes y aplicaciones descentralizadas.

Inteligencia artificial aplicada a la seguridad de navegadores

Project Glasswing: acceso limitado para una herramienta delicada

Precisamente por ese potencial ofensivo, Anthropic ha decidido mantener Claude Mythos bajo un acceso extremadamente restringido. El modelo se ofrece dentro de un programa controlado llamado Project Glasswing, enfocado a infraestructuras críticas y grandes empresas tecnológicas, entre las que se incluyen actores como Apple, Microsoft, Google, Amazon Web Services o la Fundación Linux.

La filosofía es sencilla: poner esta capacidad en manos de defensores cualificados antes de que llegue a actores maliciosos. El programa permite escanear grandes bases de código, sistemas operativos, navegadores y servicios en la nube para localizar vulnerabilidades de alto impacto, pero bajo condiciones contractuales y técnicas diseñadas para reducir el riesgo de abuso.

Incluso organismos de seguridad nacional de Estados Unidos, como la NSA, han empezado a probar Mythos en redes clasificadas para identificar puntos débiles en infraestructuras sensibles. En Europa, aunque muchos de estos acuerdos no se hagan públicos, es razonable pensar que grandes proveedores de servicios y empresas estratégicas estén explorando soluciones similares para cumplir con las exigentes normativas de ciberresiliencia.

El trasfondo es claro: la misma tecnología que refuerza un navegador como Firefox podría, en manos equivocadas, acelerar el desarrollo de exploits complejos. De ahí que Anthropic haya introducido salvaguardias específicas en Mythos y haya trasladado algunas de estas barreras a otros modelos de la familia Claude, como Opus 4.7, para evitar que se utilicen como asistentes directos en ciberataques.

En paralelo, también se han documentado incidentes que muestran las dificultades de mantener estas herramientas completamente acotadas: se ha sabido que personas no autorizadas llegaron a usar Mythos tras adivinar una URL de acceso, lo que ha intensificado el debate sobre cómo gestionar el despliegue de modelos con tanto poder ofensivo potencial.

Impacto en el código abierto y en la industria de la ciberseguridad

El caso de Firefox sirve de aviso para todo el ecosistema de software libre. Al ser proyectos abiertos, su código está disponible tanto para defensores como para atacantes, lo que convierte a herramientas como Mythos en un arma de doble filo. Mozilla, por tamaño y recursos, puede asumir una oleada de informes y convertirlos en parches, pero muchos proyectos más pequeños no están en esa situación, ni para realizar copias de seguridad.

Si modelos similares empiezan a utilizarse de forma habitual, no bastará con localizar más vulnerabilidades: hará falta capacidad humana y económica para corregirlas. En Europa, donde buena parte de las infraestructuras digitales se apoyan en componentes de código abierto, el reto pasa por combinar estas auditorías avanzadas con programas de financiación y apoyo a los mantenedores, para que el volumen de hallazgos no termine por desbordarlos.

En palabras de Mozilla, la industria ha vivido durante años en una especie de “empate” constante entre atacantes y defensores. La aparición de IAs capaces de revisar código con este nivel de detalle podría inclinar por fin la balanza hacia el lado defensivo, siempre que se logre cerrar la brecha entre los fallos que detectan las máquinas y los que son capaces de gestionar los equipos humanos.

Al mismo tiempo, los expertos recuerdan que eliminar por completo las vulnerabilidades sigue siendo un objetivo irrealista. Lo que sí parece alcanzable es reducir el tiempo medio en el que un fallo pasa de ser desconocido a estar parcheado, especialmente en software crítico como navegadores, sistemas operativos y servicios de infraestructura en la nube.

En este escenario, la falta de investigadores de alto nivel se convierte en un cuello de botella. La apuesta de Mozilla al trabajar con Claude Mythos apunta a un modelo mixto en el que las IAs cubren parte del trabajo intensivo de búsqueda y los humanos se centran en priorizar, validar y desplegar soluciones. Más cooperación que confrontación entre personas y máquinas.

La nueva carrera: IAs defensoras frente a ataques asistidos por IA

Más allá del caso concreto de Firefox, lo que asoma es una carrera a dos bandas en ciberseguridad: defensas impulsadas por IA frente a ataques también asistidos por IA. Si Claude Mythos es capaz de encontrar cientos de vulnerabilidades en software muy auditado, nada impide que tecnologías parecidas se utilicen para rastrear objetivos menos protegidos, desde pequeñas webs hasta aplicaciones empresariales.

Anthropic reconoce que Mythos puede identificar y explotar vulnerabilidades de día cero en los principales sistemas operativos y navegadores cuando se le pide, una capacidad que, trasladada a manos maliciosas, podría reducir drásticamente el tiempo necesario para encontrar un vector de ataque viable. Por eso el modelo no se ha liberado al público y su uso está rodeado de precauciones.

Para la industria europea —incluyendo entidades financieras, proveedores de servicios digitales y administraciones públicas— la lección es evidente: ignorar estas nuevas herramientas no es una opción. La cuestión ya no es si se van a usar IAs en ciberseguridad, sino quién las tendrá primero y con qué grado de control y supervisión.

Mozilla plantea un escenario en el que la clave no es enfrentar humanos contra máquinas, sino combinar fortalezas: reducir la distancia entre lo que detecta una IA y lo que puede gestionar un equipo humano, recortando así la tradicional ventaja del atacante. Si localizar una vulnerabilidad deja de ser un proceso lento y caro, se dificulta que un mismo fallo permanezca años sin descubrir, como ha ocurrido en muchas piezas de software heredado.

Al final, lo que ha ocurrido con Firefox 150 funciona casi como un anticipo de lo que viene: navegadores, sistemas y servicios sometidos a auditorías continuas por modelos especializados, actualizaciones de seguridad más frecuentes y un debate abierto sobre cómo equilibrar los beneficios de estas IAs con el riesgo de que se conviertan en la herramienta favorita de los atacantes.

Todo apunta a que el hallazgo de 271 vulnerabilidades en Firefox gracias a Claude Mythos marcará un antes y un después en la manera de entender la seguridad del software: una etapa en la que las IAs pasan de ser curiosidades técnicas a convertirse en piezas centrales de la defensa digital, mientras empresas, organismos públicos y proyectos de código abierto —en España, en Europa y en el resto del mundo— se ven obligados a adaptar procesos, recursos y políticas para convivir con auditorías automatizadas capaces de encontrar en semanas lo que antes tardaba años en salir a la luz.



from Actualidad Gadget https://ift.tt/jUnWiQr
via IFTTT

sábado, 25 de abril de 2026

FLISoL: el festival que pone al software libre en el centro de la vida digital

Cartel general FLISoL 2026

El Festival Latinoamericano de Instalación de Software Libre (FLISoL) afronta su edición 2026 consolidado como uno de los grandes encuentros comunitarios en torno a la tecnología abierta y la adopción del software libre en empresas. Lo que empezó siendo una iniciativa casi artesanal para compartir discos y sistemas operativos, hoy se ha transformado en una red de eventos coordinados en decenas de ciudades que combinan instalaciones de GNU/Linux, talleres, debates y propuestas culturales.

Lejos de limitarse a una jornada técnica para especialistas, el FLISoL 2026 se presenta como un espacio donde la ciudadanía puede repensar su relación con la tecnología. Docentes, estudiantes, activistas digitales, profesionales de la informática y personas curiosas se juntan para aprender a usar herramientas libres, discutir sobre soberanía digital y compartir experiencias de uso cotidiano de software abierto.

Un festival con raíces comunitarias y alcance continental

Desde sus inicios en Colombia a mediados de los 2000, el FLISoL se ha expandido como el principal evento de difusión del software libre en América Latina. Cada cuarto fin de semana de abril se repite una dinámica común: universidades, centros culturales, escuelas y bibliotecas abren sus puertas para acompañar a quienes quieren dar el salto hacia sistemas libres o comprender mejor qué hay detrás del código que usan a diario.

En esta edición 2026, las sedes vuelven a articular una programación que combina instalaciones gratuitas de GNU/Linux con charlas introductorias y sesiones avanzadas sobre inteligencia artificial, hardware abierto, redes comunitarias o impresión 3D. La idea que atraviesa todo el festival es sencilla pero potente: poner el conocimiento técnico al servicio de la comunidad, sin barreras económicas ni requisitos previos.

Las experiencias que llegan desde distintas ciudades latinoamericanas subrayan ese carácter de laboratorio vivo de cultura libre. En entornos universitarios, bibliotecas o escuelas técnicas, FLISoL funciona como un puente entre la investigación académica, el activismo digital y las necesidades concretas de usuarios que solo quieren revivir un ordenador viejo o dejar de depender de servicios cerrados.

Ese despliegue se sostiene gracias a una red de personas voluntarias que, año tras año, donan su tiempo para acompañar instalaciones, preparar materiales, coordinar sedes y mantener el espíritu colaborativo del festival. El valor no está tanto en las marcas o las herramientas concretas, sino en la dinámica de apoyo mutuo que se genera alrededor del software libre.

Software libre, derechos y soberanía tecnológica

Hablar de FLISoL implica hablar de las cuatro libertades del software libre: usar los programas para cualquier propósito, estudiar cómo funcionan, modificarlos según las propias necesidades y redistribuir copias con o sin cambios. Estas libertades, formuladas por Richard Stallman en los años 80, son el corazón de muchas de las charlas y debates que atraviesan la agenda del festival.

En la práctica, estas ideas se traducen en algo muy concreto: cuando utilizamos herramientas libres, sabemos qué hace el software, podemos adaptarlo al aula, a una empresa o a un proyecto comunitario y compartir esas adaptaciones con otras personas. Frente a ello, las aplicaciones privativas implican aceptar condiciones opacas y los peligros de aceptar licencias sin leer, ceder datos que no controlamos y adaptarnos a decisiones tomadas lejos del usuario final.

El contexto actual, marcado por la expansión de plataformas cerradas, servicios en la nube y sistemas de inteligencia artificial poco transparentes, refuerza la importancia de este debate. Para muchos colectivos que participan en FLISoL, la soberanía tecnológica ya no es una consigna abstracta, sino un problema cotidiano: desde escuelas que basan toda su infraestructura en soluciones privadas hasta administraciones que gestionan datos sensibles con software que no pueden auditar.

Con ese telón de fondo, las actividades del festival ponen el foco en preguntas que atraviesan tanto a especialistas como a usuarios comunes: ¿quién controla las plataformas que usamos a diario?, ¿qué implica que un modelo de IA sea realmente abierto?, ¿cómo evitar quedar atrapados en ecosistemas tecnológicos que concentran poder y limitan la autonomía de las personas y los territorios?

Programas, talleres e instalaciones: del miedo a la curiosidad

Uno de los rasgos que más destacan quienes participan en FLISoL es el cambio de clima que se ha producido con los años. Donde antes predominaban la desconfianza y el temor a “romper algo”, ahora la curiosidad ha ido sustituyendo al miedo. Cada vez son más los perfiles que se acercan a estas jornadas: no solo administradores de sistemas, sino también docentes, estudiantes de secundaria, emprendedores y personas que nunca habían oído hablar de GNU/Linux.

Buena parte de la jornada suele dedicarse a las instalaciones asistidas de sistemas operativos libres. Quien lo desea puede llevar su portátil o su sobremesa y recibir acompañamiento para instalar una distribución de GNU/Linux, migrar desde sistemas privativos, realizar un borrado seguro del disco o resolver problemas de rendimiento. Este acompañamiento cara a cara, que en muchos casos replica la ayuda “entre colegas” que históricamente ha impulsado al software libre, se convierte en un recurso clave para derribar barreras de entrada.

Además de estas sesiones prácticas, FLISoL reserva amplios bloques a charlas introductorias sobre cultura libre, privacidad, ciudadanía digital o gestión de datos abiertos. Se abordan temas como el impacto de la IA en la vida diaria, los riesgos de los sesgos algorítmicos, el uso de herramientas abiertas en instituciones públicas o el potencial de proyectos colaborativos al estilo de Wikipedia o OpenStreetMap.

La oferta se completa con talleres más específicos donde se exploran tecnologías como el modelado 3D con software libre, la creación de redes comunitarias con firmware abierto, la comunicación sin conexión a internet mediante soluciones tipo mesh, o la puesta en marcha de infraestructuras con herramientas como Kubernetes y plataformas de virtualización de servidores.

Comunidad, voluntariado y construcción colectiva

Detrás de cada sede de FLISoL hay grupos locales que trabajan todo el año para promover la cultura libre. Comunidades Linux, colectivos de hacktivismo, clubes de software libre, docentes comprometidos con la tecnología abierta o personas a título individual se coordinan para hacer posible que, durante un día, cualquier ciudadano pueda acercarse a estas herramientas sin coste alguno.

El festival se sostiene sobre la lógica del voluntariado: quienes tienen más experiencia comparten lo que saben con quienes recién empiezan. Desde quien instala un sistema operativo en el portátil de un desconocido hasta quien prepara una charla para explicar la diferencia entre software libre y gratuito, la motivación principal es ver a otras personas ganar autonomía digital. No hay detrás una gran campaña comercial ni una estructura corporativa; lo que predomina es la convicción de que el conocimiento crece cuando se comparte.

Esa filosofía también se refleja en actividades paralelas como ferias de libros con licencias abiertas, espacios de reaprovechamiento de equipos en desuso o juegos de mesa y videojuegos libres. Son propuestas que amplían la idea de cultura libre más allá del código, vinculándola con la educación, la participación democrática y la reducción de la brecha digital.

Con cada nueva edición, FLISoL refuerza la percepción de que la tecnología no es un terreno reservado para especialistas, sino un ámbito donde cualquiera puede participar, preguntar, equivocarse y aprender. La dimensión pedagógica y comunitaria del festival es, para muchas sedes, tan importante como la parte técnica: el objetivo no es solo instalar programas, sino construir una mirada crítica y colectiva sobre el papel que juega lo digital en la vida diaria.

A la vista de todo este recorrido, FLISoL 2026 confirma que el software libre es mucho más que una alternativa técnica: es una manera de entender la tecnología como bien común, sostenida por redes de voluntariado que unen formación, debate y práctica concreta. Lo que en su día empezó repartiendo discos y ayudando a instalar GNU/Linux en máquinas viejas se ha convertido en una cita imprescindible para quienes quieren ganar autonomía sobre sus herramientas digitales, por ejemplo comprobando si su móvil es libre, compartir saberes y experimentar con modelos tecnológicos más justos, abiertos y colaborativos.



from Actualidad Gadget https://ift.tt/b4KuP3U
via IFTTT

AI Overviews llega a Gmail en el trabajo: así cambia el correo en Google Workspace

AI Overviews en Gmail

Google ha decidido dar un paso más en la integración de la inteligencia artificial en el entorno de trabajo con la llegada de AI Overviews a Gmail para cuentas empresariales y educativas de Workspace. Lo que hasta hace poco era una función limitada a suscriptores individuales de Google AI Pro y Ultra, se convierte ahora en una pieza central de la experiencia de correo corporativo dentro de Google Workspace.

Con este movimiento, la compañía refuerza la idea de que la IA deja de ser un extra opcional y pasa a ser la forma por defecto de interactuar con tu bandeja de entrada. En lugar de perder tiempo rastreando hilos infinitos, la promesa es poder hacer preguntas directas al buscador de Gmail y recibir respuestas concisas, generadas al vuelo a partir de múltiples correos relacionados.

Qué es exactamente AI Overviews en Gmail para el trabajo

Interfaz AI Overviews Gmail

AI Overviews es una función de búsqueda y resumen inteligente dentro de Gmail que aprovecha el modelo Gemini para entender el contenido de tus correos y ofrecer una respuesta sintetizada. En lugar de limitarse a mostrar una lista de mensajes, la IA genera una visión general con los datos clave que estás buscando.

En la práctica, esto significa que puedes escribir en la barra de búsqueda de Gmail preguntas en lenguaje natural del tipo «¿cuándo es la próxima reunión con mi jefe?» o «¿qué acordamos con el proveedor sobre los nuevos plazos?», y recibir un resumen que recopila la información relevante de varios correos, adjuntos y conversaciones previas.

La novedad en el ámbito empresarial es que estos resúmenes ya no se limitan solo a correos individuales. En cuentas de empresa y educación, AI Overviews se apoya en Workspace Intelligence para cruzar lo que hay en tu bandeja de entrada con documentos de Drive, notas de reuniones en Meet y otros elementos del ecosistema Google Workspace relacionados con el mismo tema.

Al abrir un hilo largo, la función puede mostrar en la parte superior un resumen con los puntos clave, decisiones tomadas y acciones pendientes, manteniendo accesibles los mensajes originales para quien necesite revisar el detalle. Es una forma distinta de entender el correo: menos lectura manual, más contexto directo.

Workspace Intelligence: la capa que une Gmail, Docs, Drive y Chat

Workspace Intelligence y correo

AI Overviews en Gmail no llega sola. Google la sitúa dentro de Workspace Intelligence, una capa de inteligencia transversal que recorre Gmail, Docs, Drive, Calendar, Meet y Chat. Según la compañía, esta capa es capaz de entender relaciones semánticas complejas entre correos, archivos y proyectos, de forma que la IA no solo lee palabras sueltas, sino que capta el contexto de trabajo.

En un entorno corporativo esto se traduce en que, si preguntas algo como «¿cuándo cerramos el nuevo calendario de entregas con el cliente?», la respuesta puede combinar partes de un correo de hace meses, el documento de Drive en el que se actualizó el contrato y las notas de una videollamada en Meet donde se validó el cambio.

Workspace Intelligence se apoya en Gemini 3 como motor de razonamiento y en la capacidad de búsqueda de Google para navegar por todos esos datos internos. La intención es que cualquier contacto frecuente, documento compartido o proyecto activo se convierta en una pieza más de un grafo de conocimiento interno de la empresa.

Ese tejido semántico también alimenta otras funciones como AI Inbox (priorización automática de mensajes relevantes), los resúmenes en Google Drive y el nuevo «Ask Gemini» dentro de Google Chat, que actúa como una especie de línea de comandos unificada para pedir tareas directamente a la IA.

Cómo funciona la búsqueda en lenguaje natural dentro de Gmail

Búsqueda natural en Gmail

La principal diferencia con el buscador tradicional de Gmail es que ya no necesitas recordar el asunto exacto, el remitente concreto o una palabra clave suelta. Es suficiente con escribir la pregunta tal y como se la harías a un compañero.

Algunos de los ejemplos de consultas que Google está poniendo sobre la mesa incluyen preguntas como «¿qué facturas están todavía pendientes de pago?», «¿qué mejoras de rendimiento comentó Owen?» o «¿cuáles son los hitos acordados para el proyecto Astro?». Para usuarios más cotidianos, también entran dudas del tipo «¿cuál es el número de seguimiento del envío del portátil?» o «enséñame mis entradas para el concierto».

Cuando se lanza la búsqueda, Gemini analiza el contenido de múltiples correos y genera un resumen con la respuesta relevante en la parte superior de la pantalla. Junto a ese texto, Gmail muestra enlaces a los mensajes originales que han servido como fuente, de modo que puedas abrirlos si quieres comprobar el contexto o revisar un detalle concreto.

En cuentas personales y de pago, esta experiencia de búsqueda conversacional ya llevaba tiempo disponible, pero ahora da el salto a entornos de trabajo y educación con un alcance mucho mayor, especialmente al combinarse con datos de otros productos Workspace. Eso sí, la calidad de la respuesta sigue dependiendo de que la pregunta esté formulada con cierto nivel de detalle; si la IA no genera un resumen, conviene reformular la consulta con más contexto.

Integración con Gemini 3 y el ecosistema de herramientas de trabajo

Gemini 3 en Workspace

El motor detrás de esta nueva experiencia es Gemini 3, la última generación del modelo de Google para tareas de comprensión y generación de lenguaje. En la práctica, esto le permite manejar mejor el contexto largo de conversaciones, interpretar referencias cruzadas y mantener una cierta coherencia cuando mezcla datos de distintas fuentes.

En Gmail, Gemini no se limita a los resúmenes: también se integra con funciones como Help Me Write (asistente para redactar correos desde cero o mejorar borradores) y Proofread (corrección de gramática, tono y claridad antes de enviar). Todo ello se apoya en la misma comprensión semántica que hace posibles los AI Overviews.

Más allá del correo, el ecosistema de Workspace incorpora «Ask Gemini» en Google Chat como interfaz unificada. Desde una sola ventana de chat es posible pedir al asistente que prepare documentos, localice archivos por descripción en Drive, busque huecos en la agenda de varios miembros del equipo o elabore briefings diarios a partir de correos, reuniones y tareas.

En Docs y otras aplicaciones de productividad, Gemini puede crear infografías y materiales visuales basados en datos de negocio internos, además de realizar ediciones masivas de imágenes para mantener una identidad visual coherente. Todo forma parte de la misma estrategia: que la IA esté presente en cada pieza del flujo de trabajo, aunque el usuario siga viendo las aplicaciones de siempre.

Planes, disponibilidad y despliegue en cuentas empresariales y educativas

AI Overviews cuentas empresariales

Según lo anunciado durante Cloud Next 2026, AI Overviews en Gmail empieza a desplegarse justo después del evento, con un rollout progresivo que se extenderá durante las siguientes semanas y meses. La función se ofrece a distintos tipos de clientes de Workspace, siempre y cuando tengan activadas las capacidades de Gemini.

En el ámbito profesional, la función está disponible para planes Business Starter, Standard y Plus, así como Enterprise Starter, Standard y Plus. También se incluye en ediciones como Frontline Plus y en el paquete Google AI Pro for Education para centros educativos. A nivel de consumo, sigue presente en las suscripciones de pago Google AI Pro y Ultra.

En cuanto a precio específico por AI Overviews, Google no ha detallado una tarifa independiente: la aproximación general ha sido integrar estas funciones de IA dentro de los niveles superiores de Workspace después de simplificar la estructura de precios a comienzos de 2025. Para muchas empresas, esto significa que la IA deja de ser un complemento opcional y pasa a estar incluida como parte natural de la suscripción.

Hay, no obstante, diferencias por tipo de cuenta. En el caso de usuarios gratuitos de Gmail, el acceso suele limitarse a resúmenes básicos de hilos, mientras que las funcionalidades avanzadas de búsquedas conversacionales y análisis profundo de contexto quedan reservadas para suscripciones de pago y planes corporativos. En entornos profesionales y educativos, además, algunas funciones pueden estar disponibles solo desde la versión web, al menos en fases iniciales del despliegue.

Privacidad, control de datos y dudas en entornos regulados

La llegada de AI Overviews a Gmail empresarial también reabre el debate sobre privacidad y uso de datos en soluciones de IA contextual. Para ofrecer resúmenes y respuestas, Gemini necesita procesar correos, documentos y otra información de la organización, lo que inevitablemente genera preguntas en sectores sensibles.

Google insiste en que el contenido de Workspace no se utiliza para entrenar modelos de Gemini fuera del dominio del cliente sin permiso explícito, y en que los datos se tratan dentro de un perímetro de seguridad diseñado bajo principios de «engineered privacy». Los administradores de dominio cuentan con paneles para definir qué grupos o usuarios pueden acceder a las funciones de IA y hasta qué nivel.

Aun así, cada empresa debe decidir qué grado de confianza deposita en un proveedor externo, especialmente en sectores como sanidad, servicios financieros o defensa, donde la regulación europea y las políticas internas son más estrictas. Para algunas organizaciones el equilibrio entre productividad y riesgo será aceptable; para otras, puede ser necesario limitar o desactivar parte de estas capacidades.

La propia Google reconoce que existen opciones para desactivar o restringir AI Overviews y otras herramientas de Gemini en Gmail, si bien el diseño general del producto anima a mantenerlas activas para aprovechar al máximo Workspace Intelligence. Es un tira y afloja clásico: más automatización y comodidad, a cambio de confiar en la infraestructura de un tercero para manejar información crítica.

El resultado de este despliegue apunta a un cambio bastante profundo en la forma en que equipos de España y del resto de Europa se relacionan con su correo corporativo: cada vez será menos habitual “bucear” manualmente por la bandeja de entrada, y más normal formularle preguntas a la propia herramienta para que haga el trabajo pesado de búsqueda y síntesis. Quien se acostumbre a esa dinámica en el entorno de trabajo difícilmente querrá volver atrás, lo que convierte a Gemini y a Workspace Intelligence en un componente muy difícil de sustituir dentro del ecosistema de Google.



from Actualidad Gadget https://ift.tt/0f2smLg
via IFTTT

Alexa+ llega a España: así es la nueva era del asistente de Amazon

Alexa+ llega a España

Hablarle a un altavoz como si fuera una persona de casa era hasta ahora más un deseo que una realidad. Con Alexa+ llegando oficialmente a España, Amazon quiere que esa sensación cambie y que la interacción con sus dispositivos Echo se parezca mucho más a una conversación normal que a una lista de órdenes robóticas.

El nuevo asistente no es una simple actualización de software: es una revisión profunda de Alexa que combina modelos avanzados de inteligencia artificial generativa con una adaptación muy cuidada al español de España, a nuestros hábitos diarios y a los servicios que usamos aquí. Tras su estreno en Estados Unidos y otros mercados, le toca el turno al público español, que podrá probarlo primero mediante un programa de acceso anticipado.

Qué es Alexa+ y qué cambia frente a la Alexa de siempre

Nuevo asistente Alexa+ en España

La idea central de Alexa+ es sencilla de explicar, aunque compleja de ejecutar: que dejemos de hablarle a un dispositivo como si estuviéramos dictando comandos. Con la nueva versión, podemos expresarnos con naturalidad y aprovechar nuevos modos de Alexa, dejar frases a medias, usar coletillas, cambiar de tema sobre la marcha o retomar una conversación anterior sin tener que repetir siempre la palabra de activación.

En la práctica, el asistente es capaz de seguir el hilo cuando decimos cosas como: “Oye, ¿cómo se titulaba la última peli de Almodóvar? Pon la canción que usa la base de ‘Saturday Night’ de Aitana y luego mueve la música al salón”. Encadena peticiones, recuerda el contexto y responde sin obligarnos a ajustar nuestro lenguaje a un guion rígido.

Este salto llega gracias a una arquitectura nueva que “orquesta” más de 70 modelos de inteligencia artificial, propios de Amazon (como la familia Nova) y de terceros como Anthropic, integrados a través de la plataforma Amazon Bedrock. El sistema decide al vuelo qué modelo usar según la tarea: uno ligero para una consulta sencilla o uno más potente cuando hace falta razonar más.

Según datos de la propia compañía, solo en los últimos tres años los usuarios en España han interactuado más de 27.000 millones de veces con Alexa. Con Alexa+, Amazon quiere que buena parte de esas interacciones dejen de ser preguntas sueltas para convertirse en conversaciones continuas y acciones concretas en el mundo real.

Un asistente que actúa: del dato a la tarea completa

Funciones de Alexa+ en España

Una de las diferencias más claras entre la Alexa anterior y Alexa+ está en el paso de responder a hacer. El nuevo asistente está pensado para completar tareas de principio a fin, no solo para ofrecer información.

En el terreno de las reservas, por ejemplo, Alexa+ puede gestionar una comida con amigos de forma bastante automatizada. Podemos decirle algo tan informal como: “Viene Daniela a cenar, mira un sitio cerca y reserva para mañana a las 21:00”. El sistema utiliza socios como TheFork, CoverManager o TripAdvisor para localizar restaurantes disponibles, valorar opciones y cerrar la reserva.

En movilidad, la integración con Cabify permite pedir un coche sin tener que abrir la aplicación. Un “Pide un Cabify desde aquí hasta Cibeles” basta para que el asistente gestione el trayecto, mostrando o leyendo los detalles del viaje. Este tipo de acciones se irá ampliando con más socios locales, como plataformas de ocio tipo Fever.

En compras, Alexa+ pasa de ser un buscador de productos a un gestor de todo el proceso. Puede recomendar un regalo, comparar alternativas, resumir opiniones, vigilar una bajada de precio, añadirlo a la cesta, confirmar el pedido y avisar cuando llegue el paquete. Lo mismo con el supermercado: es capaz de crear una lista de la compra pensada para cada miembro de la familia y tramitarla a través de servicios conectados.

Amazon asegura que, en los mercados donde Alexa+ lleva más tiempo funcionando, alrededor de tres cuartas partes de las peticiones que recibe corresponden a acciones que antes sencillamente no podía realizar un asistente tradicional. El objetivo es que deje de ser un recurso puntual y se convierta en una capa estable de ayuda para la organización diaria.

Conversaciones naturales y muy “de aquí”

Alexa+ adaptada a España

Uno de los puntos en los que Amazon más insiste es en la adaptación cultural de Alexa+ a España. No se trata solo de traducir la interfaz, sino de entender cómo hablamos, qué expresiones usamos y cuáles son nuestras costumbres.

El equipo responsable, con ingenieros, lingüistas computacionales y diseñadores asentados en España, ha trabajado para que el asistente entienda matices como los múltiples significados de “vale” (de acuerdo, entiendo, perfecto o simple muletilla), la diferencia entre una tortilla de patatas con cebolla o sin ella, o que “venga” puede usarse para animar, despedirse o dar por cerrada una conversación.

Esto se traduce en que Alexa+ puede reconocer frases que hasta ahora confundían a los asistentes más clásicos. Si está sonando música y decimos “Alexa, vale”, puede interpretar que ese “vale” es un “para ya, suficiente”. O si pedimos “música para un domingo de terraza”, generará una lista de reproducción que encaje con ese ambiente, no solo con un género musical concreto.

El asistente también está preparado para referencias muy locales. Conoce artistas españoles, entiende que cuando pedimos una paella no estamos hablando de cualquier arroz y sabe que “a las siete no se cena”. Además, incorpora tono adaptable: puede sonar más alegre si percibe entusiasmo cuando le preguntamos por el resultado de nuestro equipo o más prudente si nota decepción.

Otra capa importante está en su capacidad de reconocer voces e incluso imágenes (en dispositivos con cámara). De este modo, adapta respuestas según quién habla y es capaz de responder a preguntas visuales como “¿Este outfit es formal para el evento?” o “¿Está muy sucio el suelo?” apoyándose en lo que ve a través de la cámara del Echo Show.

Hogar inteligente e “inteligencia ambiental”

Donde la nueva Alexa+ muestra parte de su potencial es en el hogar conectado. España es uno de los mercados donde el asistente de Amazon está más extendido: según datos de la empresa, uno de cada cuatro hogares cuenta con algún dispositivo Alexa, y solo en 2025 se usó más de 2.000 millones de veces para controlar luces, enchufes, termostatos y otros aparatos.

Con Alexa+, el control del hogar pasa a apoyarse más en el lenguaje natural y el contexto. Ya no hace falta recordar el nombre concreto de cada dispositivo ni dictar comandos muy rígidos: basta con un “Está oscuro” para que encienda las luces adecuadas o un “Hace calor aquí” para que ponga en marcha el aire acondicionado de la habitación en la que estamos.

Esta misma lógica se aplica a la música o al vídeo. Podemos pedir “Pon mi artista favorito” en la cocina y, cuando pasamos al salón, decir simplemente “Mueve la música aquí” para que el sonido salte al Echo o al Fire TV Stick 4K en España del salón sin interrupciones. La idea es que Alexa+ nos siga por casa manteniendo la conversación y el contenido activos.

Amazon agrupa este comportamiento bajo el concepto de “inteligencia ambiental”: tecnología que está presente en segundo plano, sin exigir atención constante, pero que se adelanta a ciertas necesidades. Por ejemplo, puede encender la calefacción antes de que lleguemos, activar la cafetera a la hora a la que solemos levantarnos o avisar de que hay un nuevo episodio de una serie que seguimos.

En dispositivos con cámara y timbres inteligentes, como los de Ring, Alexa+ también puede ayudarnos con la seguridad doméstica. Frases como “¿Ha llegado algún paquete hoy?” sirven para que revise las grabaciones y nos muestre solo el momento relevante, en lugar de obligarnos a rebobinar manualmente todo el vídeo.

Memoria, contexto y un asistente más personal

Otra pieza clave en la nueva experiencia es la memoria. Alexa+ maneja dos tipos principales: una memoria permanente, que guarda lo que le pedimos explícitamente (por ejemplo, nuestro equipo de fútbol, nuestros artistas favoritos o si un familiar es vegetariano), y una memoria contextual, que se va formando en función del uso (gustos musicales, rutinas diarias) y que se ajusta con el tiempo.

Gracias a esa base, el asistente es capaz de hacer recomendaciones y tomar decisiones algo más finas. Si le contamos que a un invitado no le gusta un determinado ingrediente, tendrá en cuenta ese dato al sugerir una receta o un restaurante, o podrá proponer un menú que no choque con lo que sabe que se ha comido a mediodía, por ejemplo si le hemos enviado el menú escolar de los niños.

Una de las funciones más llamativas es la posibilidad de enviar documentos, correos o imágenes a Alexa+ para que los procese y los tenga disponibles en nuestro contexto personal. Podemos remitirle manuales de electrodomésticos, entradas a espectáculos o apuntes, y luego pedirle que nos recuerde la información clave o que organice el calendario en función de esas fechas.

La continuidad entre dispositivos también se apoya en esta memoria contextual. Si empezamos una conversación en un Echo Show de la cocina buscando ideas para cenar, podemos seguirla más tarde desde el móvil de camino al supermercado o desde el portátil en el navegador, sin tener que repetir lo hablado. El asistente no pierde el hilo aunque cambiemos de pantalla.

En el día a día, esto se traduce en gestos como decirle que hemos tenido “un mal día” y que Alexa+ baje las luces y nos ponga una lista de reproducción relajante, o pedir que organice la semana combinando compromisos personales, horarios de trabajo y actividades de los peques, avisándonos cuando detecte algún solapamiento de citas.

Entretenimiento, música y contenidos en España

En el apartado de ocio, Alexa+ mantiene y amplía las integraciones que ya tenía el asistente en España. Podemos seguir usando Amazon Music, Spotify o Apple Music, además de emisoras de radio nacionales y locales, pero con órdenes mucho más flexibles y cercanas a cómo hablamos en casa. También funciona con altavoces de terceros, incluidos los altavoces Sonos actualizados en España.

Si estamos escuchando una canción y no recordamos el título, basta con decir: “Pon la canción de Rosalía que suena últimamente” o “pon la que usa la base de ‘Saturday Night’ de Aitana”, y el sistema la localizará. También es posible tararear un estribillo o referirnos a la banda sonora de una película sin mencionar su nombre de forma exacta.

Con películas y series, la lógica es similar: podemos pedir “la peli donde salen dos actrices concretas”, “esa comedia española que transcurre en verano” o “películas de Almodóvar que hablen de familia” para que el asistente busque en las plataformas compatibles (incluyendo Fire TV y servicios de terceros) sin necesidad de teclear.

Además, Alexa+ se apoya en medios españoles para noticias e información en tiempo real, leyendo titulares de periódicos como El País, El Mundo, Marca o As, y sintonizando prácticamente cualquier emisora de radio relevante, algo que ya era habitual entre usuarios españoles y que ahora gana fluidez al poder pedirse con menos formalidades.

Dispositivos compatibles y acceso anticipado

La llegada de Alexa+ a España no viene acompañada de una oleada específica de altavoces nuevos para nuestro país, pero sí de una lista amplia de dispositivos compatibles. Amazon asegura que más del 98% de los Echo instalados en hogares españoles podrán acceder a la nueva experiencia.

Entre los modelos destacados se encuentran los Echo Show 8, Echo Show 11, Echo Dot Max y Echo Studio, diseñados para sacar partido al aumento de procesamiento, memoria y capacidades de cómputo en el propio dispositivo. Al mismo tiempo, también serán compatibles generaciones anteriores de Echo, Echo Dot, Echo Plus, Pantallas Echo Show 5, 10 y 15, y varios Fire TV Stick y Fire TV Cube recientes.

El despliegue se realiza a través de un Programa de Acceso Anticipado (Early Access). Quienes compren un Echo compatible desde ahora obtendrán acceso directo a Alexa+, mientras que los usuarios que ya tengan dispositivos en casa deben registrarse en la página habilitada por Amazon (www.amazon.es/nuevalexa) y esperar a recibir la invitación. La compañía planea ir incorporando “cientos de miles” de cuentas por fases durante las próximas semanas.

En paralelo, Amazon trabaja en una versión web de Alexa+ para España. El objetivo es que podamos usar el asistente desde el navegador, con especial foco en las interacciones por texto, algo útil cuando queremos revisar documentos, redactar correos o profundizar en un tema aprovechando el teclado y una pantalla grande.

Privacidad, datos y control para el usuario

Con un asistente más presente y conectado, la preocupación por la privacidad gana peso. Amazon insiste en que Alexa+ se ha diseñado siguiendo el mismo enfoque que otros productos de la compañía: dar control y transparencia al usuario sobre la información que comparte.

El panel de Privacidad de Alexa, disponible tanto en la app como en la web, permite revisar y gestionar las interacciones con el asistente en un solo lugar. Desde ahí se puede escuchar qué oyó Alexa+ en cada petición, revisar documentos o imágenes que le hemos enviado, configurar durante cuánto tiempo se guardan las grabaciones de voz o, directamente, borrar el historial, e incluso activar el modo padre en Alexa si se desea.

Además, es posible pedirle al propio asistente, con la voz, que olvide ciertos datos o que elimine las interacciones recientes. Amazon recalca que Alexa+ no lee correos ni recopila información de forma pasiva: es el usuario quien decide qué enviarle (por ejemplo, un menú escolar o un archivo adjunto) y qué debe recordar.

Buena parte del procesamiento se realiza en la nube, pero en los dispositivos más modernos se aprovecha también el cómputo local para tareas como el reconocimiento de imágenes o ciertas conversaciones rápidas, reduciendo la latencia y limitando en algunos casos la salida de datos fuera del dispositivo.

Como en generaciones anteriores, los Echo mantienen indicadores luminosos cuando el asistente está escuchando y botones físicos para desactivar los micrófonos o la cámara, algo que muchos usuarios valoran para tener un control “físico” de cuándo hay escucha activa.

Modelo de precios y relación con Amazon Prime

El lanzamiento de Alexa+ en España llega acompañado de una estrategia de precios particular. Durante todo el periodo de Acceso Anticipado, el uso del nuevo asistente será gratuito para los clientes que consigan invitación o compren un nuevo Echo compatible.

Una vez finalice esa fase, Alexa+ tendrá un coste independiente de 22,99 euros al mes para quienes no cuenten con otros servicios. Sin embargo, Amazon ha decidido integrar el asistente dentro de la suscripción Prime en España, de modo que los clientes Prime podrán usar Alexa+ sin pagar nada adicional, sumándolo a ventajas como los envíos rápidos, Amazon Music, ofertas en Prime Day o el almacenamiento de fotos en Amazon Photos.

Dado que Prime cuesta 4,99 euros al mes o 49,90 euros al año en España, la compañía confía en que muchos usuarios vean más sentido a la suscripción completa que a pagar solo por Alexa+. De hecho, durante la presentación en nuestro país, directivos de Amazon subrayaron que su objetivo es que “salga casi irresponsable no tener Prime” si se valora el conjunto de servicios.

De cara a los próximos meses, la evolución de Alexa+ en España dependerá en buena medida de cómo responda el público a este cambio de modelo: de un asistente centrado en comandos sencillos a un actor que aspira a participar en buena parte de la organización del hogar, el ocio, las compras y la movilidad.

Ocho años después de la llegada de los primeros Echo a nuestro mercado, la nueva Alexa+ desembarca como un intento claro de rehacer la relación con el asistente de voz: menos órdenes y más conversación, menos listas de tareas manuales y más automatización discreta en segundo plano. Queda por ver hasta qué punto esa promesa aguanta el día a día de hogares reales, pero la apuesta de Amazon por una Alexa “más española”, más práctica y más integrada en los servicios que usamos apunta a un cambio profundo en cómo nos hablaremos con la tecnología en casa.



from Actualidad Gadget https://ift.tt/vJqoS3l
via IFTTT