sábado, 18 de abril de 2026

Novedades de Apple Intelligence en iOS 27: así cambiarán el día a día con tu iPhone

Novedades de Apple Intelligence en iOS 27

Con la WWDC prevista para junio y iOS 27 a la vuelta de la esquina, las pistas sobre cómo Apple quiere potenciar Apple Intelligence en el iPhone empiezan a encajar. No se trata de un rediseño radical de la interfaz ni de grandes efectos visuales, sino de pequeñas funciones que atacan tareas muy concretas del día a día.

Buena parte de la información procede de cadenas de código internas descubiertas por el desarrollador Nicolás Álvarez y verificadas por medios especializados como MacRumors, a las que se suman filtraciones previas de analistas como Mark Gurman. Nada es oficial hasta que Apple lo enseñe sobre el escenario, pero el patrón es claro: la compañía quiere que su inteligencia artificial deje de ser un concepto abstracto y se note en cosas tan corrientes como hacer la compra, guardar un contacto o ordenar las pestañas del navegador.

Visual Intelligence: del reconocimiento de objetos a entender lo que hay en la etiqueta

Visual Intelligence en iOS 27

Uno de los focos de iOS 27 será Visual Intelligence, el sistema de reconocimiento visual integrado en Apple Intelligence que ya permite apuntar la cámara a un objeto o imagen para obtener información contextual. Con la nueva versión del sistema, esta función dará un salto bastante práctico con dos capacidades nuevas.

La primera novedad tiene que ver con la alimentación: el iPhone podrá leer etiquetas nutricionales de los productos envasados. Al escanear la parte trasera de un paquete, Apple Intelligence interpretará la información impresa y mostrará datos como calorías, cantidad de azúcar, grasas o porciones de manera estructurada. La idea es que el usuario no tenga que ir descifrando letra pequeña, sino recibir un resumen claro y utilizable.

Según las referencias vistas en el código, esta lectura de etiquetas no se quedaría en un simple pop-up informativo. Apple estaría trabajando en una integración directa con la app Salud, de forma que esos valores podrían vincularse al registro nutricional del usuario. Para quien controla la dieta o sigue un plan específico, esto se acercaría a lo que hoy ofrecen apps de terceros, pero sin depender de bases de datos externas ni de introducir datos a mano.

La segunda capacidad de Visual Intelligence va en la línea de reducir tecleo: iOS 27 permitirá escanear tarjetas de visita, folletos o cualquier superficie con números de teléfono y direcciones para crear o actualizar contactos. Igual que el sistema ya detecta fechas en un texto y sugiere añadirlas al calendario, aquí propondrá guardar esos datos directamente en la agenda del iPhone.

En la práctica, esto evitará tener que ir copiando a mano el móvil de un profesional, la dirección de una clínica o el correo que aparece en un cartel. La cámara se convierte en una puerta de entrada rápida a Contactos, algo especialmente útil en contextos de trabajo, ferias o reuniones donde todavía circulan muchas tarjetas físicas en España y el resto de Europa.

Wallet: de las entradas en papel a los pases digitales generados con IA

Apple Wallet en iOS 27

Otra de las funciones que apunta alto en iOS 27 tiene como protagonista a Apple Wallet (Cartera). El código interno del sistema hace referencia a una capacidad nueva: la de convertir documentos físicos en pases digitales nativos de la app.

El funcionamiento sería sencillo sobre el papel: el usuario fotografía una entrada de un concierto, el carné del gimnasio o una tarjeta de socio, y Apple Intelligence se encarga de interpretar el contenido. A partir de esa imagen generará un pase compatible con Wallet, listo para mostrar en el móvil como si se hubiera descargado directamente desde la entidad emisora.

En el plano práctico, esto podría aliviar parte del caos de coleccionar entradas impresas y tarjetas de plástico que todavía es habitual en muchos países europeos, donde no todos los recintos, clubs deportivos o eventos locales ofrecen integración directa con Wallet. No es una idea inédita, ya que Google introdujo algo similar en su app Wallet, pero permitirá a los usuarios de iPhone colocar casi todo su “bolsillo” en formato digital.

La clave estará en el nivel de precisión de la interpretación: la IA tendrá que detectar fechas, códigos de barras, nombres del evento, asientos o condiciones de uso sin que el usuario tenga que corregirlo todo a posteriori. Aunque eso no se puede comprobar hasta que Apple enseñe la función en funcionamiento, sí encaja con la tendencia general del sistema: menos formularios y más automatización a partir de una foto.

Safari: nombres automáticos para grupos de pestañas caóticos

Safari y Apple Intelligence en iOS 27

Safari tampoco se queda fuera de las mejoras impulsadas por Apple Intelligence. Entre las cadenas de texto halladas en el sistema aparece una función que pondrá nombre automáticamente a los grupos de pestañas en función de su contenido, algo pensado para quienes acumulan decenas de páginas abiertas sin orden aparente.

Hoy en día, el navegador permite crear grupos y nombrarlos a mano, pero muchos usuarios nunca llegan a organizarse por pereza o falta de tiempo. Con iOS 27, la IA analizaría qué hay dentro de cada grupo para asignar una etiqueta descriptiva. Si casi todo lo que hay son noticias deportivas, podría generar un título relacionado; si son páginas de reservas, vuelos y hoteles, el sistema lo identificaría como un viaje.

Para el usuario medio, el impacto no está en una gran función de escaparate, sino en una mejora silenciosa de la organización y productividad al navegar. La idea es que sea más fácil volver a un conjunto de pestañas días después sin tener que adivinar qué había en cada grupo “Sin título” o sin pasar por un cierre masivo y empezar de cero.

Esta automatización se complementaría con otras iniciativas vinculadas a Siri y Apple Intelligence en el ámbito de la búsqueda: se ha mencionado un sistema de respuestas directas en Spotlight o Safari, orientado a ofrecer información sintetizada sin necesidad de abrir múltiples enlaces. De momento, eso forma parte de filtraciones más generales sobre la estrategia de IA de Apple, no de las cadenas de código específicas que hablan de los grupos de pestañas.

Un iOS 27 con más IA invisible: Siri, estabilidad y enfoque en tareas concretas

Las cuatro funciones detectadas —nutrición, contactos, Wallet y Safari— no se entienden aisladas, sino como parte de una hoja de ruta más amplia en la que iOS 27 se presenta como una actualización de consolidación. Frente al gran cambio visual de iOS 26 con el diseño Liquid Glass, esta versión apunta a refinar el sistema, mejorar el rendimiento y profundizar en la integración de Apple Intelligence.

En paralelo a estas mejoras específicas, las filtraciones insisten en una renovación de Siri como pieza central de la experiencia. La nueva versión del asistente dejaría de limitarse a comandos sueltos y ganaría una app propia con interfaz tipo chat, historial de conversaciones y posibilidad de alternar entre voz y texto. El objetivo es acercarlo a lo que ya ofrecen servicios como ChatGPT, pero aprovechando que Siri tiene acceso directo a Fotos, Mensajes, Calendario o Mail.

Para dar ese salto, Apple se apoyaría en modelos avanzados de lenguaje, con un papel relevante de la tecnología de Google Gemini en sus centros de datos, y en de los iPhone más recientes. De esta manera, parte de la inteligencia funcionaría en local, lo que encaja con el discurso de privacidad que la compañía lleva años defendiendo en Europa y, en particular, ante los reguladores comunitarios.

Todo esto llega en un contexto en el que Apple ha ido introduciendo la IA de forma bastante más discreta que algunos rivales, y en el que la presión por ofrecer funciones palpables es cada vez mayor. Después de varias versiones donde Siri apenas ha evolucionado, iOS 27 se interpreta como la oportunidad de recuperar terreno aprovechando la base de usuarios ya instalada en España y el resto de la Unión Europea.

En cuanto al calendario, la compañía mantiene su esquema habitual: presentación de iOS 27 en la WWDC de junio, con una primera beta para desarrolladores ese mismo día y una versión pública prevista para septiembre, coincidiendo con el lanzamiento de los iPhone 18. La compatibilidad exacta de las nuevas funciones de Apple Intelligence dependerá del hardware, y todo apunta a que las capacidades más exigentes quedarán reservadas para modelos con motores neuronales más modernos.

A la espera de que Apple detalle qué llega realmente a la versión final y qué se queda en el camino, el retrato que dibujan las filtraciones es bastante coherente: iOS 27 apostará por una inteligencia artificial menos llamativa en la superficie, pero más útil en los gestos pequeños de cada día. Desde leer lo que pone en una etiqueta de comida hasta pasar una entrada en papel a la Cartera o poner orden en Safari, la idea es que el iPhone se vaya volviendo un poco más listo cada vez que lo sacas del bolsillo, sin obligarte a cambiar la forma en la que lo usas.

Funciones de Apple Intelligence en iOS 27



from Actualidad Gadget https://ift.tt/G5l7aEN
via IFTTT

No hay comentarios:

Publicar un comentario