iOS 26 y la evolución de la Inteligencia Visual: más allá de la cámara

Con iOS 26, Apple da un paso importante en su apuesta por la inteligencia artificial integrada en sus dispositivos. La función de Inteligencia Visual, que debutó en versiones anteriores centrada únicamente en la cámara, ahora se expande para ofrecer reconocimiento y búsqueda directamente desde la pantalla. Y lo interesante aquí es que esta evolución permite una interacción mucho más natural con la información que ya tienes frente a ti.

De la cámara a la pantalla: conciencia total

Anteriormente, la función solo servía para analizar lo que se veía a través del visor de la cámara. Sin embargo, en esta nueva versión, basta con hacer una captura de pantalla para que el sistema detecte elementos relevantes y los identifique automáticamente. Desde imágenes hasta texto y objetos, iOS 26 abre la puerta a una comprensión más profunda del contenido visual, sin necesidad de estar apuntando la cámara todo el tiempo.

¿Quieres probarlo? Simplemente haz una captura de pantalla como siempre (botón lateral + subir volumen), y al salir del modo de marcado, encontrarás opciones de Inteligencia Visual listas para usarse.

Resaltar para buscar: como Circle to Search, pero en iOS

Una de las novedades más llamativas es Resaltar para buscar. Funciona de forma muy parecida al famoso Circle to Search de Android: puedes usar tu dedo para dibujar sobre cualquier parte de la captura de pantalla, y el sistema te mostrará resultados relacionados. Lo interesante aquí es que incluso si hay múltiples objetos en la imagen, puedes elegir con precisión cuál te interesa.

Por defecto, se utiliza la búsqueda de imágenes de Google, aunque Apple ya ha mostrado cómo esta función puede integrarse con otras apps como Etsy. Es de esperar que más aplicaciones se sumen a esta nueva capacidad en los próximos meses.

Preguntar o buscar: tú eliges

Otra opción práctica es la de Preguntar o Buscar. Si prefieres no señalar nada específico, puedes simplemente tocar el botón “Preguntar” y escribir una duda sobre lo que ves. iOS enviará tu pregunta a ChatGPT para darte una respuesta contextual. Si lo que quieres es una búsqueda más tradicional, el botón “Buscar” usará Google para mostrar más resultados.

Y lo interesante aquí es que, si hay información de eventos en la imagen (como fechas u horarios), puedes añadirla directamente al calendario, sin salir de la interfaz.

Más objetos identificables

Aunque Apple no lo mencionó con bombo y platillo, se ha ampliado el catálogo de objetos que Inteligencia Visual puede reconocer al instante. Ahora no solo puedes identificar animales y plantas, sino también arte, libros, esculturas, monumentos naturales y más. Cuando el sistema detecta uno de estos elementos, verás un pequeño icono brillante que puedes tocar para ver más información. Todo esto sucede directamente en el dispositivo, sin necesidad de conexión a internet para los objetos reconocibles.

¿Qué dispositivos lo soportan?

Como era de esperarse, esta función no estará disponible para todos los modelos. La compatibilidad se limita a los iPhone 15 Pro y los nuevos iPhone 16, ya que dependen de la infraestructura de Apple Intelligence para funcionar. Se activa manteniendo presionado el botón de control de la cámara o mediante el botón de acción o un acceso rápido desde el centro de control.

Fecha de llegada

Por ahora, iOS 26 está en fase beta y solo disponible para desarrolladores y algunos usuarios inscritos en el programa de prueba. La versión final, sin embargo, está prevista para septiembre, cuando se libere junto a los nuevos dispositivos.

Deja un comentario

Blog de WordPress.com.

Subir ↑