Apple Intelligence un año después: lo que prometieron, lo que tenemos y lo que necesitamos de la WWDC

Falta poco más de un mes para la WWDC y, mientras todos especulamos con iOS 27 y la nueva familia iPhone Ultra, hay un tema que casi nadie quiere abordar de frente: Apple Intelligence cumple su primer ciclo completo y la sensación general es que no ha terminado de despegar. Hace un año, Apple nos vendió una revolución en la forma de relacionarnos con nuestros dispositivos. Hoy, después de doce meses, la mayoría de usuarios sigue sin tener claro para qué sirve. Y creo que merece la pena pararse a analizar por qué.

Lo que Apple prometió (y cómo lo vendieron)

Hagamos memoria. La WWDC del año pasado fue, sin exagerar, una de las keynotes más ambiciosas que recuerdo de Apple en la última década. Sobre el escenario nos prometieron una IA profundamente integrada en el sistema, capaz de entender contexto, escribir por nosotros, generar imágenes y, sobre todo, una versión de Siri tan avanzada que pondría a temblar a Google Assistant y Alexa. Lo de «un Siri que entiende lo que tienes en pantalla» sonaba a ciencia ficción. Y la realidad es que, un año después, ese Siri sigue sin existir como nos lo presentaron.

El problema no es solo de Siri, ojo. La promesa de fondo era mucho más ambiciosa: una capa de inteligencia que aprovechara el conocimiento personal de cada usuario para hacer cosas que ninguna otra plataforma podía hacer. Y eso, hoy por hoy, está muy lejos de ser real.

Lo que tenemos en mayo de 2026

Voy a ser honesto: Apple Intelligence funciona, pero funciona poco. Las herramientas de escritura están bien, los resúmenes de notificaciones a veces aciertan y a veces son ridículos (todos hemos visto memes con resúmenes que no tenían ningún sentido), Genmoji es divertido durante diez minutos y Image Playground sirve para hacer chistes en grupos de WhatsApp. Eso es, en esencia, lo que tenemos.

Lo de Visual Intelligence está mejor pensado, pero es exactamente lo mismo que Google lleva ofreciendo desde hace años con Lens. Y la integración con ChatGPT, que en su momento sonaba a movimiento maestro, es algo que ya podíamos hacer abriendo la propia app de OpenAI. La realidad es que el día a día con Apple Intelligence no es radicalmente distinto al día a día sin Apple Intelligence. Y eso, después de un año de marketing, debe doler en Cupertino.

El problema real: Apple llegó tarde y luego se atascó

Aquí está, en mi opinión, el quid de la cuestión. Apple llegó tarde a la fiesta de la IA, pero eso lo asumimos todos. El problema es que, una vez llegó, no ha sido capaz de mantener el ritmo de los demás. Mientras Google ha integrado Gemini hasta en el menú de ajustes de Android, mientras Microsoft mete Copilot en absolutamente todo y mientras OpenAI saca un modelo nuevo cada tres meses, Apple sigue prometiendo que el Siri bueno llegará «este año». Y este año ya casi se ha gastado.

Os contábamos en su momento cómo Apple tenía cuatro productos listos pero bloqueados por Siri, y ese diagnóstico sigue sin resolverse. La pantalla inteligente para el hogar lleva meses esperando un Siri conversacional que no llega. El nuevo HomePod va por el mismo camino. Y en el iPhone, las funciones más vendidas siguen apareciendo y desapareciendo a base de actualizaciones .x.

Lo que de verdad necesita iOS 27

Si Apple quiere que la WWDC del 8 de junio sea la keynote de la redención, necesita tres cosas concretas. La primera, y más evidente, es cumplir la promesa pendiente del Siri contextual, ese que entiende lo que tienes en pantalla y actúa sobre el contenido de tus apps. La segunda, dejar de presentar funciones que tardan seis meses en llegar. Y la tercera, y quizá la más importante, hacer que la IA sea útil de verdad para tareas reales, no para generar emojis o reescribir mensajes con un tono distinto.

Necesitamos algo equivalente a lo que Google hace con Gemini en Gmail o lo que Microsoft consigue con Copilot en Office. Algo que cambie cómo trabajas, no que te ahorre dos pulsaciones. Y para que eso ocurra, Apple va a tener que abrir Apple Intelligence a desarrolladores con muchas más posibilidades de las que tienen ahora, porque ellos solos no van a llegar.

La parte que nadie está contando

Hay un detalle que me parece curioso y que casi nadie está mencionando: Apple Intelligence ha cambiado la forma en que Apple presenta sus productos. Antes, una función se anunciaba cuando estaba lista. Hoy se anuncia cuando está en ruta, y luego se va liberando por entregas. Esa estrategia, que con productos físicos sería impensable, con software se ha convertido en la norma. Y no creo que sea casualidad: Apple está intentando comprar tiempo mientras pone a punto algo que sus competidores ya tienen funcionando.

No es necesariamente malo. Es, simplemente, una señal de que Apple va por detrás y lo sabe. Y la WWDC del 8 de junio es probablemente la última oportunidad de cerrar esa brecha sin que el mercado empiece a tomar nota de verdad. Os contamos hace poco cómo Apple está preparando una expansión de la marca Ultra con iPhone y MacBook, pero el mejor hardware del mundo no compensa una IA que se queda corta.

Mi conclusión: tiempo de demostrar, no de prometer

Llevo doce meses con Apple Intelligence activado en mi iPhone y en mi Mac. Y mi conclusión, después de usarlo a diario, es que todavía no he hecho nada que no pudiera hacer antes. Algunas tareas son ligeramente más cómodas, otras son ligeramente más lentas, y la mayoría son indiferentes. Eso, para una función que Apple presentó como un cambio generacional, es un suspenso.

No estoy pidiendo magia. Estoy pidiendo que cuando Apple suba a un escenario y prometa una revolución, esa revolución llegue al usuario en un plazo razonable. Y si no puede llegar, que se diga claro. Lo de presentar funciones que solo se ven en demos pre-grabadas no encaja con la imagen de Apple. Conociendo a Tim Cook, no me extrañaría que en la próxima WWDC bajen muchas exposiciones y se centren en lo que ya funciona. Ojalá.

Preguntas frecuentes

¿Apple Intelligence está disponible para todos los iPhone?
No. Solo funciona en iPhone 15 Pro, iPhone 15 Pro Max, toda la familia iPhone 16 y posteriores. En Mac e iPad, requiere chip M1 o superior.

¿Cuándo llegará el nuevo Siri conversacional?
Apple no ha confirmado fecha oficial. Las filtraciones más recientes apuntan a que se presentará en la WWDC del 8 de junio de 2026, pero su despliegue completo podría retrasarse meses después del lanzamiento de iOS 27.

¿Merece la pena tener Apple Intelligence activado?
Hoy por hoy, las funciones útiles son escasas pero no consume rendimiento ni batería de forma notable. Tenerlo activado es razonable, pero no esperes que cambie tu día a día.

¿Y vosotros qué opináis? ¿Ha cumplido Apple Intelligence vuestras expectativas o también tenéis la sensación de que se quedó corta? ¿Esperáis algo concreto de la WWDC? Os leo en comentarios.

Los comentarios están cerrados.

Ofrecido por WordPress.com.

Subir ↑

Descubre más desde AppleX4: Tu Fuente Definitiva de Noticias Tecnológicas y el Ecosistema Apple en España

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

AppleX4: Tu Fuente Definitiva de Noticias Tecnológicas y el Ecosistema Apple en España
Resumen de privacidad

AppleX4 utiliza cookies propias y de terceros para garantizar el funcionamiento del sitio web, analizar el tráfico y mejorar tu experiencia de navegación.

La información de las cookies se almacena en tu navegador y nos permite reconocerte cuando vuelves a nuestra web, así como comprender qué secciones encuentras más interesantes y útiles.

Puedes ajustar tus preferencias de cookies en las pestañas de la izquierda. Ten en cuenta que desactivar algunas cookies puede afectar a tu experiencia en el sitio.

Para más información, consulta nuestra Política de Cookies y nuestra Política de Privacidad.