¿AirPods y Apple Watch con cámaras e inteligencia artificial?: Apple podría lanzarlos en 2027

Apple prepara AirPods y Apple Watch con cámara e IA para 2027. Descubre todas las funciones innovadoras que cambiarán tu manera de usar estos dispositivos.

May 10, 2025 - 16:30
 0
¿AirPods y Apple Watch con cámaras e inteligencia artificial?: Apple podría lanzarlos en 2027

AirPods

En los últimos meses ha surgido una oleada de información sobre los planes de Apple para sus futuros dispositivos, especialmente AirPods y Apple Watch. Lo que en un principio podría parecer una simple evolución de estos wearables, en realidad apunta a una transformación profunda en la forma en que interactuamos con la tecnología del día a día. A partir de filtraciones y declaraciones de analistas como Mark Gurman y Ming-Chi Kuo, se perfila que la llegada de cámaras integradas en estos productos será mucho más que añadir una función tradicional de fotografía o videollamada. Y todo ello podríamos verlo a lo largo del año 2027.

Apple apuesta por cámaras con chips propios: «Nevis» y «Glennie»

El salto tecnológico basado en la inteligencia artificial y el reconocimiento contextual, donde las cámaras de los AirPods y el Apple Watch tendrán un papel esencial está más cerca que nunca. Estas novedades, que podrían ver la luz en 2027 si el desarrollo de los nuevos chips avanza como se espera, colocan el foco en el procesamiento de datos ambientales y en la mejora de la experiencia cotidiana del usuario, apostando por innovaciones que van más allá de lo que solemos asociar a estos pequeños dispositivos.

Apple está ultimando, bajo los nombres internos «Nevis» y «Glennie«, nuevos chips diseñados específicamente para dotar de cámaras tanto al Apple Watch como a los AirPods. Según diversas fuentes y medios especializados, estos componentes permitirán que ambos dispositivos no solo capturen imágenes, sino que procesen y analicen información visual en tiempo real. El objetivo no es que puedas hacer fotos tradicionales ni videollamadas, sino que la cámara actúe como un sensor avanzado que permita al dispositivo interpretar y comprender mejor el entorno del usuario.

El chip «Nevis» se destinaría al Apple Watch, mientras que «Glennie» sería exclusivo de los AirPods. Todo apunta a que el desarrollo de estos chips avanza según calendario, con una posible presentación oficial a partir de 2027. La idea de incluir cámaras en estos wearables no se limita únicamente a Apple, aunque la firma de Cupertino parece querer ir un paso más allá dotando a sus productos de detectores contextuales inteligentes que nutran la inteligencia artificial de la compañía.

Apple Watch Series 10

¿Por qué una cámara en los AirPods y el Apple Watch?

La inclusión de cámaras en estos dispositivos no responde a la típica función de capturar imágenes, como sucede en móviles o tablets. En el caso de los AirPods, se espera que las cámaras de infrarrojos sirvan, entre otras cosas, para mejorar el audio espacial, sobre todo en combinación con otros productos como el Apple Vision Pro. Además, se baraja la posibilidad de aprovechar estos sensores para recoger información útil para funciones de salud, como la medición de la temperatura corporal, o para el control por gestos mediante la interpretación de los movimientos de las manos.

En el Apple Watch, la cámara se situaría cerca de la pantalla o la corona digital, especialmente en modelos como el «Ultra». Su función principal sería permitir activar sistemas de reconocimiento visual, como la tecnología Inteligencia Visual de Apple, gracias a la cual el usuario puede obtener información relevante sobre objetos, lugares o incluso prendas de ropa simplemente apuntando el dispositivo hacia ellos. Esta función ya se ha visto en iPhone 15 Pro y la futura línea iPhone 16, y su llegada al reloj supondría un paso decisivo en la integración de la IA en los wearables.

Un futuro conectado: del reconocimiento ambiental a la asistencia personalizada

Las cámaras de estos dispositivos se plantean como «ojos» que recojan información valiosa para alimentar la inteligencia artificial de Apple. La intención es clara: que tanto los AirPods como el Apple Watch sean capaces de escanear el entorno para ofrecer al usuario respuestas y servicios personalizados en función de lo que les rodea, ya sea mediante reconocimiento de objetos, contextualización de ubicaciones o incluso anticipando necesidades y consejos sobre salud.

Todas las filtraciones consultadas insisten en que no estará disponible la posibilidad de tomar imágenes o realizar videollamadas tradicionales, descartando así FaceTime u otras utilizaciones más propias de un smartphone. Lo interesante es el enfoque utilitario: Apple quiere potenciar los controles por gestos, funciones relacionadas con la salud y la posibilidad de que la inteligencia artificial de Apple Intelligence procese los datos recogidos por estas cámaras para ofrecer una experiencia más intuitiva y precisa.

Apple Intelligence

Una estrategia a largo plazo para transformar todo el ecosistema Apple

El desarrollo de estos productos no se da en un vacío: Apple busca que los chips «Nevis» y «Glennie» sean la piedra angular de un ecosistema más inteligente y cohesionado, en el que cada dispositivo –ya sea el iPhone, el Mac, los AirPods o el Apple Watch– participe activamente en la recolección y análisis de datos contextuales y ambientales. El objetivo último es que la inteligencia artificial deje de ser algo abstracto y se convierta en una ayuda concreta en la vida cotidiana del usuario.

Las previsiones actuales colocan el posible lanzamiento de estos dispositivos en 2027, si bien el ritmo de desarrollo de los chips será decisivo. Apple estaría tratando de acelerar los plazos, pero todavía hay dudas sobre si alcanzarán la perfección técnica a tiempo.

Lo que parecía un simple rumor sobre cámaras en pequeños accesorios se convierte en la antesala de una revolución en la forma de interactuar con el entorno, abriendo la puerta a una generación de dispositivos mucho más inteligentes y conectados al día a día de los usuarios.