Agregador de canales de noticias
Tráiler y fecha de Silent Hill f
Tráiler de Pragmata. State of Play 2025
Tráiler y fecha de Ninja Gaiden: Ragebound
Tráiler State of Play 2025 de Metal Gear Solid Delta: Snake Eater
Tráiler de anuncio de 007 First Light
Tráiler y fecha de Hirogami
Novedades en los AirPods sin tener que comprar unos nuevos. Se han filtrado sus cambios con iOS 26
Apple está a punto de presentar grandes novedades para los AirPods. O al menos a ello apuntan filtraciones como las de 9to5Mac, quienes revelan una buena ristra de funcionalidades que aterrizarán en los modelos más recientes de la mano de iOS 26 y el resto de sistemas operativos que Apple presentará en la WWDC 2025.
Eso sí, las filtraciones apuntan a que no llegarán a todos los AirPods. No hará falta comprar un nuevo modelo que se anuncie (de hecho no se esperan AirPods nuevos de momento), pero sí que será necesario tener los AirPods Pro 2 o AirPods 4, auriculares que por su hardware estarían listos para recibir las novedades.
Nuevos gestos con la cabezaDe la mano de iOS 18 nos encontramos con la posibilidad de mover la cabeza hacia abajo o hacia arriba para aceptar o denegar notificaciones con los AirPods. Según lo revelado ahora por 9to5Mac, con iOS 26 se irá un paso más allá incorporando más gestos para ejecutar otras acciones, como podría ser el ajuste de volumen.
En Applesfera La última filtración de iOS 26 anticipa novedades que me emocionan. Es posible que sea el cambio más importante en el iPhone en añosTodo ello es algo que se consigue gracias a sensores como el giroscopio que incorporan los AirPods. A través de ellos se puede interpretar el movimiento que se realiza con la cabeza y en virtud de ello ejecutar las acciones programadas. No obstante, como ocurre con los que ya tenemos, apuntan a ser gestos opcionales que puedan desactivarse en ajustes.
Nada de sonido si nos quedamos dormidosHay quien acostumbra a dormir con los auriculares puestos. Puede ser una buena forma de llamar al sueño cuando a uno le cuesta dormir. A tenor de lo que cuentan las fuentes, en Apple son conscientes de ello e introducirán una detección automática del sueño para pausar la reproducción cuando estemos dormidos.
No se sabe a ciencia cierta cómo se ejecutará esta acción, pero es probable que también tenga en cuenta los movimientos que realizamos, además de comunicarse con el Apple Watch, dispositivo que ya cuenta con esa función en base a sus sensores de salud. Así mismo, parece que en los futuros AirPods Pro 3, que vendrían con medidor de pulsaciones, la detección será aún más sencilla.
Mejora en la grabación de vozLos iPhone ya disponen de una opción de aislamiento de voz que mejora la calidad de las llamadas y que funciona también con los AirPods. Sin embargo, Apple podría añadir un ecualizador inteligente que hasta ahora era exclusivo de los iPhone 16 Pro.
En estos dispositivos, cuando se graba un vídeo existe la posibilidad de editarlo y encontrar tres opciones de voz. Mediante inteligencia artificial detecta cuáles son los ruidos de fondo y qué elementos de la grabación son importantes para proponer esas tres opciones. Algo similar llegaría a los AirPods con iOS 26 según 9to5Mac.
Control de cámara a través de las patillasComo si de un tributo a los clásicos EarPods se tratase, los AirPods Pro 2 y AirPods 4 podrían admitir la posibilidad de abrir la cámara y tomar fotos a través de una pulsación en sus patillas. Es algo que aquellos clásicos auriculares con cable disponen a través de un botón ubicado precisamente en su cable.
A este respecto quedan algunas dudas, ya que actualmente las patillas admiten pulsaciones para pausar la reproducción, pasar a la siguiente canción o pasar del modo de cancelación de ruido al modo ambiente (y viceversa). Es posible que se añada un nuevo panel en los ajustes del iPhone en el que configurar y elegir entre las acciones disponibles.
Un iPad para gobernarlos a todosCon un claro enfoque educativo, aunque abierto a cualquier circunstancia, la idea de Apple es facilitar el uso de varios AirPods en un solo iPad. En versiones con Bluetooth 5.0 y posteriores, es posible conectar más de un par de auriculares a un dispositivo, aunque su configuración no siempre es intuitiva. En 9to5Mac revelan que iPadOS 26 traerá mayores facilidades para que todo sea más sencillo.
Apenas quedan días para conocerlo todoComo ya explicábamos en la introducción, será la WWDC 2025 la conferencia que sirva para presentar todas las novedades de iOS 26 y el resto de sistemas operativos. Será este lunes 9 de junio con un evento que se podrá seguir en streaming a partir de las 19.00h (hora peninsular española).
En Applesfera Los nuevos Sony WH-1000XM6 me llevan al punto de partida: Apple, qué estás haciendo con los AirPods MaxEso sí, aunque en este evento conozcamos novedades de los AirPods, algo que ha sucedido en años anteriores, no quiere decir que vayamos a ver todos los cambios de forma inmediata. De hecho, los sistemas operativos estarán en beta durante todo el verano y el lanzamiento final será, presumiblemente, en el mes de septiembre. En 9to5Mac inciden en recordar que, pese a que se presenten ahora, las novedades de los AirPods podrían llegar más tarde de septiembre.
En Applesfera | Actualizar AirPods: guía paso a paso para poner tus auriculares al día (2025)
En Applesfera | Cómo configurar, personalizar y utilizar los AirPods: la guía definitiva
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Novedades en los AirPods sin tener que comprar unos nuevos. Se han filtrado sus cambios con iOS 26
fue publicada originalmente en
Applesfera
por
Álvaro García M.
.
Tráiler State of Play 2025 de Ghost of Yotei
Tráiler y fecha de Everybody's Golf Hot Shots
Tráiler y fecha de Digimon Story: Time Stranger
Tráiler y fecha de Cairn
Tráiler de anuncio de Bloodstained: The Scarlet Engagement
Tráiler y fecha de Baby Steps
Tráiler de anuncio de Final Fantasy Tactics - The Ivalice Chronicles
Tráiler de anuncio de Final Fantasy Tactics – The Ivalice ChroniclesTráiler de anuncio de Final Fantasy Tactics – The Ivalice Chronicles
Tráiler de anuncio de Romeo is a Dead Man
Tráiler de anuncio de MARVEL TÅkon Fighting Souls
Tráiler de anuncio de Nioh 3
Gemini Live con cámara me ha dejado con la boca abierta en mi iPhone. Así he conseguido que la IA resuelva cualquier problema en segundos
Nunca pensé que una app de Google me fuese a dejar con la boca abierta en mi propio iPhone. Sí, lo que nos venden como la gran revolución del Galaxy S25 lo tengo funcionando a toda máquina en mi iPhone 16 Pro. Te estoy hablando de Gemini Live con cámara, la nueva función gratuita de Google que ha llegado hace poco al iPhone. La he puesto a prueba, para saber desde cómo encender una cámara de fotos hasta progresar en la cocina.
Hasta ahora, la inteligencia artificial nos había sorprendido con los chats de texto, con la voz de OpenAI o con herramientas de análisis de imagen como Visual Intelligence de Apple. Y es que todos estos servicios nunca han ido más allá de un "pregunta-respuesta". Pero con Gemini Live y la cámara de mi iPhone se va mucho más lejos. Es una conversación natural y en vivo, mientras la IA ve exactamente lo que tú ves a través de la cámara o la pantalla compartida. No es una foto que mandas y esperas respuesta. Es un vídeo en tiempo real, teniendo a la IA de tu lado como si una persona experta hiciese una videollamada contigo.
El contexto: asistentes de voz, chatbots y análisis de imagenPara entender por qué Gemini Live con cámara es tan especial, hay que mirar atrás. Los asistentes de voz como Siri llevan con nosotros desde 2011. Han evolucionado, pero siguen siendo herramientas de pregunta y respuesta: tú preguntas, el asistente responde, y así sucesivamente. Cierto es que con ChatGPT u otros chatbots hay conversaciones en las que pueden interrumpir. Pero siempre se han basado en voz e información. No hay contexto visual real, ni capacidad de analizar lo que tienes delante en tiempo real. Se tiene que creer o entender lo que le estás diciendo.
{"videoId":"x8jpy2b","autoplay":true,"title":"¿Qué hay DETRÁS de IAs como CHATGPT, DALL-E o MIDJOURNEY? | INTELIGENCIA ARTIFICIAL", "tag":"Webedia-prod", "duration":"1173"}Por otro lado, también tenemos las herramientas de análisis de imagen, como Google Lens o Visual Intelligence de Apple. Con ellas podemos identificar objetos, traducir textos o buscar información sobre lo que había en la imagen. Pero siempre era un proceso de "envío y respuesta", nunca una conversación en tiempo real mientras la IA veía lo que tú veías.
¿Qué es Gemini Live con cámara y cómo ha llegado al iPhone?Gemini Live con cámara es la última apuesta de Google por la inteligencia artificial multimodal. No es solo una IA de voz, ni solo una IA de texto, ni solo una IA visual. Es todo a la vez. Permite mantener conversaciones naturales y fluidas en más de 40 idiomas, mientras la IA ve exactamente lo que tú ves a través de la cámara de tu móvil o de la pantalla compartida.
La función llegó hace unos meses como exclusiva para los suscriptores de Gemini Advanced en Android y, poco después, como una de las grandes bazas del Galaxy S25 y el Pixel 9. Pero, como suele pasar con Google, la función se ha abierto al público general y ahora está disponible gratis para cualquier usuario, incluyendo los de iPhone. Solo necesitas descargar la app de Gemini, iniciar sesión y activar el modo Live. A partir de ahí, tienes acceso a la cámara y a la pantalla compartida, y la conversación es tan natural como si tuvieras a un experto al otro lado del teléfono.
Google GeminiLa aplicación Google Gemini es un asistente de inteligencia artificial que puede ayudarte a potenciar tu creatividad y productividad.
Descargar gratis Descargar gratis El funcionamiento escalofriantemente sencillo de Gemini Live con cámaraEl funcionamiento es tan simple que de verdad "asusta". Primero abres la app de Gemini, tocas el botón de Live y eliges si quieres usar la cámara o compartir la pantalla. A partir de ahí, solo tienes que hablar y la IA responde al instante, mientras ve lo que tú ves.
Gemini Live te permite hablar por voz, usar la cámara o compartir la pantalla del iPhone para contarle lo que sucede en élLa diferencia con todo lo anterior es precisamente esa. La conversación es en tiempo real, natural y contextual. No hay que mandar fotos, no hay que esperar respuestas. La IA ve, analiza y responde como si estuviera a tu lado. Puedes interrumpirla, cambiar de tema, hacer preguntas de seguimiento y la IA mantiene el contexto de todo lo que habéis hablado.
Además, la precisión del reconocimiento visual es abrumadora. No te dice "veo un teléfono", te dice "veo un iPhone 16 Pro en plata". No te dice "veo una cámara", te dice "veo una Sony A6700, gira el botón de arriba a la derecha a 'On'". Y todo esto, en tiempo real, mientras mueves el iPhone y cambias el enfoque.
En Applesfera ChatGPT se integra muy bien con Siri. Pero con este ajuste es aún mejor Ejemplos reales de uso de Gemini Live con cámaraAhora sí, vamos a los ejemplos prácticos, que son los que realmente demuestran el potencial de Gemini Live con cámara. He de decir que se pierde mucho efecto wow porque lo sorprendente es cómo detecta todo al momento. Sin esperas. Entendiendo y escuchando todo lo que dices.
Ejemplo 1: cómo encender una cámara Sony sin leer el manualTenía mi cámara de fotos Sony encima de la mesa. Sé cómo funciona, pero quise probar a Gemini Live. Le dije: "¿Cómo enciendo esta cámara?". Al instante, la IA me respondió: "Veo una Sony A6700. El botón de encendido esta en la parte superior derecha". Lo increíble es que no había ninguna marca ni número visible: la reconoció por la forma y los botones. Cualquier duda técnica, resuelta en segundos.
Ejemplo 2: limpiando mis AirPods ProLe pregunto: "¿Cómo limpio estos AirPods Pro?" mientras los enfoco. La IA me da instrucciones claras: "Usa un bastoncillo de algodón o un cepillo suave. Para la caja, un paño húmedo en la parte exterior, pero nunca toques los conectores metálicos con líquido". Todo en tiempo real, mientras la cámara está activa.
Ejemplo 3: ¿Qué como hoy?En mi cocina, con la nevera abierta y la cámara apuntando a los ingredientes, pregunto: "¿Qué puedo cocinar con lo que tengo?". Gemini Live analiza rápidamente los alimentos que ve y me propone varias ideas, desde una ensalada rápida hasta una tortilla francesa o unos sándwiches variados. En mi caso me sugirió brochetas de pollo, pero luego le dije que quería usar una manzana y adaptó la receta.
Ejemplo 4: ¿Con qué puedo combinar este pantalón?Me planteo elegir la ropa y saco mi pantalón favorito del armario. Enciendo la cámara de Gemini Live y le pregunto: "¿Con qué puedo combinar este pantalón?". La IA observa el color y la textura del pantalón y me sugiere varias opciones. Puedo ir moviendo la cámara por el armario entero, de camisetas a zapatos. Todo lo que ve lo recuerda.
El iPhone como hub definitivo de la inteligencia artificialLo más curioso de todo es que, mientras Samsung y Google promocionan esto como una exclusiva de sus nuevos móviles, cualquiera puede disfrutarlo gratis en un iPhone. Y es que en mi iPhone tengo acceso a todo: Apple Intelligence, Visual Intelligence, Gemini Live, ChatGPT, Claude… Es el mejor ecosistema para usar la inteligencia artificial.
Veremos si Apple da el salto y adopta algo similar a Gemini Live, porque Visual Intelligence, aunque útil, se queda corta frente a la experiencia conversacional y en tiempo real de Google. De hecho, hay rumores desde hace un año de una asociación entre Apple y Google en terreno de IA. Y viendo esto, sería todo un puntazo. Porque sí, Gemini Live con cámara es una auténtica locura. No sé ni cómo abarcar todo lo que hace, porque literalmente puedes usarlo para cualquier cosa que se te ocurra. Es fácil, rápido, útil y gratis.
En Applesfera | Apple Intelligence: guía completa de funciones y cómo aprovecharlas al máximo
En Applesfera | Nuevo iOS 26 (iOS 19) - Todo lo que creemos saber sobre el nuevo sistema operativo del iPhone
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Gemini Live con cámara me ha dejado con la boca abierta en mi iPhone. Así he conseguido que la IA resuelva cualquier problema en segundos
fue publicada originalmente en
Applesfera
por
Guille Lomener
.