Agregador de canales de noticias
Vistazo gameplay de Mortal Shell II
Tráiler para PS5 de South of Midnight
Tráiler y fecha del acceso anticipado de Heroes of Might & Magic: Olden Era
Tráiler de Toymaker: Threads of Joy
Tráiler de Dual Fire Walled City
Tráiler de lanzamiento de EverSiege: Untold Ages
Cómo manejar drones FPV vinculando Betaflight con tu dispositivo Android
Si vuelas drones FPV, tarde o temprano te encontrarás en mitad del campo necesitando cambiar un par de ajustes en Betaflight. En esos momentos, sacar el portátil, el cable USB y los adaptadores puede ser un auténtico incordio. Lo bueno es que hoy en día puedes configurar tu dron FPV directamente desde tu móvil Android, sin enchufar ni un solo cable y aprovechando la conexión WiFi del propio receptor.
Esta posibilidad no es todavía súper conocida, pero funciona de maravilla cuando se configura bien. Usando la app de Betaflight para Android y el WiFi del receptor (por ejemplo, un módulo ExpressLRS con función WiFi), es posible conectar Betaflight al dron mediante TCP, ajustar PIDs, rates, modos de vuelo o puertos, y guardar cambios como si estuvieras delante del ordenador de casa. Vamos a ver, paso a paso y con todo lujo de detalle, cómo hacerlo, qué necesitas y qué problemas te puedes encontrar por el camino.
Qué necesitas para manejar tu dron FPV con Android y BetaflightLo primero es tener claro qué requisitos mínimos hacen falta para que el invento funcione. No vale cualquier combinación de hardware y software: necesitas que el dron, el receptor y el móvil cumplan unas condiciones para que Betaflight pueda comunicarse por WiFi usando TCP, y, si te interesa, practicar en simuladores de drones para Android.
En el lado del dron, es imprescindible que la controladora de vuelo esté flasheada con un firmware compatible con Betaflight y que tengas acceso al puerto serie por el que se comunica el receptor (UART). Muchos pilotos FPV usan receptores ExpressLRS (ELRS), que incorporan un pequeño servidor WiFi para configuración; justo esa función es la que aprovecharemos para el enlace.
En cuanto al receptor, debe contar con modo WiFi integrado que cree una red inalámbrica propia. Los módulos ELRS, por ejemplo, permiten encender el WiFi manteniendo pulsado un botón o dejando la emisora apagada unos segundos para que arranque el modo de configuración. Una vez activo, el receptor actúa como punto de acceso con su propio SSID y sin conexión a internet.
En el móvil Android necesitas instalar la aplicación Betaflight Configurator adaptada a Android. Esta app no suele estar en Google Play de forma oficial, por lo que normalmente se descarga desde el repositorio de GitHub del proyecto. Es importante fijarse en la versión, porque no todas se comportan igual con las conexiones TCP.
Según la experiencia de algunos usuarios, la versión de Betaflight para Android que mejor se está comportando con la conexión TCP vía WiFi es la 10.9.0. La release 10.10.0, por algún motivo, puede negarse a conectar utilizando el mismo método, así que si tienes problemas de conexión, merece la pena probar expresamente con la 10.9.0 antes de romperte la cabeza.
Cómo activar el WiFi del receptor del dron FPVPara hacer de puente entre Betaflight en el móvil y la controladora del dron, se utiliza la red WiFi que crea el receptor. En la práctica, tu teléfono se conectará a esa red como si fuese la de tu casa, pero en realidad estará hablando directamente con el receptor ELRS o el sistema equivalente que lleve tu dron.
El procedimiento concreto para activar el modo WiFi varía un poco según el modelo de receptor, pero el patrón general suele ser similar. En muchos receptores ELRS, basta con encender el dron y esperar unos segundos sin que haya enlace de radio con la emisora para que el módulo entre en modo configuración WiFi automáticamente. En otros, hay un pequeño botón de bind o boot que, al mantenerlo pulsado durante unos instantes al alimentar el dron, fuerza la activación del WiFi.
Una vez que el receptor entra en modo WiFi, debería aparecer en la lista de redes disponibles de tu móvil un SSID específico, normalmente con el nombre del firmware o del módulo. Lo que tienes que hacer es conectarte desde Android a esa red inalámbrica, como si fuese una red normal. En la gran mayoría de casos, esta red no tendrá contraseña o usará una muy sencilla indicada en la documentación del receptor.
Es importante tener en cuenta que esa red WiFi no tiene salida a internet. Es decir, solo sirve para comunicar el móvil con el receptor y, de rebote, con la controladora Betaflight. Aquí es donde suele aparecer una alerta molesta en muchos móviles Android que puede entorpecer la conexión si no se le presta atención.
En bastantes terminales Android, cuando se conectan a una red sin acceso a internet, el sistema lanza un mensaje preguntando si quieres mantener la conexión o cambiar a datos móviles. En este caso, es crucial decirle al teléfono que se quede conectado a la red del receptor aunque no haya internet. Si no lo haces, el móvil saltará de nuevo a la red con datos o a otra WiFi, y Betaflight nunca llegará a ver el dron.
Configuración de la app Betaflight en Android mediante TCPCon la red WiFi del receptor ya activa y el móvil correctamente conectado a ella, el siguiente paso es indicarle a la app de Betaflight que utilice una conexión TCP en lugar del clásico enlace USB. Esta parte es bastante sencilla, pero hay que respetar la dirección y el formato correcto del puerto para que el enlace funcione.
Abre la aplicación Betaflight Configurator en tu dispositivo Android y localiza el área en la que normalmente seleccionarías el puerto de conexión (donde elegirías, por ejemplo, el puerto USB si estuvieras usando un cable). Ahí es donde tendrás que escribir manualmente la dirección del enlace TCP que expone el receptor.
En este método se utiliza una URL de tipo TCP, de forma que en el campo de puerto de Betaflight debes introducir exactamente TCP://10.0.0.1. Esa dirección IP (10.0.0.1) es la que hace de puerta de entrada a la controladora a través del servidor embebido en el receptor WiFi, y el prefijo TCP:// le indica a Betaflight que no se trata de un puerto serie clásico.
Si todo está bien configurado, una vez introducida la dirección TCP://10.0.0.1 y pulsado el botón de conectar en la app, Betaflight debería iniciar la comunicación con la controladora tal y como lo haría si estuviera conectada por cable. En cuestión de unos instantes tendrías acceso a la página principal con la vista 3D del dron, los sensores y todos los menús de configuración.
Conviene recalcar de nuevo el detalle de la versión de la app, porque algunos usuarios han comprobado que con Betaflight Android 10.10.0 el enlace TCP no llega a establecerse correctamente, mientras que con la versión anterior 10.9.0 se conecta sin problemas. Si al probar este sistema notas que la conexión se queda colgada o Betaflight no detecta el dron, merece la pena instalar la 10.9.0 desde GitHub y volver a intentarlo antes de buscar fallos en el hardware.
Por ahora no hay una explicación oficial totalmente clara sobre por qué ciertas versiones recientes de Betaflight para Android se llevan mal con la conexión TCP a través de 10.0.0.1. Es posible que haya cambios internos en la gestión de puertos o en las dependencias de red de la app que afecten a este tipo de enlaces. En cualquier caso, la solución práctica pasa por apostar por la versión que se haya comprobado estable para este uso concreto.
Ventajas de configurar tu dron FPV con el móvil en el campo de vueloUna vez que pruebas esta manera de conectar Betaflight, es difícil volver atrás. Poder sacar el móvil del bolsillo, encender el dron, activar el WiFi y ajustar lo que necesites sin cables es algo que marca una diferencia brutal en comodidad, sobre todo cuando estás en mitad de una sesión de vuelo y necesitas reaccionar rápido a cómo se está comportando el quad.
La ventaja más obvia es que te ahorras tener que llevar el portátil a todas partes. Menos peso en la mochila, menos cacharros y menos riesgo de que algo se quede sin batería justo cuando lo necesitas. Con el teléfono, que prácticamente siempre llevas encima, tienes suficiente para retocar PIDs, cambiar rates o modificar un par de modos de vuelo antes de la siguiente batería.
Además, esta forma de conexión te permite hacer ajustes muy finos en tiempo real, justo después de un vuelo de prueba. Puedes aterrizar, conectar el dron por WiFi, tocar un par de parámetros que no te convencen, guardar, y volver a probar al minuto siguiente. Todo eso sin levantarte del spot que tengas preparado para despegar, lo cual facilita mucho el proceso de ir puliendo el comportamiento del dron.
Otra ventaja interesante es que, al no depender del USB físico, no fuerzas el conector de la controladora. Muchos pilotos FPV han visto cómo el puerto micro USB o USB-C de la FC acaba cediendo por los constantes enchufes y desenchufes, o se daña en un mal golpe. Usando la conexión WiFi con el móvil, reduces bastante ese estrés mecánico sobre la placa.
Finalmente, el hecho de que este método no requiera adaptadores ni OTG especiales hace que sea accesible para prácticamente cualquiera con un dron moderno y un smartphone Android. No es necesario invertir en hardware adicional ni en cables específicos: si tu receptor ofrece WiFi y tu móvil se conecta a redes inalámbricas, puedes aprovechar Betaflight en movilidad con lo que ya tienes.
Posibles problemas y soluciones al conectar Betaflight y AndroidComo todo lo que implica redes inalámbricas y diferentes versiones de software, este sistema no está exento de pequeños fallos o comportamientos raros. La buena noticia es que la mayoría de los problemas típicos tienen un origen bastante fácil de identificar y, por tanto, también soluciones relativamente sencillas que puedes aplicar sobre la marcha.
Uno de los fallos más comunes es que la app de Betaflight en Android no llegue a conectar nunca al escribir TCP://10.0.0.1. Si eso te pasa, revisa lo primero que sigues conectado realmente a la red WiFi del receptor. Si el móvil ha decidido volver a tu red doméstica o tirar de datos móviles porque la red del receptor no tiene internet, Betaflight estará apuntando a una IP que no corresponde a nada y el enlace será imposible.
Otro posible origen de errores es haber instalado una versión de Betaflight Configurator para Android poco compatible con la conexión TCP. Como se ha comentado antes, la 10.10.0 ha dado guerra en algunos casos, mientras que la 10.9.0 ha demostrado ser más estable con este tipo de enlace. Ante cualquier duda, desinstala la versión actual, descarga la 10.9.0 desde GitHub e inténtalo de nuevo antes de tocar otros ajustes.
También puede ocurrir que el receptor no esté realmente en modo WiFi, aunque tú creas que sí. Algunos módulos ELRS tienen indicadores LED que muestran diferentes patrones según estén en bind, en modo normal o en configuración WiFi. Si la luz no concuerda con el patrón de WiFi que indica el fabricante, quizá tengas que repetir el proceso de entrada en modo configuración, ya sea mediante el botón físico o con el procedimiento de encendido específico.
En algunos casos muy concretos, ciertas capas de seguridad o ajustes de ahorro de energía del móvil pueden interferir con el enlace. Por ejemplo, algunas capas de Android agresivas pueden limitar el uso de red en segundo plano o cerrar aplicaciones al cabo de unos minutos. Si notas que la conexión se corta sola tras un rato o que Betaflight se cierra, vale la pena revisar los permisos de la app y desactivar restricciones de batería para que el sistema no la mate antes de tiempo.
Si, pese a todo, sigues sin conseguir conectar, una práctica recomendable es probar con otro dispositivo Android distinto, si tienes alguno a mano. Eso te permitirá saber si el problema viene del móvil original, de la versión concreta del sistema operativo, del receptor o de la propia controladora. Reducir el número de variables implicadas suele ser clave para acotar el origen del fallo y evitar perder horas buscando en el sitio equivocado.
La experiencia de la comunidad también es una gran aliada. Muchos pilotos FPV comparten en foros y redes sus intentos, éxitos y fracasos usando Betaflight en Android con este sistema. Consultar esas experiencias puede darte pistas sobre configuraciones concretas de hardware que se llevan especialmente bien o mal con el enlace TCP vía 10.0.0.1, así como trucos para determinados modelos de receptor o de controladora.
En general, disponer de la opción de conectar Betaflight a tu dron FPV desde un dispositivo Android usando WiFi y TCP aporta una flexibilidad enorme y hace mucho más llevadera la tarea de afinar configuraciones en plena pista. Aprovechar el WiFi del receptor, tener a mano la dirección TCP://10.0.0.1 y contar con una versión de la app que funcione bien, como la 10.9.0, es todo lo que necesitas para poder olvidarte del portátil en la mayoría de las salidas de vuelo y centrarte en lo que de verdad importa: disfrutar del FPV y ajustar el dron exactamente a tu gusto en cualquier sitio y en cualquier momento.
Transforma tu smartphone en un trackpad de precisión para PC y Mac
Si alguna vez te has quedado sin ratón en el peor momento (pilas agotadas, se rompe el botón, desaparece misteriosamente de la mesa…), sabrás lo frustrante que puede llegar a ser. Lo bueno es que tienes una solución muy a mano: tu propio smartphone puede convertirse en un trackpad de alta precisión para controlar tu PC o tu Mac como si fuera un portátil.
Además, no solo hablamos de mover el cursor: con las apps adecuadas tu móvil puede actuar también como teclado inalámbrico y ratón, panel táctil multitáctil e incluso mando multimedia. Y lo mejor de todo es que, en la mayoría de casos, no tendrás que gastar dinero: basta con instalar una aplicación en el móvil y otra en el ordenador y seguir unos pasos muy sencillos.
Por qué convertir tu smartphone en un trackpad de precisiónDar una segunda vida a un teléfono antiguo o aprovechar el que usas a diario como trackpad para tu ordenador tiene más ventajas de las que parece a primera vista. No es solo una solución de emergencia cuando te quedas sin ratón; también puede ser una forma cómoda de trabajar desde el sofá, hacer presentaciones o controlar un equipo conectado a la tele.
Para mucha gente el gesto de deslizar el dedo por una superficie táctil es más natural e intuitivo que usar un ratón físico tradicional. Quienes están acostumbrados al trackpad de un portátil suelen sentirse muy cómodos con este tipo de control, y una pantalla de móvil ofrece una superficie más que decente para ello.
Otra gran ventaja está en la reutilización de un smartphone viejo. Puede que ya no sea el más rápido, que la cámara se haya quedado corta o que incluso haya dejado de ser compatible con ciertas apps de mensajería, pero si enciende, el táctil responde y puedes instalar aplicaciones básicas, todavía le queda mucha guerra que dar como periférico para el ordenador.
Este tipo de soluciones también resultan ideales si tienes un PC de salón conectado a la televisión, un mini PC, un Mac en el escritorio o incluso una tablet con Windows a la que le falte un buen trackpad. En lugar de llevar siempre encima un ratón, basta con cargar con el móvil, que ya lo tienes a mano.
Incluso en entornos más “frikis” o de productividad pura, usar el smartphone como panel táctil puede ser un complemento perfecto a un teclado Bluetooth sin touchpad, a un teclado mecánico de escritorio o a configuraciones en las que no te apetece estar tocando todo el rato la pantalla táctil del equipo, algo que a la larga puede resultar incómodo y poco preciso.
Remote Mouse: la opción más versátil para PC, Mac, Android e iOSEntre las muchas apps que permiten usar el móvil como ratón o trackpad, una de las que mejor resultado da en el día a día es Remote Mouse. Lleva tiempo en el mercado, está muy pulida y funciona en prácticamente cualquier combinación: Android con Windows, Android con Mac, iPhone con Windows, iPhone con Mac e incluso con Linux como sistema de escritorio.
Remote Mouse se basa en un esquema clásico de dos componentes: por un lado la aplicación cliente en el móvil y, por otro, un pequeño programa servidor que instalas en el ordenador. Ambos se comunican normalmente a través de la red WiFi de casa, lo que proporciona una experiencia bastante fluida y con muy poca latencia, perfecta para usar el móvil como panel táctil.
La app está disponible sin coste inicial tanto en Google Play para Android como en la App Store para iOS, mientras que el programa servidor se descarga desde la web oficial de Remote Mouse para Windows, macOS y Linux. A partir de ahí, lo único imprescindible es que todos los dispositivos estén conectados a la misma red y que concedas los permisos necesarios para que el ordenador acepte las órdenes del móvil.
Un detalle interesante es que Remote Mouse no se queda solo en emular un ratón básico. La interfaz está pensada para replicar de forma bastante fiel la experiencia de un trackpad moderno, con gestos, clicks, barra de desplazamiento y accesos rápidos a acciones del sistema y del navegador, algo que muchos ratones físicos ni siquiera ofrecen de serie.
Aunque el foco principal suele estar en Windows y Android, Remote Mouse mantiene la misma filosofía de uso en Mac, iPhone o iPad, adaptándose a los gestos y peculiaridades de cada sistema operativo, de modo que la curva de aprendizaje es prácticamente nula si cambias de plataforma.
Instalación y configuración básica de Remote MouseEl proceso para empezar a usar el móvil como trackpad con Remote Mouse es realmente sencillo, incluso si no eres especialmente técnico. Lo principal es que entiendas que necesitas la app en el teléfono y el servidor en el ordenador; sin una de las dos piezas el invento no funciona.
En un móvil Android, basta con entrar en la Google Play Store, buscar Remote Mouse y descargar la aplicación oficial. Desde la propia web del desarrollador también puedes pulsar en el botón “Consíguelo” y elegir Android para que te lleve directamente a la tienda, evitando posibles confusiones con apps de nombre parecido.
En el ordenador hay que repetir la jugada desde la misma web, pero esta vez seleccionando el sistema operativo que vayas a usar: Windows, macOS o Linux. Al descargar el ejecutable del servidor, bastará con seguir el asistente de instalación estándar, que no tiene demasiadas complicaciones ni opciones raras.
Una vez instaladas ambas partes, es fundamental que ordenador y smartphone estén conectados a la misma red WiFi. Esta condición es la que permite que se “vean” entre sí. En la mayoría de casos la app detecta automáticamente el PC o el Mac en cuanto la abres y solo tienes que tocar su nombre para vincularlos.
Si por alguna razón la detección automática falla, Remote Mouse permite introducir la dirección IP del ordenador de forma manual. Es una solución útil si tienes varias redes, un firewall muy restrictivo o un entorno algo más complejo. Una vez introducida la IP correcta, la conexión suele establecerse sin más problemas.
En sistemas como Windows y macOS es posible que el programa servidor te pida permisos adicionales de accesibilidad o control del equipo. No es un capricho: el sistema necesita que le autorices para que el software pueda mover el cursor, hacer clics o escribir texto en tu nombre. Es importante aceptar estos permisos para que todo funcione como es debido.
Cómo usar Remote Mouse como trackpad y ratón completoCuando ya está todo conectado, la interfaz principal de Remote Mouse en el móvil muestra una gran zona de color verde que actúa como superficie táctil, es decir, como trackpad virtual. Es en ese área donde deslizarás el dedo para mover el puntero en la pantalla del ordenador.
El funcionamiento básico imita el comportamiento de un trackpad físico: un toque ligero equivale a un click izquierdo, dos toques rápidos hacen un doble click y mantener el dedo apoyado mientras lo desplazas permite arrastrar elementos. Aunque el arrastrar y soltar puede requerir un poco de práctica, para la mayoría de acciones habituales el sistema responde muy bien.
En el lateral derecho del área verde suele aparecer una barra vertical de desplazamiento que facilita subir o bajar en documentos, páginas web o listas largas sin necesidad de mover el puntero hasta la barra de scroll del sistema. Es una función muy cómoda que se agradece cuando estás navegando mucho tiempo.
En la parte inferior de la pantalla se encuentran los clásicos botones de click principal (izquierdo) y secundario (derecho), de forma similar a un ratón tradicional. Esto es útil si prefieres separar gestos de movimiento y acciones de click o si estás acostumbrado a un esquema más “de ratón” que de trackpad.
Remote Mouse también admite una serie de gestos táctiles adicionales. Entre ellos se incluyen desplazamientos con varios dedos, toques con dos dedos para abrir menús contextuales, acciones especiales al deslizar en ciertas direcciones y otros atajos que facilitan la navegación. Aunque la lista exacta puede variar según la versión y el sistema operativo, la idea es replicar lo que ofrecen los trackpads modernos de los portátiles.
En smartphones con pantalla grande o en tablets Android o iPad, el área táctil es suficientemente amplia como para mover el cursor con mucha precisión y comodidad. En pantallas más pequeñas también funciona, aunque puede requerir algún gesto adicional para desplazarse por toda la superficie de la pantalla del ordenador con máxima exactitud.
Funciones extra: teclado, accesos rápidos y control multimediaUna de las grandes bazas de Remote Mouse frente a otras soluciones similares es que no se limita a ser un mero touchpad. La aplicación integra un conjunto de herramientas adicionales pensadas para convertir el smartphone en un mando todo en uno para el ordenador.
La primera de estas funciones es el teclado remoto. Desde el propio móvil puedes escribir en el PC o Mac utilizando un teclado virtual, aprovechando el corrector del sistema, la escritura por gestos o incluso el dictado por voz, según lo que admita tu teléfono. Esto resulta comodísimo para introducir URLs, contraseñas o textos cortos cuando estás lejos del teclado físico.
Otra sección muy útil es el apartado de accesos directos a aplicaciones y funciones del sistema. Remote Mouse puede mostrar en la pantalla del móvil iconos de las apps ancladas en la barra de tareas de Windows o en el dock del Mac, permitiendo abrir programas habituales con un solo toque sin tener que buscarlos con el ratón.
Además, la app integra botones específicos para acciones frecuentes: volver a la página anterior en el navegador, abrir una nueva pestaña, recargar la vista, maximizar o minimizar ventanas, ajustar el zoom e incluso cerrar pestañas o cambiar entre ellas, según la configuración. Este tipo de accesos convierten el móvil en una especie de mando avanzado para el sistema.
Remote Mouse también incorpora un mando a distancia universal para gestionar la reproducción de música o vídeo: play/pausa, pista siguiente o anterior, control de volumen, silencio, etc. Si usas el PC o el Mac como centro multimedia conectado a una tele o a unos altavoces, esta función es especialmente práctica para manejarlo desde el sofá.
En algunas versiones se incluye incluso la posibilidad de capturar escritura a mano alzada en la pantalla del móvil, algo muy útil si necesitas hacer una firma rápida en un documento, trazar un pequeño dibujo o tomar notas escritas a mano que luego se envían al equipo principal.
Gestos, modos y personalización en Remote MouseEl área táctil de Remote Mouse no es solo una superficie pasiva; la aplicación permite configurar y aprovechar una serie de modos y gestos avanzados para adaptar el comportamiento del trackpad a tus gustos y necesidades.
En la parte inferior de la interfaz verás diferentes iconos o pestañas que dan acceso a los distintos modos: panel de ratón, teclado, controles multimedia, accesos a aplicaciones, entre otros. Cambiar de un modo a otro es cuestión de tocar el icono correspondiente, de manera que puedes pasar, por ejemplo, de mover el cursor a escribir texto en cuestión de segundos.
Dentro de los ajustes encontrarás opciones para modificar la velocidad del puntero y la sensibilidad del trackpad. Ajustar estos parámetros es clave para encontrar el punto exacto entre precisión y rapidez, sobre todo si tienes una pantalla de móvil pequeña o si usas el sistema para tareas que requieren movimientos más finos.
Otra función destacable es el modo para zurdos, que reorganiza algunos elementos de la interfaz para que resulten más cómodos si utilizas la mano izquierda como principal. Esto incluye la posición de los botones de click y otros controles, algo que pocas aplicaciones de este tipo suelen tener en cuenta.
También es posible reordenar y personalizar los botones de acciones rápidas que aparecen en la parte inferior o en secciones específicas de la app. De este modo puedes priorizar las operaciones que más utilices (nuevo pestaña, zoom, maximizar, ir atrás, etc.) y ocultar las que no te aporten nada en tu flujo de trabajo diario.
Remote Mouse ofrece además la posibilidad de crear una cuenta de usuario para mantener sincronizados varios dispositivos, de modo que si tienes varios móviles o tablets, o si alternas entre diferentes ordenadores, puedas mantener ciertos ajustes y emparejamientos de manera más cómoda.
Versión gratuita vs Remote Mouse ProRemote Mouse se puede usar sin pagar desde el primer momento, y para la mayoría de usuarios la versión gratuita es más que suficiente para controlar el cursor, escribir textos y manejar las funciones básicas del ordenador a distancia.
No obstante, la app ofrece un plan de pago llamado Remote Mouse Pro que amplía algunas capacidades y, sobre todo, elimina la publicidad de la interfaz. Este plan suele poder probarse durante unos días sin coste (por ejemplo, 7 días) para decidir si realmente te compensa dar el salto a la versión completa.
La suscripción de pago tiene un precio bastante ajustado, en torno a un dólar al mes según las ofertas y regiones, por lo que no es una inversión elevada si le sacas partido a diario y te molesta ver anuncios. La versión Pro mantiene todos los gestos y botones de la gratuita, pero añade algún control avanzado adicional y una experiencia más limpia.
Si tu uso va a ser ocasional, de emergencia o simplemente como experimento para reaprovechar un móvil que tenías olvidado, lo más lógico es seguir con la versión sin coste. En cambio, si usas el trackpad del móvil a diario para teletrabajar, controlar un HTPC o manejar varios equipos, puede merecer la pena valorar la suscripción.
En cualquier caso, el modelo de negocio no limita la función principal: no es necesario pagar para utilizar el móvil como ratón/trackpad con Remote Mouse. La experiencia base, con sus gestos y funciones estándar, se mantiene disponible de forma gratuita para todos los usuarios.
El Trackpad: alternativa centrada en Mac, iPhone y iPadSi te mueves exclusivamente dentro del ecosistema de Apple y buscas una experiencia muy parecida a la de un trackpad físico oficial de la marca, existe otra aplicación interesante llamada “El Trackpad”, especialmente pensada para Mac en combinación con un iPhone o iPad.
El enfoque de esta app es similar al de Remote Mouse en cuanto a concepto: por un lado instalas la aplicación “El Trackpad” desde la App Store en tu iPhone o iPad, y por otro descargas desde la web del desarrollador (Hugo Lispector) el pequeño programa servidor para macOS que permitirá la comunicación.
La principal diferencia es que, en el momento actual, El Trackpad requiere conexión por cable USB entre el dispositivo iOS y el Mac. Es decir, el control no es inalámbrico como en las soluciones basadas en WiFi. El móvil o tablet debe estar conectado físicamente, lo que puede resultar algo menos cómodo pero a cambio asegura una conexión muy estable.
Una vez instalado el servidor en el Mac, hay que concederle los permisos de accesibilidad necesarios para que pueda mover el cursor y ejecutar gestos. A partir de ese momento, la pantalla del iPhone o iPad se convierte en una superficie táctil con un comportamiento sorprendentemente cercano al de los trackpads de los MacBook o el Magic Trackpad.
El gran atractivo de El Trackpad es que reproduce los gestos multitáctiles clásicos de macOS: desplazamiento vertical y horizontal con dos dedos, cambio de escritorio deslizando cuatro dedos, gesto de pellizco con varios dedos para mostrar el escritorio, apertura de Mission Control, etc. La sensación es prácticamente la de estar usando un trackpad nativo de Apple.
El rendimiento, en general, es muy bueno, y para quienes ya están acostumbrados a la gestualidad avanzada de los portátiles Mac puede ser una alternativa excelente si necesitan un sustituto del trackpad físico o quieren disponer de una superficie táctil adicional sin comprar hardware nuevo.
Limitaciones, precio y uso real de El TrackpadLa principal pega de El Trackpad frente a otras soluciones es esa dependencia del cable USB. Aunque no es un gran drama en un escritorio fijo, puede resultar algo aparatoso si mueves mucho el iPad o si usas un iPhone pequeño, ya que es fácil topar con el cable o enredarse un poco.
En cuanto al modelo de pago, El Trackpad se ofrece como una aplicación de pago con periodo de prueba. Es posible probarla sin coste durante alrededor de una semana, y después, si quieres desbloquearla completamente, hay que abonar un único pago que ronda los 4-5 euros, dependiendo de la moneda y de las condiciones de la tienda.
Una vez pasado el periodo de prueba, si no realizas el pago la aplicación sigue funcionando pero con funciones bastante limitadas, lo justo para que puedas valorar si te merece la pena hacerte con la versión completa o si prefieres seguir con alternativas gratuitas como Remote Mouse u otras apps del estilo.
Más allá del cable, quien realmente aprovecha esta app es el usuario de Mac que busca algo muy similar a un Magic Trackpad sin comprar hardware adicional. Para controlar un iMac, un Mac mini o un MacBook conectado a una pantalla externa puede ser una solución estupenda, especialmente si ya tienes un iPad grande que puede servir como superficie de control.
Eso sí, si tu entorno no es puramente Apple o quieres poder usar también el móvil como teclado remoto, mando multimedia o controlador de apps, otras herramientas multiplataforma como Remote Mouse suelen resultar más versátiles y encajan mejor en diferentes escenarios.
Unified Remote y otras alternativas similaresMás allá de Remote Mouse y El Trackpad, existe toda una colección de aplicaciones que permiten convertir el smartphone en ratón, trackpad o mando remoto. Una de las veteranas y muy conocida en entornos Windows es Unified Remote, disponible también para Android y iOS.
Unified Remote sigue el mismo esquema de servidor en el ordenador y cliente en el móvil, con la diferencia de que ofrece una enorme cantidad de perfiles de control específicos para aplicaciones: reproductores multimedia, navegadores, presentaciones, aplicaciones de oficina, etc., además del clásico modo de touchpad.
En cuanto a tipo de conexión, Unified Remote puede funcionar tanto a través de WiFi como mediante Bluetooth. En la práctica, la conexión WiFi suele ser más fluida y con menos lag, siempre que estés dentro de una red estable. El Bluetooth es útil si no tienes una red disponible, pero normalmente se nota algo menos preciso y con alguna que otra pequeña ralentización.
En pruebas reales, usar la pantalla del smartphone como touchpad con Unified Remote resulta bastante cómodo para tareas sencillas como mover el puntero, hacer clic, doble clic y desplazarte con dos dedos. Donde se complica más la cosa es en acciones de arrastrar y soltar muy finas, donde la precisión de un ratón tradicional puede seguir siendo superior.
Este tipo de apps demuestran que la idea de usar el móvil como panel táctil no es nueva, pero sigue siendo tremendamente útil para quienes necesitan una solución ligera y flexible, ya sea para complementar un teclado sin touchpad, para controlar un PC de salón o para tener un “ratón de emergencia” en el bolsillo.
Si te ves en una situación como la de quien usa un teclado Bluetooth sin panel táctil (por ejemplo, con una tablet Windows o un 2 en 1) y no quieres cargar con un ratón físico adicional, recurrir a soluciones como Unified Remote o Remote Mouse te puede sacar de más de un apuro.
Dar nueva vida a un viejo smartphone, no depender de un ratón físico y poder controlar con precisión tu PC o Mac desde el sofá, el escritorio o una presentación es mucho más fácil de lo que parece gracias a estas aplicaciones. Con apenas unos minutos de instalación y configuración, cualquier móvil Android, iPhone o incluso tablet puede convertirse en un trackpad de precisión, teclado inalámbrico y mando multimedia, evitando que acabe olvidado en un cajón y añadiendo un plus de comodidad a tu día a día frente al ordenador.
A Siri siempre se le ha hecho bola que le pidamos dos cosas en la misma frase. Apple por fin le va a meter mano a este atasco con iOS 27
Si alguna vez le has pedido a Siri que hiciera dos cosas a la vez, ya sabes cómo termina eso. El asistente responde a la primera, se queda esperando y tú tienes que empezar de nuevo para pedirle la segunda. Y luego la tercera. Y así. En 2011, cuando salió Siri, aún tenía un pase, aunque hay que decir que en aquella época entendía mejor el contexto que hoy. Pero ahora mismo, con tantas IA y asistentes, deja a Siri en muy mal lugar.
Lo curioso es que esto no es una limitación tecnológica universal. ChatGPT entiende sin problema una frase como "busca vuelos a Roma para el fin de semana. Ahora dime qué hoteles son los mejores. Y después, dónde puedo cenar por la misma zona." El asistente de voz de Google ya hacía esto hace años. Y mientras tanto, Siri lleva casi 15 años siendo el asistente más famoso del mundo y el que menos puede hacer con una sola frase. Las buenas noticias las trae ahora Mark Gurman, ya que, según sus informaciones, con iOS 27 podría ser el momento en que eso cambie.
Una sola frase, varias cosasApple estaría probando de manera interna una función que permitiría a Siri procesar varias peticiones dentro de un mismo comando. El ejemplo que usa Mark Gurman es el de pedirle:
- Que compruebe el tiempo
- Que cree un evento en el calendario
- Que mande un mensaje
Todo de golpe. Sin pausas, sin pasos. Y ojo, porque Siri ya puede mantener una conversación sin que repitas "Oye Siri" cada vez: le preguntas algo, te responde y puedes seguir hablando. Pero cada petición sigue siendo independiente. Lo que Apple estaría desarrollando ahora es un paso más allá, que Siri entienda una instrucción con múltiples pasos dentro y los ejecute todos. Que entienda, en definitiva, cómo habla la gente de verdad.
Y esto importa más de lo que parece a primera vista, porque esta capacidad es la base sobre la que se construyen las funciones más ambiciosas que Apple tiene en desarrollo y que presentaron en 2024. Cosas como decirle a Siri que busque una foto, la edite y se la mande a alguien. Sin poder manejar varias instrucciones a la vez, ese tipo de acciones son imposibles.
{"videoId":"x9ndj38","autoplay":true,"title":"Así funciona Apple Intelligence Apple", "tag":"", "duration":"314"} Por qué llevamos años esperando estoLa respuesta es que Siri nunca fue construida para esto. Cuando Apple lo presentó en octubre de 2011, era un asistente de voz que interpretaba comandos uno a uno, y su arquitectura refleja eso.
Los modelos de lenguaje grandes que hay detrás de los chatbots modernos fueron diseñados desde el principio para entender lenguaje natural en toda su complejidad, frases largas, instrucciones encadenadas, contexto. Siri llegó antes de que todo eso existiera y actualizarlo por dentro ha sido bastante más complicado. Vamos, que se les hizo bola.
Apple lo intentó en serio por primera vez en la WWDC de 2024, cuando presentó la nueva Siri con Apple Intelligence y prometió un asistente completamente renovado. Desde entonces ha retrasado esas funciones varias veces por problemas de ingeniería. No vimos nada en iOS 26.4, tampoco lo veremos en iOS 26.5. Todo lo que sabemos apunta a que el cambio llegará con iOS 27, que Apple presentará en la WWDC del 8 de junio.
Todo lo que llega con la nueva SiriEl procesamiento de comandos múltiples es solo una pieza de un rediseño mucho más amplio. La nueva Siri de iOS 27 también funcionará más como un chatbot, con una aplicación propia para ese tipo de interacciones largas, aunque seguirá integrada en todo el sistema como hasta ahora. Además, ganará acceso a información de la web para resumir contenidos, algo que internamente Apple llama World Knowledge Answers, y se ampliará la integración con apps de terceros más allá del acuerdo actual con ChatGPT. Podrán sumarse a la fiesta Claude y Gemini.
La WWDC del 8 de junio dirá si todo esto llega en condiciones. Y la verdad es que excusas para no tenerlo listo ya no quedan muchas: desde que Apple anunció la nueva Siri en junio de 2024 han pasado casi dos años. Tiempo más que suficiente. El problema es que buena parte de ese tiempo se fue en darse cuenta de que lo que tenían no funcionaba. Ahora, al menos sobre el papel, parece que van en serio. En junio veremos si es verdad.
En Applesfera | WWDC26: fecha y novedades que esperamos del gran evento de Apple en el que se presentará iOS 27
En Applesfera | Nuevo iOS 27 - todo lo que creemos saber sobre el futuro sistema operativo para el iPhone
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
A Siri siempre se le ha hecho bola que le pidamos dos cosas en la misma frase. Apple por fin le va a meter mano a este atasco con iOS 27
fue publicada originalmente en
Applesfera
por
Guille Lomener
.
Para los locos
Llevo veinte años hablando de Apple y, aun así, sigo pensando que no he sabido contar del todo lo que de verdad importa. No todo está en la superficie. No está en el iPhone quieto sobre una mesa ni en la luz fría de una pantalla cuando todavía no la has tocado. Está en todo lo que ocurre después. En los mensajes que nunca envié y en los que todavía me arrepiento de haber enviado. En las canciones que me hicieron bailar solo por una calle cualquiera y en las que me partieron en dos cuando el mundo se encogía de golpe. En las llamadas que acortaron distancias imposibles, en los silencios al otro lado de unos AirPods, en las notas escritas a toda prisa para no olvidar una idea o una herida. Apple, para mí, nunca ha sido una marca de tecnología. Es el lugar donde muchas veces la vida decide dejar huella.
Estas máquinas no viven en los anuncios ni en las vitrinas. Viven en nosotros. En los viajes que planificamos mirando mapas como quien prepara una fuga o una promesa. En las fotos de la galería que vuelvo a ver mil veces porque en ellas todavía respira alguien, todavía late una tarde, todavía queda algo que no quiero perder. En las cosas que creé para alguien que me importaba, en los vídeos montados con cuidado, en las canciones compartidas, en los textos escritos de madrugada cuando no encontraba otra forma de decir lo que sentía. También en los malos momentos, claro. Son los recuerdos perdidos entre los entresijos del silicio. Los nombres que un día dejé de buscar. La extraña intimidad de saber que una máquina puede guardar no solo tu trabajo, también tus ruinas, tus intentos, tus pequeñas resurrecciones.
Y quizá por eso nunca he podido separar la historia de Apple de mi propia historia, de la nuestra. Porque está en mis días luminosos y en los otros. En lo que fui, en lo que perdí, en lo que todavía espero encontrar. Está en esa bicicleta para la mente que construye algo bello cuando por dentro no estás del todo en orden. Está en la manera en que una pantalla, una canción, una foto o una llamada pueden sostenerte cuando casi nada más lo hace. Estas máquinas nunca fueron solo máquinas. Han sido el escenario invisible de nuestra alegría, de nuestra nostalgia, de nuestros amores y de nuestras derrotas. Cincuenta años para ellos, veinte años después para mí, sigo intentando ponerle palabras a esta historia: mientras hay objetos que simplemente pasan por nuestras manos, solo los de Apple parece que acaban aprendiendo el pulso exacto de nuestro corazón. Como si en su interior siguiera latiendo algo como nuestra memoria emocional.
1976, CupertinoHay compañías que nacen como nacen las empresas, con un plan, una cifra, una oficina y un señor que estrecha manos mientras mira un reloj. Otras empiezan como empiezan algunas películas que uno no olvida nunca: con un garaje, con dos amigos, con una intuición tan grande que en el momento parece casi ridícula, y con esa mezcla de ingenuidad y fe que solo tienen quienes todavía no han aprendido a desconfiar del todo de sus propios sueños.
Apple empieza así.
No como una empresa que quería dominar el mundo, sino como una pequeña obstinación doméstica, como una pregunta lanzada al aire por dos chavales que miraban las máquinas de su tiempo y pensaban que aquello podía ser más cercano, más amable, más humano. El 1 de abril de 1976, Steve Jobs y Steve Wozniak fundaron Apple Computer, que nació en el garaje de los padres de Jobs, en Cupertino. Lo hicieron con la convicción de que la informática personal debía dejar de ser territorio exclusivo de laboratorios y empresas para entrar en casas y oficinas normales, en las vidas de la gente corriente.
Una historia diferenteCuando una historia dura cincuenta años es fácil caer en la tentación de contarla como una línea limpia, casi inevitable, como si cada producto hubiera sido la consecuencia natural del anterior y como si todos los protagonistas hubieran sabido siempre hacia dónde caminaban. Pero la historia de Apple no se parece a una autopista. Se parece mucho más a una novela. Tiene capítulos luminosos y otros incómodos, personajes que se marchan y regresan, decisiones que salen bien y otras que dejan una cicatriz que tarda años en cerrarse.
Tiene, sobre todo, ese ingrediente que solo tienen las historias verdaderamente vivas: una relación íntima con el error. Apple acertó muchísimo, desde luego, pero también se equivocó, se perdió, se miró al espejo sin reconocerse y estuvo cerca de convertirse en una nota a pie de página de la tecnología. Y quizá por eso resulta tan poderosa su historia, porque nunca fue una historia de perfección, sino de insistencia.
He pensado mucho estos días en eso, en cómo algunas compañías no solo inventan productos, sino también gestos. Apple lleva medio siglo construyendo gestos. El gesto de señalar una ventana en una pantalla con un ratón cuando aquello parecía brujería. El gesto de meter mil canciones en un bolsillo y salir a caminar con la sensación de que el mundo se acompasa a lo que suena en tus auriculares.
El gesto de pellizcar una foto con los dedos y notar, por primera vez, que el cristal te respondía. El gesto de pagar con una muñeca, de abrir el portátil más fino que habías visto nunca, de sacar unos auriculares sin cables de una cajita diminuta y entender que la ciencia ficción es ya real. Todo eso también es Apple. No solo la máquina, sino el modo en que esa máquina acaba cambiando la coreografía de la vida cotidiana.
Y por eso celebrar los cincuenta años de Apple no debería consistir solo en enumerar dispositivos como quien recita una ficha técnica. Sería una manera pobrísima de contar una historia que en realidad habla de otra cosa. Habla de visión y de carácter, sí, pero también de belleza, de obstinación, de cultura popular, de música, de cine, de salud, de educación, de accesibilidad, de la forma en que una empresa ha intentado, una y otra vez, que la tecnología se parezca un poco más a nosotros y un poco menos a una amenaza gris y distante. En el fondo, lo que Apple ha hecho durante medio siglo es discutirle a la tecnología su frialdad.
Un garaje en California y dos amigos que querían otra cosaLa primera escena importante de esta historia no sucede en un escenario iluminado ni ante una audiencia entregada. Sucede en pequeño. En una casa de California. En ese garaje que la mitología tecnológica ya ha convertido en una especie de Belén contemporáneo, pero que en realidad fue, antes que nada, un lugar bastante modesto para una idea que todavía no sabía la magnitud que podía alcanzar.
Steve Wozniak tenía el sueño íntimo y muy concreto de construir su propio ordenador personal. Venía inspirado por el Altair 8800, por el Homebrew Computer Club y por ese momento en que la electrónica todavía olía a hobby antes de oler a industria.
Steve Jobs veía otra cosa además. Veía producto. Veía relato.
Veía una puerta.
Y entre los dos, con Ronald Wayne durante ese arranque primerísimo, fundaron Apple y pusieron a la venta el Apple I por 666,66 dólares. No era todavía una máquina para todo el mundo. Era una placa ensamblada a mano, sin teclado ni monitor, una pieza para entusiastas. Pero contenía ya el germen de todo lo demás: la informática podía salir del templo y entrar en casa.
Es bonito detenerse un momento aquí, porque en esta parte del cuento todavía no existe nada de lo que hoy damos por hecho. No hay iPhone, no hay Apple Stores de cristal, no hay colas a medianoche, no hay “one more thing”, no hay esa sensación casi cultural de que Apple no lanza solo productos, sino pequeños acontecimientos.
Solo hay una certeza que suena casi ingenua y que, precisamente por eso, tiene algo precioso: la convicción de que los ordenadores debían ser simples, fluidos y diseñados para personas normales. Esa frase, o una versión de ella, está escrita de algún modo en todo lo que ha venido después.
La llegada del Apple II en 1977 fue la primera gran prueba de que aquello no era solo la aventura de dos tipos listos jugando a futuros improbables en un garaje. El Apple II fue el primer producto de consumo de Apple, un ordenador completamente ensamblado, con gráficos en color, software relativamente fácil de usar y una propuesta mucho más comprensible para familias, escuelas y pequeños negocios.
El Apple II llevó la informática al gran público. Y Apple dejó claro desde el principio que simplicidad y diseño iban juntosDe pronto la informática dejaba de ser un rumor técnico para empezar a parecerse a una habitación iluminada en una casa, a una clase, a una oficina pequeña donde alguien descubría que el futuro ya no era una palabra abstracta, sino algo que podía enchufarse. Apple vendió millones de unidades del Apple II a lo largo de la década siguiente y aquel éxito dio a la compañía no solo dinero, sino, sobre todo, una posición. Era ya algo más que una promesa. Habíamos cruzado aquella puerta.
Y aun así, incluso entonces, Apple no terminaba de parecerse a las demás. Había una cierta pulsión estética, una intuición sobre el diseño, una manera de entender que la belleza no era un extra, una floritura para ricos o una concesión superficial, sino parte integral de la experiencia.
El Macintosh, la ventana y el idioma que todos podíamos entenderEn 1979 Jobs visitó Xerox PARC y vio allí tres cosas que, como ocurre en las buenas historias, no parecían del todo de este mundo. Vio una interfaz gráfica con ventanas en pantalla, vio un ratón y vio iconos sustituyendo parte de la tiranía del comando escrito. Eso no era aún Apple, pero Jobs entendió enseguida lo que aquello podía llegar a ser si se sacaba del laboratorio y se entregaba al gran público.
Esta parte de la historia obvió a los propios dueños de la marca y pulió la visión de un Jobs desatado con esta tecnología: el objetivo era desarrollar ordenadores de bajo coste y sencillos que llevaran la interfaz gráfica y el ratón a los consumidores de masas. De esa intuición nacerían primero Lisa y después, en su versión verdaderamente transformadora, Macintosh.
El Lisa de 1983 fue, en cierto modo, un ensayo noble y fallido. Fue el primer ordenador de mercado masivo en usar interfaz gráfica, pero llegó cara, con problemas y sin la claridad de producto que Apple terminaría encontrando después. La Lisa importa mucho en esta historia no tanto por su éxito comercial, que no lo tuvo, sino porque demuestra algo muy Apple: a veces la empresa se ha adelantado incluso a sí misma.
A veces ha tenido razón demasiado pronto. Y eso también cuesta. No basta con ver el futuro antes que otros, hay que esperar a que el mundo se ponga a la altura de esa visión.
Luego llegó 1984 y llegó el Macintosh. El anuncio de la Super Bowl dirigido por Ridley Scott, el martillo, la multitud gris, la promesa de que “1984 no será como 1984”, la teatralidad casi religiosa del momento. El Mac no era solo un ordenador. Era una manera de plantarse ante IBM, ante la informática seria, corporativa, fría y algo asfixiante de la época. Era Apple diciendo: nosotros no queremos que el futuro se parezca a una distopía de oficina - queremos que se parezca a una herramienta creativa, intuitiva y liberadora. El Macintosh permitió a usuarios cotidianos aprovechar el poder de la computación con el simple “point and click” de un ratón, y con ello ayudó a lanzar la industria de la autoedición y toda una nueva idea de creatividad digital.
Hay un detalle que siempre me ha conmovido de esta etapa: el Mac no se limitó a ser funcional. Quiso ser hospitalario. Quiso recibirte. Quiso hablarte en un idioma que no daba miedo. Y eso es importante porque, en el fondo, toda la historia de Apple podría contarse también como el intento incesante de traducir la tecnología a un lenguaje humano. El Mac decía: no hace falta que pienses como una máquina para usar una máquina. Es la máquina la que debe aprender tu idioma. Y eso, dicho hoy, parece evidente. Dicho entonces, era casi un acto de rebelión.
Sin embargo, las historias verdaderamente vivas no se dejan resumir en una sucesión de victorias. Después del fogonazo del Macintosh llegaron las tensiones, los desacuerdos, la frustración de unas ventas que no cumplieron toda la épica prometida y, finalmente, la salida de Jobs en 1985. Wozniak ya había dejado Apple ese mismo año. De pronto, los dos fundadores se habían ido. La película no terminaba, cambiaba de tono. Bajo John Sculley, Apple siguió mejorando el Mac y acertó de lleno con elementos esenciales como la LaserWriter y PageMaker, que juntos ayudaron a detonar la revolución de la autoedición y convirtieron al Mac en una herramienta central para diseñadores, imprentas y medios. Pero algo se había movido internamente. Como cuando una casa sigue en pie pero ya no suena igual al caminar por ella.
Los años difíciles, la deriva y la larga espera antes del regresoDurante buena parte de finales de los ochenta y de los noventa, Apple fue una empresa atrapada entre la elegancia de su visión y la torpeza de algunas de sus decisiones. Microsoft avanzaba con Windows, IBM había cambiado las reglas del juego y el mercado del PC se estaba estandarizando a una velocidad brutal. Apple litigaba, se defendía, se dispersaba, lanzaba productos que no terminaban de encontrar su lugar y, por momentos, daba la sensación de ser una empresa demasiado enamorada de sí misma como para ver lo que se movía fuera del espejo. Britannica resume bien aquellos años: marketing errático, inventarios imposibles, problemas de calidad, vacilaciones estratégicas, el peso de una arquitectura cada vez más envejecida y una cuota de mercado cayendo en picado.
Pero incluso en los años raros, Apple dejaba pistas de lo que aún sabía ser. En 1985 abrió su “oficina para la discapacidad”, una decisión temprana y muy poco comentada fuera de ciertos círculos, pero enormemente reveladora. Mientras otras compañías seguían entendiendo la accesibilidad como un añadido o como una obligación periférica, Apple empezaba ya a construir la idea de que la tecnología debía ser para todos. Eso, mirado con la distancia de cinco décadas, importa muchísimo. Porque hay una ética detrás de esa decisión. Hay una manera de situar al usuario en el centro no solo como consumidor, sino como persona.
En los noventa, Apple se perdió entre malos decisiones y caída de mercado, aunque siguió dejando señales de su identidad. La accesibilidad y el PowerBook mostraban que aún sabía innovar con sentidoEn 1991 apareció el PowerBook, y conviene detenerse porque a veces las revoluciones de Apple no tienen la fama de otras, pero sí el mismo calado. El PowerBook redefinió la forma del portátil moderno: teclado retrasado hacia la pantalla, espacio frontal para apoyar las manos, trackball centrado y una ergonomía que hoy nos parece lógica porque entonces alguien se atrevió a cambiarla. Apple hizo eso muchas veces: tocar la geometría de objetos que parecían ya cerrados y abrirlos de nuevo. El PowerBook fue precisamente eso: una nueva gramática para llevar un ordenador encima.
Y después, claro, llegó 1997. Jobs volvió a Apple tras la compra de NeXT, y lo que regresó con él no fue solo un fundador, sino una forma de mirar que la compañía parecía haber olvidado.
Volvió de la forma que sólo vuelven los genios.
La campaña “Think Different” no fue simplemente un eslogan brillante. Fue una reescritura del alma. “Here’s to the crazy ones”, decía aquella voz en off, y no hablaba solo de los rebeldes del mundo: hablaba también de Apple, de la necesidad de volver a creer que la empresa podía ocupar un lugar distinto, menos conformista, menos resignado, más cultural.
El iMac de 1998 fue el primer gran símbolo visible de ese renacimiento. Bondi Blue. Transparencia. USB en vez de disquetera. Internet como promesa doméstica. Un ordenador divertido, rápido de conectar, casi simpático, en un momento en que la informática seguía siendo mayoritariamente beige y algo triste. El iMac no salvó Apple solo por vender mucho, aunque vendió muchísimo, la salvó porque devolvió a la compañía su propia voz. Era la prueba de que Apple podía mirar adelante en lugar de vivir de la nostalgia. Era la empresa colocándose otra vez en el sitio donde mejor sabe estar: un poco por delante del presente.
2001, el año en que nació la Apple modernaSi tuviera que elegir un año en el que se fundara de verdad la Apple que hoy conocemos, me costaría muchísimo no señalar 2001. Porque en ese año la empresa hizo varias cosas que, vistas por separado, ya eran importantes, pero vistas juntas forman una especie de mapa secreto del futuro. Lanzó Mac OS X, abrió sus primeras tiendas físicas y presentó el iPod. Tres movimientos. Tres lenguajes. Tres maneras distintas de decir exactamente lo mismo: Apple no quiere limitarse a fabricar ordenadores, quiere construir una experiencia completa. Eran los primeros tendones del ecosistema.
2001 redefinió a Apple: Mac OS X, las Apple Store y el iPod marcaron el nacimiento de su ecosistema. Desde ahí, la empresa pasó de hacer productos a diseñar experiencias completasMac OS X importó a Apple el corazón tecnológico de NeXT y se convirtió en la base de todos los sistemas operativos posteriores. Esto, dicho así, suena a arquitectura de software y ya está, pero en realidad fue algo muchísimo más hondo: significó que Apple colocaba por fin unos cimientos preparados para el largo plazo. A veces olvidamos que buena parte de lo que hoy damos por hecho en macOS, iOS, iPadOS, watchOS o visionOS tiene su raíz ahí, en esa decisión de adoptar una arquitectura robusta, moderna, elegante y con una ambición enorme.
Las Apple Store, por su parte, cambiaron la relación entre la marca y las personas. Hasta entonces, comprar un ordenador podía ser una experiencia ligeramente hostil, llena de mostradores impersonales y cajas aburridas. Apple transformó la tienda en un lugar de descubrimiento, aprendizaje y comunidad. Eso no es menor. Cambió la liturgia. Hizo de la compra una experiencia casi narrativa. Entendió que una tienda también cuenta quién eres.
Y luego está el iPod. Qué decir del iPod que no suene a recuerdo personal, a taxi de madrugada, a mochila, a auriculares blancos, a paseo por una ciudad donde de pronto la banda sonora ya no la ponían las tiendas ni los coches ni el azar, sino tú. El iPod cambió la música porque cambió la relación íntima con la música. No fue solo la capacidad, no fue solo el diseño, no fue solo la click wheel. Fue la sensación de libertad. De llevar tu mundo contigo. De convertir una colección en una compañía portátil. Apple lo describe con sencillez perfecta: un diseño compacto y potente que permitía llevar toda la música encima. Y eso, en su época, era casi una forma nueva de respirar.
Cuando en 2003 llegó la iTunes Music Store, la jugada quedó completa. Apple no solo había fabricado un objeto bonito para escuchar canciones - había construido el ecosistema que permitía comprarlas, ordenarlas, gestionarlas y quererlas. La tienda fue la primera gran biblioteca digital legal con canciones de los grandes sellos y resolvió un problema cultural, industrial y emocional a la vez. No se trataba únicamente de vender música. Se trataba de devolver cierta dignidad al acto de escucharla en plena época del caos digital y la descarga ilegal. La Apple moderna empezó ahí, cuando entendió que los productos importan, sí, pero el verdadero poder está en la relación entre producto, software, servicio y cultura. Y nosotros, en el mismísimo centro.
Un iPod, un teléfono y un dispositivo de internetHay momentos en la historia de Apple que ya no pertenecen solo a Apple. Son patrimonio cultural de cualquiera que haya sentido alguna vez curiosidad por cómo cambia el mundo. La keynote del 9 de enero de 2007 en Macworld es uno de esos momentos. Steve Jobs sube al escenario, empieza a jugar con la frase, presenta tres dispositivos revolucionarios y deja que el auditorio tarde unos segundos preciosos en entender que no son tres, que es uno solo, que la lógica del teléfono acaba de romperse delante de todos. “An iPod, a phone, an internet communicator.” Recordarlo sigue produciendo un escalofrío casi físico porque ya sabemos todo lo que vino después.
El iPhone convirtió el teléfono en el centro de la vida digital. No inventó el smartphone, pero cambió para siempre lo que esperábamos de élEl iPhone no fue el primer smartphone, pero sí fue el primer dispositivo que cambió de verdad lo que la gente esperaba de uno. La pantalla multitáctil, el teclado digital, la integración natural de música, internet, mapas, fotografía y, poco después, una tienda de apps que permitía a terceros expandir el dispositivo hasta el infinito razonable. El iPhone no solo unificó funciones. Redefinió el gesto. Hizo que tocar el cristal fuera una forma de conversar con la máquina. Y ese es un cambio tan profundo que resulta difícil recordar cómo era el mundo antes.
Lo verdaderamente radical del iPhone es que convirtió un objeto tecnológico en un espacio vital. Ya no llevabas un teléfono. Llevabas una cámara, una agenda, una puerta a internet, un reproductor de música, un mapa, una consola ligera, una billetera potencial, una libreta. Era una memoria externa del cerebro y, con el tiempo, una especie de compañero silencioso al que confiamos conversaciones, alarmas, ubicaciones, billetes, claves, amores, trabajos y pequeñas miserias cotidianas.
Y enseguida llegó 2008 con el App Store, que es otro de esos inventos cuyo verdadero impacto cuesta medir porque acabó disuelto en la vida misma. Comenzó con quinientas aplicaciones. Hoy parece una cifra entrañable. Pero lo importante no era cuántas eran: lo importante era la puerta que abría. De repente, cualquiera con una idea podía construir una herramienta, un juego, un servicio, una utilidad y ponerla delante de usuarios de todo el mundo. Se creó una economía, sí, pero también una nueva imaginación del software. Apple lo define como un mercado seguro y fiable para el software: yo diría que fue, además, el instante en que el iPhone dejó de ser un dispositivo cerrado para convertirse en un territorio.
Ese mismo año, el MacBook Air salió de un sobre de papel y convirtió la delgadez en espectáculo. Es imposible olvidar esa escena. No porque la delgadez sea por sí sola una virtud moral, sino porque Apple estaba diciendo algo más con ese gesto: la informática portátil podía ser poderosa y ligera al mismo tiempo. El Air no solo inauguró una categoría de ultraportátiles: inauguró una estética del portátil moderno, una idea de que la sofisticación también puede ser una forma de desaparecer. Menos ruido. Menos masa. Menos máquina. Más experiencia.
El iPad, el chip propio y la década en que Apple se hizo ecosistemaEn 2010 Apple presentó el iPad y buena parte del mundo volvió a preguntarse para qué servía exactamente aquello. Es una escena muy Apple, también esa: lanzar algo que al principio parece innecesario y que unos años después resulta casi obvio. El iPad llevó la facilidad del Multi-Touch a una pantalla mayor sin perder intimidad ni portabilidad, y eso lo convirtió en una categoría nueva más que en una simple ampliación del iPhone. Se definió como un dispositivo “mágico y revolucionario”, una frase que podría sonar excesiva si no fuera porque el iPad terminó colonizando aulas, cabinas de avión, estudios creativos, restaurantes, hospitales y salones de casa.
El iPad abrió otra categoría, y el chip A4 inició la ventaja clave de Apple: controlar su propia tecnología. Luego llegó la muerte de Jobs y el relevo de Tim CookEse mismo año hubo otro gesto menos visible y quizá aún más decisivo: el A4, el primer chip diseñado por Apple para el iPhone 4. Puede parecer una nota técnica menor dentro de una cronología tan vistosa, pero en realidad es uno de los movimientos estratégicos más importantes de toda la historia de la compañía. Diseñar sus propios chips permitió a Apple integrar hardware y software con un grado de control inusual, optimizar rendimiento, energía y experiencia, y sentar las bases de una independencia que años más tarde cambiaría también el Mac. Aquí empezó una de las grandes ventajas estructurales de Apple en la era contemporánea.
En 2011 hubo duelo y relevo. Steve Jobs murió en octubre, después de haber pedido a Tim Cook que asumiera la dirección de la empresa. Es difícil sobreestimar la emoción colectiva de aquel momento. Más allá del negocio, la sensación era la de una época que se cerraba bruscamente. En Apple se recuerda aquel tiempo como uno marcado por la admiración y el cariño hacia uno de los grandes visionarios del mundo, y por la responsabilidad que Cook aceptó al ponerse al frente.
Bajo su liderazgo, Apple no se convertiría en una copia pálida de la era Jobs: se convertiría en otra cosa. Más extensa, más institucional, quizá menos teatral en algunos gestos, pero capaz de llevar a la compañía a nuevas escalas de producto, servicios, salud y sostenibilidad.
También en 2011 llegó Siri con el iPhone 4S, y aunque hoy la relación con los asistentes de voz se vive con mayor escepticismo y ya no tiene el brillo de novedad de entonces, conviene recordar lo extraordinario que fue hablarle al teléfono y que contestara. No tanto porque siempre funcionara perfecto, que no lo hacía, sino porque señaló una nueva dirección de interacción. La voz como interfaz. La posibilidad de pedir, buscar, preguntar sin tocar. Otro idioma más para hablar con las máquinas.
La década fue completando el ecosistema. Apple Pay en 2014 convirtió el gesto de pagar en algo más rápido, privado y, sobre todo, integrado. Apple Watch apareció también en 2015 y redefinió la categoría de la tecnología vestible. No era solo una pantalla secundaria del iPhone en la muñeca: quería ser un dispositivo personalísimo, una nueva interfaz, un sensor de salud, un compañero de actividad, una forma distinta de notarte vivo. Con el tiempo, aquello crecería muchísimo.
Tim Cook, la salud, los AirPods y una Apple más grande que sus productosA veces se cuenta la etapa Tim Cook como una simple administración eficiente de un legado recibido, y creo que eso es injusto y además profundamente miope. Bajo Cook, Apple no solo siguió vendiendo mucho. Se expandió en territorios donde antes apenas intuíamos su presencia. Se convirtió en una compañía mucho más consciente de su escala global, de su impacto y de las responsabilidades morales que venían con todo ello. Hay que tener en la cabeza algo importante: el norte de Apple son sus usuarios, y el compromiso es dejar el mundo mejor de como lo encontraron. No es una frase menor. Es una definición de propósito.
Con Tim Cook, Apple amplió su legado hacia la salud y la responsabilidad global. El Apple Watch resume bien esa etapa: tecnología cada vez más útil para cuidar a las personasEl Apple Watch es probablemente la gran expresión de esa Apple más centrada en la salud y en la vida real de las personas. El reloj debutó en 2015, pero su historia verdadera no está solo en la comunicación, los pagos o el fitness: está en cómo Apple fue ampliando sus capacidades a nivel de sensores hasta convertirlo en un dispositivo que no pocas personas asocian ya con tranquilidad, prevención y, en ciertos casos, salvación.
El electrocardiograma del Series 4, las comprobaciones de ritmo irregular, la detección de caídas, los avisos de accidente, el seguimiento del sueño, las constantes vitales nocturnas, la presión arterial potencial, la forma en que tantos usuarios han escrito a Apple contando historias de salud detectadas a tiempo. Tim Cook ha dicho repetidas veces que la gran herencia de la compañía estará probablemente en la innovación alrededor de la salud. Cuesta llevarle la contraria.
Luego están los AirPods, presentados en 2016, que pueden parecer más ligeros en una cronología tan cargada, pero que en realidad son otro de esos inventos que cambiaron gestos cotidianos de forma brutal. Yo no imagino la vida ya sin ellos. Apple los menciona como una reinvención de los auriculares: sin líos de cables, con configuración inalámbrica sencilla, con una experiencia “mágica y sin esfuerzo”. Suena muy Apple, sí, pero también es verdad. Los AirPods eliminaron fricción. Y cuando la tecnología elimina fricción de verdad, se vuelve casi invisible, se pega a la rutina, deja de parecer tecnología y empieza a parecer costumbre. Luego vinieron la cancelación activa, la traducción en vivo, el modo audífono en 2024, y la idea original creció hasta tocar incluso el ámbito de la salud auditiva.
Los AirPods, los servicios y la apuesta por privacidad y sostenibilidad muestran a una Apple más integrada en la vida diaria y en la cultura. Bajo Cook, la marca amplió su influencia más allá del hardwareEn paralelo, Apple fue entrando con más claridad en servicios y cultura. Apple Music tomó el relevo espiritual de iTunes en un mundo ya dominado por el streaming. Apple TV+ llegó en 2019 y consiguió, en muy pocos años, hitos que parecían imposibles para una plataforma recién llegada: Ted Lasso, CODA, premios Emmy, Oscar, una identidad propia de marca en entretenimiento. Apple TV+ fue el primer servicio de streaming en ganar el Oscar a la mejor película y, con ello, Apple entró de lleno en otra industria distinta sin renunciar a la obsesión por la calidad curada. Sí, sí que cabía otra compañía de streaming, pero sólo sólo ellos podían conseguirlo de esta forma.
Y, mientras todo eso ocurría, Apple también se fue definiendo por sus valores públicos con una claridad creciente. Privacidad, accesibilidad, sostenibilidad, inclusión. Desde 2018, sus instalaciones globales funcionan con energía renovable al 100%, y en 2020 Apple lanzó Apple 2030, el plan para ser neutral en carbono en toda la cadena de suministro y el ciclo de vida de sus productos. En 2025 la propia compañía afirma haber superado una reducción del 60% de sus emisiones globales frente a 2015. Hay algo importante en que una empresa de esta dimensión intente que su relato ya no sea solo “hacemos grandes productos”, sino también “queremos que esos productos existan en un marco moral menos irresponsable”.
Apple Silicon, Vision Pro y la extraña belleza de llegar a los cincuenta mirando adelanteEn 2020 Apple dio otro de esos golpes sobre la mesa que, vistos con perspectiva, definen una era entera. Presentó el M1 y comenzó la transición del Mac a Apple Silicon. Para cualquiera que lleve tiempo siguiendo la compañía, aquello tuvo algo de vuelta a casa. Después de más de una década diseñando chips para iPhone, iPad y Apple Watch, Apple llevaba esa integración al corazón del Mac y reclamaba para sí una de las piezas más decisivas de la experiencia informática. El M1 no fue solo potente y eficiente: fue la demostración de que Apple había madurado hasta el punto de controlar casi todo lo importante en la cadena de su producto más simbólico. Y, desde ahí, la familia M no ha hecho más que ampliar esa ventaja con los M2, M3, M4 y M5.
El M1 devolvió al Mac el control total de su tecnología y confirmó la apuesta histórica de Apple por integrar hardware y software. Vision Pro abrió después una nueva apuesta: llevar esa lógica a la computación espacialLo interesante aquí no es solo el músculo técnico. Es la culminación de una obsesión muy antigua de Apple: la unión íntima entre hardware y software. Esa obsesión atraviesa toda la historia de la empresa. Estaba en el Mac original, estaba en el iPhone, estaba en el Apple Watch. Con Apple Silicon alcanzó una especie de plenitud estructural.
Y luego, en 2024, llegó Vision Pro, el primer ordenador espacial de Apple. Es el primer paso valiente de la computación espacial al mezclar de forma fluida contenido digital y mundo físico. Es una definición precisa, aunque quizá todavía algo prudente frente a la extrañeza real del aparato. Vision Pro importa porque es la clase de producto que Apple solo presenta cuando cree estar abriendo una plataforma nueva, no simplemente ampliando una ya existente. Puede que sea pronto, puede que falte tiempo para saber hasta dónde llega de verdad, pero hay algo inequívocamente Apple en ese movimiento: volver a intentar que el futuro tenga forma concreta.
La compañía ha llegado a sus cincuenta años sin quedarse en la nostalgia de sí misma. Apple sigue mirando adelante con esa mezcla suya de ambición, control y deseo de reescribir la próxima interfaz antes de que el resto termine de entender la anterior.
Apple hace las herramientas, pero la mayor inspiración está en lo que la gente hace con ellas. Aprender, crear, montar negocios, conectar con quienes quieren, capturar pequeños momentos cotidianos, mejorar - a veces incluso salvar - vidas. Creo que ahí está todo. Cuando una compañía cumple cincuenta años, lo más fácil es mirar sus productos como si fueran trofeos en una vitrina. Pero la verdad es que los productos solo importan de verdad cuando salen de la vitrina y entran en la vida de alguien.
Y Apple, durante medio siglo, ha hecho precisamente eso. Ha entrado en vidas. En la tuya, y en la mía. Ha estado en escritorios y en mochilas, en salas de diseño y en habitaciones de adolescentes, en trenes, en hospitales, en llamadas de FaceTime que acortan distancias imposibles, en notas de voz que se convierten en canciones, en muñecas que detectan un problema antes de que sea tarde, en películas rodadas desde un bolsillo, en las aulas donde alguien aprende y en la mesa donde alguien crea por primera vez algo que se parece a su futuro. Todo eso también cumple cincuenta años. No solo la empresa. También la relación.
Apple llega a los cincuenta años sin vivir del pasado: sigue creando herramientas que entran en la vida de las personas y cambian gestos cotidianos. Su historia sigue importando porque unió tecnología, diseño y uso humano de una forma especial y duraderaY quizá por eso Apple sigue interesándonos incluso cuando estamos cansados del ruido tecnológico, incluso cuando desconfiamos del marketing o del entusiasmo obligatorio. Porque debajo de todo eso todavía late una historia bastante sencilla y bastante hermosa: la de una empresa que quiso acercar la tecnología a las personas sin resignarse a que fuera fea, fría o distante. Una empresa que a veces acertó demasiado pronto, a veces se perdió, a veces se volvió a encontrar. Como una buena historia de amor. Una empresa que ha cometido errores, claro, pero que también ha sido capaz de imaginar herramientas que cambian gestos y, con ellos, pequeñas partes del mundo. Pero siempre hay historias que envejecen.
La de Apple sigue escribiéndose, con más fuerza que nunca. Para los locos. Los inadaptados. Los que miran las cosas de forma diferente.
Para todos nosotros. Felices 50, Apple.
En Applesfera | Conectando los puntos
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Para los locos
fue publicada originalmente en
Applesfera
por
Pedro Aznar
.
Apple acaba de sumar tres dispositivos a sus listas de 'vintage' y 'obsoletos'. Realmente no afecta en su funcionamiento
Apple acaba de sumar tres dispositivos a sus listas de productos 'vintage' y 'obsoletos', lo cual tiene una relación directa con la admisión (o no) de reparaciones. En esta ocasión ha sido el turno de los iPad mini 4, Apple TV HD y MacBook Air 2017. Y aunque suene un poco raro ese nuevo adjetivo, lo cierto es que pueden seguir siendo dispositivos que usemos con frecuencia.
Los nuevos 'vintage' de AppleTal y como explica la propia Apple en su web, considera a sus productos vintage cuando se dejaron de vender hace más de cinco años, pero menos de siete. Cumpliendo ese propósito, hay dos nuevos productos que se suman a esa lista.
- iPad mini (4ª gen.): se lanzó en septiembre de 2015 y se descatalogó en marzo de 2019. Sin embargo, sigue recibiendo algunas actualizaciones de software como iPadOS 15.8.7, lanzada hace menos de un mes e incluyendo parches de seguridad. No recibe nuevas versiones grandes, pero al menos hay garantías de que sigue teniendo un sistema estable y seguro.
- Apple TV HD original: salió en octubre de 2015 y se mantuvo en el catálogo siete años, ya que desapareció de él en octubre de 2022. Pese a todo, sigue recibiendo nuevas actualizaciones como la de tvOS 26.4 lanzada la semana pasada, aunque ya sin grandes novedades que quedan reservadas a los últimos Apple TV 4K.
Al ser declarados como 'vintage', Apple podría seguir reparándolos, pero ya no garantiza que haya piezas para ellos. Si sucediese ese escenario, la compañía podría sustituirlo por un modelo de generaciones más recientes con características similares, aunque pagándolo como si fuese una reparación.
Esto no quiere decir que sí o sí se te vaya a entregar el último modelo si no hay piezas. Poniendo como ejemplo el iPad mini 4, si no tienen piezas de él, pero sí del iPad mini 5, te podrían entregar ese modelo, pero con el mismo almacenamiento que el modelo que entregas.
El único nuevo 'obsoleto' de esta tandaUn producto de Apple se considera directamente obsoleto cuando se dejó de vender hace más de siete años. En esta última actualización de su listado, Apple solo ha añadido un dispositivo:
- MacBook Air (13" - 2017): fue el último modelo sin pantalla retina y saldría del catálogo un año después cuando salió precisamente aquel modelo. Su última actualización es de macOS Monterey, más concretamente la versión 12.7.6, lanzada en julio de 2024.
A diferencia de los 'vintage', Apple no repara ya este tipo de dispositivos. Si bien es posible seguir reparándolos en tiendas de terceros o buscando piezas por tu cuenta, la compañía ya no ofrece ninguna garantía y en caso de acudir a una Apple Store a recibir asistencia, lo único que ofrecerán será su reciclaje y la opción de comprar otro más nuevo.
Por qué no es un problema que ahora sean 'obsoletos' o 'vintage' {"videoId":"x9qbkto","autoplay":true,"title":"Qué iPhone comprar 2026", "tag":"webedia-prod", "duration":"552"}Sobra decir que, independientemente de si se podían o no reparar, estos dispositivos ya no estaban entre lo último de lo último. Sus capacidades son ya muy inferiores a la de modelos más recientes, pero eso no quiere decir que no puedan seguir siendo funcionales, tal y como hemos visto en otras ocasiones con los iPhone.
Si los dispositivos están en buen estado, podrás seguir haciendo un uso normal de ellos, incluyendo aplicaciones, gestión de archivos, fotos... El caso del Apple TV HD es el más destacado, ya que su principal aliciente es el consumo de contenido en streaming, algo para lo que sigue estando más que capacitado.
En Applesfera Instalar Windows en un Mac parece un sacrilegio, aunque a veces es un mal necesario por todos estos motivosIncluso a nivel de actualizaciones seguirán recibiendo parches de seguridad con relativa frecuencia. Y es que Apple acostumbra a traer actualizaciones de ese tipo cuando así se requiere, aunque el dispositivo sea antiguo. No es algo que dure para siempre, pero la ya citada iPadOS 15.8.7 es una buena prueba, ya que sirvió incluso para el iPad Air 2, que salió al mercado hace ya doce años.
Por tanto, que ahora pasen a ser considerados 'vintage' u 'obsoletos' por parte de Apple no implica que dejen de servir de un día para otro. Lo realmente importante seguirá siendo su estado general, el tipo de uso que les des.
Vía | MacRumors
Imagen de portada | Wikimedia Commons
En Applesfera | Apple macOS: todas las versiones hasta la fecha, cómo saber la que estás usando y cómo actualizar el sistema operativo
En Applesfera | Nuevo MacBook Pro táctil con pantalla OLED - Todo lo que creemos saber sobre el próximo portátil profesional de Apple
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Apple acaba de sumar tres dispositivos a sus listas de 'vintage' y 'obsoletos'. Realmente no afecta en su funcionamiento
fue publicada originalmente en
Applesfera
por
Álvaro García M.
.
Vaciar la papelera con tu montaje de Final Cut dentro es el mayor infarto para cualquier editor. El propio programa guarda un as en la manga para estas catástrofes
Soy editor de vídeo y mi MacBook Pro tiene 1 TB de almacenamiento. No es una barbaridad, lo sé, pero es lo que hay. Y aun así me quedé con dos gigas libres. Así de brutal es lo que ocupan los proyectos de Final Cut: un vídeo de media hora puede fácilmente irse a los 300, 400 o 600 GB sin que te hayas dado cuenta.
Intento ser ordenado, pasar material a discos duros externos, borrar lo que ya está publicado, pero hay semanas en las que no hay quien pueda. Esta había sido especialmente densa: entre el MacBook Neo, los AirPods Max 2 y el iPhone 17e... la carpeta de proyectos estaba hasta arriba y el sistema empezó a no responder con normalidad. No tenía espacio ni para moverse.
El error que casi me cuesta el proyectoAsí que me puse a hacer limpieza. Fui a las bibliotecas de Final Cut y vi dos: una que se llamaba "iPhone 17e" y otra que se llamaba "Cámara iPhone 17e". La segunda (por el nombre) era del vídeo que estaba editando así que borré la primera. Error.
{"videoId":"xa23b2u","autoplay":true,"title":"Esta es la mejor IA GRATIS para generar vídeo en 2026", "tag":"webedia-prod", "duration":"673"}Estaba editando el vídeo de cámara dentro de la librería iPhone 17e y la de Cámara iPhone 17e era la que estaba vacía. Vacié la papelera y Final Cut esfumó el proyecto. Horas de trabajo, justo cuando estaba casi al final del montaje. Me dio algo.
La carpeta que Final Cut guarda en silencioLo primero que aparece cuando buscas cómo recuperar un archivo borrado de la papelera en Mac son programas de recuperación. Útiles en otros contextos, pero no era lo que necesitaba aquí. Entonces me acordé de algo que Final Cut hace en silencio, sin que nadie lo publique demasiado: guarda copias de seguridad automáticas de la base de datos de cada librería cada quince minutos.
No guarda los vídeos (eso sería inviable por el tamaño) sino la estructura del proyecto: la línea de tiempo, los cortes, los ajustes, todo lo que has montado. Y los guarda por defecto en una carpeta que pasa desapercibida:
- Finder > Vídeos > Final Cut Buckups
Son archivos pequeños, casi sin peso, y están ahí desde la primera vez que abriste el programa.
Cuando el proyecto vuelve pero los clips noCuando restauré la librería, Final Cut buscó los archivos de vídeo originales y no los encontró porque la librería había desaparecido. Los mensajes en rojo volvieron, pero esta vez con otro significado: el proyecto estaba ahí, solo necesitaba que le dijera dónde estaban los brutos.
Y los brutos los tenía: en la tarjeta SD de la cámara, en las carpetas de recursos de los discos duros externos. Bastó con volver a arrastrar el material a la línea de tiempo para que todo reconectara. Final Cut sabe exactamente qué clip va en qué momento. Solo necesita que esté disponible. Si tienes tus originales a salvo (y es bueno tenerlos siempre) Final Cut Buckups te saca del apuro prácticamente sin pérdidas.
Y ya de paso, una petición para macOS 27: una doble confirmación antes de vaciar la papelera cuando hay proyectos de edición dentro. O incluso una opción de recueprar la papelera borrada. Una doble papelera, suena absurdo, lo sé. Pero después de este susto, cualquier petición extra me parece poca.
En Applesfera | Nuevo macOS 27 - Todo lo que creemos saber sobre él
En Applesfera | Nuevo MacBook Pro táctil con pantalla OLED - Todo lo que creemos saber sobre el próximo portátil profesional de Apple
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Vaciar la papelera con tu montaje de Final Cut dentro es el mayor infarto para cualquier editor. El propio programa guarda un as en la manga para estas catástrofes
fue publicada originalmente en
Applesfera
por
Guille Lomener
.
Steve Jobs "enchufó" a un amigo dentro de Apple y le dio el número de empleado más raro que existe: el 3.2
Martin J. Spergel podía pasearse por Apple Computer como si fuera su casa. ¿La razón? Una curiosa amistad con los propios fundadores de la empresa. De él se sabe tan poco que ha sido su hijo, Matt Spergel, quien se ha encargado de rescatar su historia y recordar la estrecha relación que su padre llegó a desarrollar con Steve Jobs y Steve Wozniak.
A Martin lo llamaban cómicamente "el chatarrero", porque era capaz de conseguir repuestos de cualquier producto, alguien dispuesto a encontrar auténticas gemas entre los basureros de electrónica olvidada. Pero no nos adelantemos. Todo comienza en un selecto club privado.
Martin J. Spergel y el Homebrew Computer ClubMartin Spergel estuvo en la primera reunión del Homebrew Computer Club, la del 5 de marzo de 1975. Un club que el año pasado celebró su 50 aniversario y que sigue siendo considerado uno de los catalizadores más importantes de la revolución de la computación personal.
Nada más terminar aquella primera reunión, a cada uno de los 31 miembros les entregó un chip Intel 8008. Hablamos de uno de los más influyentes clubes sobre ordenadores del mundo, de un puñado de genios que construían ordenadores con sus propias manos antes de que la computación doméstica fuera una realidad palmaria.
Aquellas reuniones eran el germen desde el que nacía todo. Allí asistían figuras como Bill Fernandez o Chris Espinosa y muchos años después sería el hogar de las ideas de los fundadores de Google.
Como el mismísimo Steve Wozniak reseñaba, aquello era el corazón creativo del mundo:
¿El día más importante de mi vida... cada dos miércoles por la noche?Decía en referencia a la afluencia quincenal de las reuniones que mantuvieron durante los primeros meses durante los 70. Y es que todo Silicon Valley se reunía durante un par de horas.
Steve Wozniak y Steve Jobs De dónde viene la amistad de Steve Jobs y Martin SpergelPero esto no responde a la pregunta original: ¿quién es Martin? A simple vista, uno diría que no era nadie relacionado con Apple. Su implicación en realidad llega por un acuerdo comercial, por su pequeña empresa M&R Electronics. La 'R', por cierto, proviene de su esposa Rona. Martin había desarrollado una interesante cartera de contactos y tenía fuertes alianzas con fabricantes, pero también con hackers que cotizaban moduladores de radiofrecuencia para sus proyectos.
{"videoId":"xa35dyq","autoplay":true,"title":"Vídeo Steve Jobs Apple Campus 1999", "tag":"", "duration":"902"}M&R llegó a ser un socio importante gracias a la producción de sus Sup'R'Mod, un aparato que permitía conectar el Apple II a la TV a través de la salida de vídeo compuesto y aprovechar así el televisor como monitor.
Este cacharro le permitía a Apple saltarse las restricciones impuestas por la FCC (Comisión Federal de Comunicaciones). Steve Jobs le dijo a Martin que este periférico podía venderse bien, unas 50 unidades al mes, y garantizar un flujo constante de ingresos. Spergel estimó que llegó a vender unas 400.000 unidades solo de este modelo.
Cuando Apple nació como empresa el 1 de abril de 1976, Martin Spergel era un salvavidas. Steve Jobs pidió personalmente emitir una insignia que oficializara la relación entre Apple y M&R. Y así se hizo, con un carnet especial. El 20 de abril de 1983, Apple lo identificó como "consultor (amigo)" con el número de empleado 3.2 (entre el 3 y el 4). Es decir, entre Mike Markkula (socio fundador) y Bill Fernandez (primer trabajador en nómina).
Años más tarde, Martin aprovecharía estas alianzas convirtiéndose en presidente y CEO de CL 9, la startup responsable del primer mando a distancia universal y 100% programable, fundada por Steve Wozniak en 1984. Y mucho ojo, porque Woz le tenía tanto cariño y tanta fe en este proyecto que, a decir verdad, esta fue la polea que le motivó a dejar Apple de lado. Pero esa es otra historia y ya os la contaremos en otro momento.
Poco sabe el fan promedio de Apple de esta figura tan especial. Ha sido Matt Spergel, su hijo y quien ha seguido el legado de su padre, el responsable de poner en valor esta figura clave durante los primeros años en la compañía de la manzana mordida. Tal y como relata en primera persona, Matt también estuvo vinculado al Homebrew Computer Club desde su propio nacimiento. Para él, los históricos relatos de Steve Jobs son como escuchar anécdotas de un tío de la familia, alguien a quien tienes a una simple llamada de teléfono.
En Applesfera | Los 11 libros que enseñaron a Steve Jobs a liderar y convertir a Apple en la empresa que es hoy
En Applesfera | Nuevo iPhone plegable - Todo lo que creemos saber sobre él
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Steve Jobs "enchufó" a un amigo dentro de Apple y le dio el número de empleado más raro que existe: el 3.2
fue publicada originalmente en
Applesfera
por
Isra Fdez
.
Comprar un Mac para terminar usando Windows parece un chiste. Hay razones de peso que justifican este sacrilegio
Uno de los frenos más habituales cuando alguien se plantea pasarse a Mac es ese programa de empresa que solo existe para Windows, o ese Excel lleno de fórmulas que sabe que en Mac no va a funcionar igual. Y es una pena, porque por esa pequeña "cosa" acaban sin disfrutar del resto del día de macOS, o directamente sin dar el salto.
La buena noticia es que tener Windows en un Mac es posible, más sencillo de lo que parece y completamente legal, sin trucos raros ni parches cuestionables. Si ya tienes Mac y sigues cargando con un portátil Windows por una o dos aplicaciones, este artículo es para ti. Y si estás valorando pasarte y eso es lo que te frena, también.
Cómo se instala Windows en un Mac hoy en díaAntes de entrar en los motivos, conviene aclarar cómo funciona esto en 2026, porque el panorama ha cambiado. Durante años, Apple incluía de serie Boot Camp, una herramienta que te permitía tener Windows instalado directamente en el Mac. Desde que llegaron los chips propios de Apple, Boot Camp desapareció, pero eso no significa que no puedas instalar Windows: ahora se hace de otra manera.
{"videoId":"x94qt60","autoplay":true,"title":"MEJORA tu PRODUCTIVIDAD en MAC con estos TRUCOS", "tag":"webedia-prod", "duration":"562"}La opción más sencilla y la que nosotros recomendamos es Parallels Desktop. La aplicación se encarga de todo: descarga e instala Windows sola y, cuando termina, Windows aparece en tu Dock como si fuera una aplicación más de macOS. Puedes tener los dos sistemas corriendo a la vez y cambiar entre ellos sin reiniciar. Si quieres saber exactamente cómo se hace paso a paso, aquí tienes la guía completa. Hace unos días lo probamos en el MacBook Neo, el Mac más asequible de Apple, y el resultado fue bastante mejor de lo esperado.
Situaciones en las que Windows en Mac tiene sentidoEstos son los casos más habituales con los que nos hemos encontrado, ya sea en primera persona o acompañando a compañeros en el salto de Windows a Mac:
El programa de facturación que nunca llegó a Mac. Hay software de gestión y facturación, sobre todo en el mercado español, que no tiene versión Mac. Navision, SAP... Si trabajas con uno de esos programas, no tienes que elegir entre el Mac y el trabajo: instalas Windows en Parallels, abres el programa, haces lo que tengas que hacer y vuelves a macOS.
Ese Excel que en Mac se rompe. Excel para Mac existe y funciona bien para el día a día. Pero hay archivos, especialmente los que vienen de entornos corporativos o financieros, que están llenos de macros de VBA o que usan Power Pivot, y esas funcionalidades no están disponibles en la versión de Mac. El archivo llega, lo abres y algo no cuadra. Tener Windows en el mismo equipo resuelve eso.
Power BI Desktop. Una de las herramientas de análisis de datos más usadas en empresas medianas y grandes, y Microsoft no tiene versión nativa para Mac. La versión web existe, pero está tan recortada que para alguien que trabaja con ella a diario es insuficiente. Si en tu empresa usan Power BI y tú quieres trabajar con Mac, la solución es instalar Windows en tu Mac.
Software universitario que solo existe para Windows. Si estás estudiando una carrera técnica, es probable que en algún momento te encuentres con software del aula que solo funciona en Windows. Programas de simulación, herramientas de ingeniería, entornos de programación específicos. No merece la pena comprarse un PC solo para eso cuando el Mac que ya tienes puede resolverlo.
Revit, SolidWorks y el software de arquitectura e ingeniería. Estos programas son el estándar en sus industrias y directamente no tienen versión para Mac. Autodesk ya contempla oficialmente la virtualización en Mac como entorno compatible para ejecutar Revit: la propia empresa reconoce que hay arquitectos trabajando con Mac y recomienda Parallels como solución.
Portales y herramientas internas de empresa. Hay intranets, portales de RR. HH. y sistemas de gestión internos que funcionan de maravilla en Windows y que en Mac dan problemas o directamente no cargan.
Juegos con versión solo para Windows. El catálogo de juegos en Mac ha mejorado mucho, pero hay títulos que usan sistemas anti-cheat que operan a nivel de kernel de Windows. Eso los hace incompatibles con macOS por diseño, no por falta de interés. Si quieres jugar a ese tipo de títulos, Windows es el único camino.
¿Cuántos casos te suenan? Un resumen rápidoSituación
¿Tiene solución nativa en Mac?
¿Se resuelve con Windows en Mac?
Software de facturación
En muchos casos no
Sí
Excel con macros VBA o Power Pivot
No
Sí
Power BI Desktop
No
Sí
Software universitario técnico
Depende
En la muchos casos sí
Revit / SolidWorks
No
Sí, Autodesk lo recomienda oficialmente
Portales internos de empresa
No siempre
Sí
Juegos en Windows
No
En la muchos casos sí
¿Cómo funciona y qué necesita tu Mac para que vaya bien?Esta es la pregunta que más se repite, y es la más importante antes de lanzarse. Parallels instala en tu Mac la versión de Windows diseñada para procesadores ARM, que es la arquitectura de los chips de Apple. Esa versión de Windows incluye un emulador interno que permite correr aplicaciones tradicionales de Windows con muy buen rendimiento. En la práctica, para uso de oficina, herramientas de empresa o programas de gestión, la experiencia es bastante buena.
Lo que sí importa es la RAM. Parallels recomienda 16 GB para una experiencia cómoda, porque el sistema tiene que mantener macOS y Windows corriendo a la vez. Con 8 GB funciona, y lo hemos comprobado en el MacBook Neo, pero notarás que el equipo trabaja más. Si tu Mac tiene 16 GB o más, la experiencia es realmente buena. Si tienes 8 GB y el uso que vas a hacer de Windows es puntual y ligero, también tira, pero no esperes tenerlo abierto con veinte pestañas de Chrome mientras editas vídeo en macOS al mismo tiempo.
El almacenamiento también cuenta: Windows necesita espacio en tu SSD, así que conviene tener al menos 60-80 GB libres antes de empezar.
¿Merece la pena instalar Windows en Mac?Si te reconoces en alguno de esos casos, la respuesta es sí. Parallels no es gratis, pero si te permite deshacerte del portátil Windows que llevas de aquí para allá, o si te quita el único freno para dar el salto al Mac, la cuenta sale.
Y aquí está la clave que a veces se pasa por alto: con un Mac puedes tener macOS y Windows. Con un PC con Windows solo tienes Windows, o en el mejor de los casos algo parecido con Linux. Si tu trabajo depende de Windows ocho horas al día, esa es una conversación diferente y tiene todo el sentido seguir teniendo un PC. Pero si lo que necesitas es entrar, hacer lo que toca y salir, la pregunta es la contraria: ¿por qué no disfrutar del Mac el resto del tiempo?
En Applesfera | Microsoft Office para Mac, cómo tenerlo gratis y diferencias entre todas las versiones
En Applesfera | Cómo instalar Windows en Mac en 2026: la guía definitiva para hacerlo con Intel y Apple Silicon
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Comprar un Mac para terminar usando Windows parece un chiste. Hay razones de peso que justifican este sacrilegio
fue publicada originalmente en
Applesfera
por
Guille Lomener
.
Configura avisos de lluvia intensa mediante radares meteorológicos precisos
Si vives pendiente del cielo, haces actividades al aire libre o simplemente odias que una tormenta te pille sin paraguas, te interesa aprender a configurar avisos de lluvia intensa mediante radares meteorológicos precisos. Hoy en día, el móvil puede avisarte antes de que caiga la primera gota, y recibir avisos incluso en zonas rurales, siempre que sepas qué apps usar y cómo ajustarlas.
El ecosistema de aplicaciones del tiempo es enorme, pero no todas ofrecen radares fiables, alertas en tiempo real y datos oficiales. Aquí vas a encontrar una guía muy completa, basada en las mejores herramientas del mercado y en servicios oficiales como AEMET, para montar tu propio “sistema de alarma meteorológica” y enterarte de cada chaparrón con antelación.
Cómo funcionan los radares meteorológicos y por qué son clave para las alertas de lluviaPara entender las alertas de lluvia intensa hay que saber qué hay detrás de esos mapas de colores que vemos en el móvil: los radares meteorológicos que detectan las precipitaciones. Estos radares emiten ondas de radio que rebotan en las gotas de lluvia, copos de nieve o granizo, y con esa información se genera un mapa con la intensidad y posición de las nubes de precipitación.
En las apps de radar, la lluvia suele representarse con una escala de colores: tonos fríos (azules y verdes) para lluvias débiles o lloviznas y colores cálidos (amarillos, naranjas, rojos y morados) para chubascos fuertes, tormentas o incluso granizadas. Cuanto más cálido y “intenso” sea el color, mayor es la cantidad de agua que está cayendo o va a caer.
Muchas aplicaciones modernas combinan datos de radares nacionales, satélites e incluso modelos de predicción de alta resolución. Gracias a esa mezcla, pueden dibujar un mapa de precipitaciones muy detallado y anticipar el movimiento de la lluvia en los próximos minutos u horas, lo que permite activar avisos muy ajustados a tu ubicación. Si necesitas mejorar la recepción en casa o en oficinas, existen guías con ajustes para mejorar la cobertura en interiores que ayudan a recibir las alertas con mayor fiabilidad.
La clave para los avisos de lluvia intensa no es solo ver dónde está lloviendo ahora, sino también seguir la evolución y el movimiento de las bandas de precipitación. Por eso, las apps de radar animan las imágenes en secuencias (cada 5-20 minutos) para mostrar cómo se desplaza una tormenta y estimar a qué hora te llegará.
RainViewer: radar sencillo, avisos precisos y personalización avanzadaUna de las aplicaciones que más se ha ganado la fama entre los aficionados al tiempo es RainViewer. Aunque en las tiendas de apps de España no siempre aparece de las primeras al buscar “radar de lluvia”, se ha convertido en una favorita para quien busca un radar claro, avisos fiables y una interfaz limpia.
La pantalla principal de RainViewer se centra en lo importante: te indica a qué hora empezará a llover y cuándo parará en tu ubicación, junto con información básica como la temperatura. Todo se muestra de forma muy visual, con la posibilidad de activar modo oscuro para usarla de noche o ahorrar batería.
Además del mapa, la app da gran protagonismo a los avisos de fenómeno adverso en tu zona: si hay advertencias por tormentas, lluvia intensa u otros riesgos (como viento fuerte o calor extremo), aparecen destacados. Al pulsar en cada aviso puedes leer recomendaciones, niveles de riesgo y probabilidad, algo muy útil para valorar si cambiar planes.
En cuanto a la predicción, RainViewer no presume de ofrecer “mil horas” de pronóstico, sino de ser muy fiable en las próximas horas. Para ello combina información de varios satélites y radares, construyendo un mapa de precipitaciones muy preciso que suele acertar con bastante frecuencia en distintos países y regiones.
Uno de sus puntos fuertes es el radar de tormentas integrado en el móvil. Con él puedes ver en tiempo real cómo se desplazan las zonas de lluvia o tormenta, y en la versión gratuita ya ofrece alrededor de media hora de margen de predicción. Si necesitas llegar hasta 48 horas de animación futura, puedes pasar a la versión de pago.
RainViewer permite elegir entre varios tipos de radares: desde el más preciso centrado solo en precipitaciones, hasta combinaciones con capas de satélite. Puedes activar o desactivar capas a tu gusto, sacrificando algo de fiabilidad si decides simplificar la vista, pero ganando en rapidez o claridad para comparar datos.
La lectura del radar es muy sencilla: cuanto más cálido es el color de la nube en el mapa, mayor es la intensidad de la precipitación. Si te pierdes con la escala, la propia app incluye explicaciones y una leyenda para que interpretes correctamente lo que estás viendo.
Además del radar, RainViewer destaca por sus múltiples opciones de personalización de avisos. Puedes configurar qué tipos de notificación quieres recibir: alertas de lluvia inminente, avisos cuando empiece a llover a cierta distancia, o notificaciones por otros fenómenos atmosféricos como viento fuerte, calor extremo, etc. Es habitual que la app te avise cuando aparentemente hace sol, y al cabo de unos minutos empiece a tronar, algo que muchos usuarios han comprobado en primera persona.
También puedes añadir varias ubicaciones de interés (por ejemplo, tu ciudad, el pueblo de la familia o una zona de montaña) y configurar periodos de silencio para que las alertas no te despierten por la noche. Incluso es posible ajustar la paleta de colores del radar para que coincida con la que más te acostumbre a usar en otras herramientas.
Un detalle muy interesante es que RainViewer integra avisos oficiales procedentes de servicios meteorológicos nacionales como AEMET y organismos similares en otros países. De esta forma, no solo recibes la predicción propia de la app, sino también alertas “oficiales” de fenómenos adversos emitidas por los servicios públicos de meteorología.
Rain Alarm: alarma de lluvia en tiempo real y foco en la intensidadVZABR4UW2WP4WWAX6PW27XQYTI
Otra app muy veterana y popular para vigilar chaparrones es Rain Alarm (Alarma de Lluvia). Su filosofía es simple: avisarte cuando se detectan precipitaciones en los radares que cubren tu zona, con especial atención a lluvias fuertes, tormentas severas, granizo o nieve, usando datos de servicios meteorológicos gubernamentales.
Rain Alarm se ha ganado el cariño de muchos usuarios de actividades al aire libre, desde senderistas o ciclistas hasta cazadores y, muy especialmente, aficionados a las setas que siguen las lluvias para planificar sus salidas. Al utilizar información de radares oficiales, la app muestra la lluvia actual en periodos concretos y puede simular la evolución en los próximos minutos. Para quien sale al monte con frecuencia, consultar una guía para potenciar la señal en zonas con mala cobertura puede marcar la diferencia a la hora de recibir las alertas.
El mapa de Rain Alarm representa la intensidad de la lluvia mediante una escala cromática muy intuitiva: azul para lluvia débil, verde para lloviznas más continuas y colores cálidos —amarillo, naranja, rojo y morado— para chubascos intensos o episodios de granizo. Cuando veas muchas zonas rojas o moradas sobre tu ubicación, ve buscando un buen refugio.
Uno de sus puntos clave es la posibilidad de configurar alarmas de lluvia personalizadas por radio de acción. Puedes definir un círculo en kilómetros alrededor de una posición (tu casa, un monte, una ciudad concreta) y la app te avisará si se detectan cambios significativos en la previsión de lluvia dentro de esa área.
Además, puedes indicar a partir de qué nivel de intensidad quieres que salte la alarma. Así evitas que el móvil esté sonando por cada cuatro gotas, y te centras solo en episodios de lluvia moderada o fuerte que realmente puedan alterar tus planes. Si no defines zonas específicas, Rain Alarm usará la ubicación GPS de tu dispositivo para tomar como referencia tu posición actual.
Otra función muy útil para seteros y aficionados a la meteorología es la opción de seguir la trayectoria de las lluvias y comprobar qué zonas han recibido más precipitación. Cruzando esos datos con tus lugares favoritos (por ejemplo, setales concretos), puedes cuadrar los días de crecimiento de cada especie y decidir cuándo y dónde organizar tu próxima salida.
Rain Alarm muestra las precipitaciones a partir de imágenes satelitales y datos de radares estatales, que se actualizan cada cierto tiempo (normalmente unos 20 minutos). El movimiento de las tormentas se representa uniendo varias de estas “fotografías estáticas animadas”, lo bastante detalladas para prever la dirección e intensidad de un núcleo tormentoso.
La app está disponible tanto para Android como para iOS y también dispone de versión web para consultar el radar desde el ordenador, algo muy cómodo si sueles planificar tus salidas desde casa. La versión gratuita incluye publicidad, pero se puede eliminar con un pago único relativamente pequeño. Eso sí, las últimas actualizaciones han ido limitando el número de opciones gratuitas, reservando algunas funciones avanzadas a la versión Pro.
Storm Radar: hasta 8 horas de radar pasado y futuroStorm Radar es una alternativa muy completa a Rain Alarm, orientada tanto a usuarios aficionados como a quienes quieren analizar con detalle la evolución de tormentas y frentes. Su gran baza es el mapa interactivo a pantalla completa, con hasta 8 horas de radar pasado y futuro en alta definición.
Con Storm Radar puedes ver el radar en tiempo real y su proyección futura de hasta 6-8 horas, lo que te permite anticipar el avance de una tormenta hacia tu ubicación, ver cuánto falta para que llegue, cómo de intensa será y qué componentes tendrá (lluvia, viento, rayos, etc.).
La app incluye seguimiento avanzado de células de tormenta, con datos como tiempo estimado hasta el impacto en tu zona, intensidad prevista y elementos asociados (descargas eléctricas, posible granizo, rachas de viento fuertes). También ofrece información de huracanes y sistemas de mal tiempo de gran escala, algo interesante si viajas o vives en zonas expuestas.
Además del radar, Storm Radar permite consultar condiciones meteorológicas actuales y pronósticos diarios, con la posibilidad de recibir alertas en el móvil por episodios de tiempo severo. Todo ello la convierte en una herramienta muy útil tanto para quien quiere detalles finos como para el usuario medio que solo quiere saber si le viene encima una buena tormenta.
Tiempo en vivo y Weather & Radar: pronóstico clásico + radar intuitivoEntre las apps generalistas del tiempo hay dos que encajan muy bien cuando buscamos radar de lluvia fácil de interpretar y avisos claros: Tiempo en vivo y Weather & Radar. Ambas combinan la previsión meteorológica “de toda la vida” con mapas interactivos y notificaciones.
Tiempo en vivo ofrece todas las variables clásicas (temperatura, nubosidad, viento, etc.) y añade un radar en vivo que muestra movimiento e intensidad de la lluvia. En este radar hay dos cosas que debes vigilar: el desplazamiento de las masas de precipitación (la dirección en la que se mueven los colores) y el nivel de intensidad según la leyenda de la parte inferior.
Entendiendo estos dos factores es posible aproximar muy bien el momento en el que comenzará a llover en tu zona. Eso sí, como siempre en meteorología, aunque el radar mejore mucho la precisión, nunca será infalible al 100 %. Pueden darse chaparrones locales que escapen al modelo, pero la base es muy sólida.
Weather & Radar, por su parte, es una app muy conocida a nivel internacional. Aglutina en una sola herramienta un mapa meteorológico “todo en uno” con capas de lluvia, nieve, viento, rayos, temperatura y más. El radar permite ver condiciones actuales y futuras a nivel muy local, incluso a escala de ciudad o condado.
Además del radar, Weather & Radar ofrece pronósticos horarios y diarios con detalles como temperatura “real” (sensación térmica), cantidad de lluvia prevista, índice UV, calidad del aire (AQI), y un pronóstico de tendencia de hasta 14 días para planificar viajes o eventos con margen.
Entre sus extras, incluye información de nieve y deportes de invierno (informes de estaciones de esquí), compatibilidad con Android Auto para ver el radar mientras conduces, alertas de tiempo severo (nieve, hielo, huracanes, fuertes tormentas) y notificaciones personalizadas según tu ubicación.
También dispone de datos de condiciones costeras, temperatura del mar, oleaje y mareas, algo muy interesante si frecuentas playa o navegación. Su widget de escritorio muestra el pronóstico condensado en la pantalla de inicio, y puedes guardar múltiples ubicaciones del mundo, convirtiéndola en un “centro de mando” meteorológico global.
Ventusky: visualización avanzada de modelos y flujos atmosféricosVentusky es una app pensada para quienes quieren ir un paso más allá y ver el tiempo casi como un meteorólogo profesional. No es solo un radar de lluvia: apps como Geometric Weather combinan predicción clásica con mapas dinámicos de viento, presión, lluvia, nieve, nubosidad y más, a nivel global.
Su modelo predictivo integra datos de todo el planeta con bastante fiabilidad, mostrando cómo evolucionarán las condiciones atmosféricas en tiempo real en cualquier punto del mapa. Puedes ver, por ejemplo, de dónde viene la masa de aire que traerá la lluvia a tu zona, o cómo se mueven los frentes y las borrascas.
Una de sus características más vistosas es la representación del viento mediante líneas de corriente en movimiento que muestran claramente la dirección y fuerza del flujo. Esto ayuda a visualizar la interconexión entre fenómenos como frentes fríos, borrascas o entradas de aire cálido, y a entender por qué va a llover en un lugar y no en otro.
Además de precipitaciones y nubosidad, Ventusky permite consultar presión atmosférica, nieve, viento en diferentes altitudes, acumulados de lluvia y muchos otros parámetros. Para usuarios avanzados —o quienes quieran aprender— se convierte en una herramienta potentísima para estudiar episodios de lluvia intensa y su contexto.
Lo mejor es que, pese a la gran cantidad de datos, la interfaz está bastante bien resuelta. Puedes superponer capas, avanzar en el tiempo, acercar mucho el mapa a un punto concreto y usar los modelos para estimar cuándo y cuánta lluvia podría caer en un valle, una ciudad o una zona de montaña.
Aplicaciones oficiales y específicas: Google, AEMET y apps de cuencas hidrográficasAdemás de las apps “independientes”, merece la pena aprovechar las aplicaciones oficiales que integran radares y avisos de organismos públicos. En España, tres pilares importantes son la app de El tiempo de Google, la aplicación oficial de AEMET y las apps de redes de estaciones como AVAMET o SAIH Ebro.
En los móviles Pixel, Google incluye una app del tiempo propia con un radar de lluvia integrado y alertas de precipitaciones inminentes. Aunque a primera vista parezca un simple pronóstico bonito, esconde una función de notificaciones muy práctica para que no tengas que estar mirando el móvil a cada rato.
Para activar las alertas de lluvia intensa en la app de Google, basta con abrir la aplicación, pulsar sobre tu avatar en la esquina superior derecha, entrar en “Ajustes de El tiempo de Pixel” y, dentro de la sección “Precipitaciones”, activar las notificaciones de lluvia para tu ubicación actual. A partir de ahí, el sistema te avisará cuando se prevista lluvia en tu zona, normalmente con algo de margen.
El único requisito es conceder acceso a la ubicación precisa en todo momento, ya que las alertas dependen de la posición exacta. Google guarda estos datos en tu cuenta, y siempre puedes revisar y borrar el historial desde sus herramientas de privacidad.
Por otro lado, la aplicación oficial de la Agencia Estatal de Meteorología (AEMET) es un must en España. Esta app gratuita ofrece predicciones a 7 días para más de 8.000 municipios, desglosadas por horas hasta el tercer día, así como pronósticos especializados para playas españolas y acceso a imágenes de radar de la red nacional.
Lo más valioso de la app de AEMET son los avisos de fenómenos meteorológicos adversos: puedes consultar los avisos por día y por hora, filtrarlos por tipo de fenómeno (lluvia, tormentas, viento, nieve, etc.) y por nivel de riesgo (amarillo, naranja, rojo), y configurar notificaciones específicas para tus municipios favoritos con la antelación que prefieras.
La aplicación incluye también acceso a avisos de situación especial y notas informativas de AEMET, lo que te permite seguir episodios de lluvias intensas, DANAs o temporales de forma oficial y detallada. Dispone de una sección “Mis ubicaciones” para guardar tus puntos de interés, y en Android permite compartir fácilmente la información o acceder al detalle en la web institucional.
Junto a AEMET, existen apps específicas de redes de estaciones y cuencas hidrográficas que aportan datos muy localizados de lluvia, caudales y otros parámetros. AVAMET, por ejemplo, recopila información de estaciones de la Comunidad Valenciana y Murcia, permitiendo consultar rayos, precipitaciones, viento y temperaturas, con históricos por día y por estación.
SAIH Ebro, desarrollada por la Confederación Hidrográfica del Ebro, ofrece datos en tiempo real de la situación hidrológica de la cuenca, incluyendo mapas de pluviometría, estado de embalses y otros indicadores. Con registro previo, se puede acceder a históricos de hasta 15 días, algo muy útil si sueles moverte por zonas micológicas del norte y quieres cruzar lluvia acumulada con salidas al monte.
Herramientas online y apps para aficionados a las setas y al monteEl mundo de las setas es uno de los que más partido saca a las apps y webs de lluvia. Para un setero, las precipitaciones acumuladas y el tiempo transcurrido tras las tormentas son casi tan importantes como el propio calendario. Sin agua, ni hay fructificación ni hay temporada que valga.
Antes del boom de las apps móviles, los micólogos aficionados ya consultaban páginas como Meteo Navarra, Forotiempo, Cazatormentas o la web oficial de AEMET para seguir episodios de lluvia. Muchas de estas webs siguen siendo referencia para ver mapas en tiempo real, acumulados de precipitación y análisis detallados en foros especializados.
Hoy, además, existen plataformas como Rain Alarm (versión web), mapas de rayos en tiempo real o redes de estaciones de aficionados como MeteoClimatic, que permiten localizar descargas eléctricas, registrar pluviómetros y analizar datos históricos. Todo ello se puede combinar con apps de radar en el móvil para tener un cuadro muy completo.
En blogs especializados en setas se recomienda usar este tipo de herramientas para localizar las zonas que han recibido suficientes litros por metro cuadrado y valorar en qué montes merece la pena hacer la próxima salida. Sabiendo cuánto tarda cada especie en salir tras la lluvia y conociendo las características del terreno, se pueden “perseguir” las tormentas con bastante precisión.
Además de Rain Alarm y Storm Radar, muchas personas utilizan aplicaciones más genéricas como “El tiempo” (distintas versiones según el proveedor) que ofrecen mapas interactivos con precipitaciones, imágenes de satélite, nubosidad, radar de lluvia y viento. Estas apps suelen incluir widget, permiten guardar ciudades, playas o montes favoritos y dan acceso tanto a datos en tiempo real como a históricos.
En La Casa de las Setas, por ejemplo, recomiendan complementar estas apps con medidores físicos como pluviómetros, estaciones meteorológicas o medidores de pH para tener información directa del monte. Cruce de datos digitales y mediciones sobre el terreno es la fórmula favorita de muchos seteros “frikis del tiempo”.
Ventajas y límites de las apps de radar y alertas de lluviaUsar estas aplicaciones para configurar avisos de lluvia intensa tiene muchas ventajas, pero conviene tener claro qué pueden hacer y qué no. Por un lado, ofrecen información casi en tiempo real, muy localizada y visual, que te permite saber si te viene encima una tormenta aunque el cielo aún parezca tranquilo.
Las notificaciones personalizables evitan que tengas que entrar constantemente en la app: el móvil te avisa solo cuando hay algo relevante que afecta a tu zona. Esto es perfecto para evitar sustos volviendo del trabajo en moto, organizando una salida al campo o incluso planificando riegos en agricultura. Si las alertas suenan de forma inesperada, puede ayudarte revisar qué hacer si el móvil vibra o suena sin notificaciones visibles.
Sin embargo, por muy precisos que sean los radares y modelos, la predicción a nivel muy local nunca es infalible. Pueden aparecer chubascos convectivos aislados que no se habían previsto o desviarse una tormenta a pocos kilómetros de lo esperado. Por eso, conviene tomar las alertas como una ayuda, no como una verdad absoluta.
Otro aspecto a considerar es la privacidad y consumo de batería. Para funcionar bien, muchas de estas apps piden acceso continuo a tu ubicación precisa, y eso implica que saben dónde estás en cada momento. Es importante revisar los ajustes de permisos, usar solo las apps que realmente necesitas y, si quieres minimizar el impacto, limitar la frecuencia de actualización o usar la ubicación solo “cuando se use la app” en lugar de en segundo plano.
También hay diferencias entre versiones gratuitas y de pago: algunas apps han ido reduciendo funciones gratuitas y reservando opciones avanzadas —como históricos más largos, avisos más finos o ausencia de anuncios— a las versiones Pro. Antes de suscribirte, merece la pena probar qué te ofrece la versión básica y decidir si realmente necesitas ese extra.
Cómo seguir el ritmo musical con la vibración háptica del móvil
Si alguna vez has pensado que al móvil le falta “algo” cuando escuchas tu música favorita, te interesa conocer cómo seguir el ritmo musical a través de la vibración háptica del móvil. La idea es sencilla pero muy potente: que cada golpe de bombo, cada explosión de un juego o cada detalle del sonido se traduzca en pequeñas vibraciones que puedas sentir en la mano o en el bolsillo.
Gracias a las mejoras en los motores hápticos de los smartphones y a algunas herramientas de software, hoy es posible lograr una experiencia en la que el sonido se transforma en sensaciones táctiles. Desde crear tus propios archivos de audio con datos hápticos integrados en formato OGG hasta usar apps que analizan el sonido en tiempo real, vamos a ver con calma cómo funciona todo esto y qué necesitas para montarte tu propio “mando háptico” en el móvil.
Qué es la vibración háptica y por qué es tan importante en el móvilCuando hablamos de vibración en el móvil solemos pensar en llamadas y notificaciones, pero la realidad es que la retroalimentación háptica va mucho más allá de un simple zumbido genérico. La háptica es la tecnología que permite que el dispositivo responda a tus interacciones táctiles con patrones de vibración precisos, breves o prolongados, suaves o intensos, según lo que esté pasando en pantalla.
En los smartphones actuales, el sistema puede usar técnicas como la electrostática y el control preciso del motor de vibración para detectar la fuerza con la que tocas y adaptar la respuesta. Así, no es lo mismo pulsar ligeramente una tecla virtual que mantener el dedo presionando un icono para moverlo por el escritorio: el móvil puede generar vibraciones distintas para cada caso, haciendo que la experiencia resulte más natural.
Los fabricantes llevan tiempo mejorando esta sensación, especialmente en la gama alta, donde los motores hápticos ofrecen vibraciones más nítidas, rápidas y agradables. Esto se nota al escribir, al desplazarte por los menús o al jugar, pero también abre la puerta a que el móvil traduzca la música y el sonido en vibraciones sincronizadas con lo que estás oyendo.
Además, hay un objetivo claro: acercar la experiencia del móvil a la de los mandos de consolas modernas, como el DualSense de PS5, que ya integra una retroalimentación háptica muy avanzada con distintos niveles de fuerza, tensión y patrones según la acción que estés realizando en el juego, desde tensar un arco hasta frenar un coche de carreras.
En este contexto, la vibración háptica deja de ser un simple extra para convertirse en una forma nueva de percibir el contenido digital, mezclando oído y tacto para que sientas lo que está pasando en la pantalla en lugar de solo escucharlo o verlo.
Requisitos básicos para seguir el ritmo musical con hápticaPara poder disfrutar de la música o de tus juegos con vibración háptica avanzada, hace falta algo más que las típicas opciones de vibración de cualquier móvil. Lo ideal es contar con un dispositivo Android relativamente moderno con soporte de háptica de alta definición, y además, algunas herramientas de software específicas.
En primer lugar, es muy recomendable disponer de un móvil con Android 12 o superior y un buen motor háptico. Muchos modelos recientes de gama media-alta y alta ya integran este tipo de motor, ofreciendo vibraciones mucho más precisas que las de los teléfonos de hace unos años. En el caso de los Pixel 7 y posteriores, por ejemplo, Google ha apostado fuerte por ofrecer una sensación háptica muy refinada.
También vas a necesitar software para generar o interpretar estas vibraciones. Una forma muy interesante de hacerlo es integrar datos hápticos directamente en archivos OGG, algo que se puede lograr usando Audacity en el ordenador y un reproductor compatible en tu móvil, como CX File Explorer, que permite reproducir ese OGG con soporte háptico.
Por otro lado, si no quieres crear archivos especiales y prefieres una solución inmediata, existen aplicaciones dedicadas a analizar cualquier audio en tiempo real (ya sea interno o captado por el micrófono) y convertirlo en vibraciones sincronizadas con la música, los juegos o las películas.
En resumen, la combinación ideal suele ser: buen hardware de vibración, un sistema Android actualizado y apps o programas pensados para trabajar con háptica, ya sea mediante archivos OGG con datos específicos o mediante procesamiento de audio en tiempo real.
Cómo crear un archivo OGG con datos hápticos usando AudacityUna de las formas más curiosas y potentes de seguir el ritmo musical en tu móvil es insertar información háptica directamente en un archivo OGG. Para ello es muy útil Audacity, un editor de audio gratuito, y un reproductor en Android capaz de leer ese archivo y disparar la vibración correspondiente.
El proceso comienza en el ordenador. Primero abre Audacity y accede al menú de preferencias, entrando en Control + P o Edit > Preferences. Dentro de esa ventana, dirígete a la sección Import / Export. Debajo del apartado When exporting tracks to an audio file, cambia la opción por defecto Mix down to Stereo or Mono a la opción Use Advanced Mixing Options, que permitirá controlar de forma más precisa cómo se exportan las pistas.
Cuando hayas ajustado eso, sal de las preferencias y pasa a importar la música que quieras usar. Es importante que importes la misma pista de audio dos veces, de modo que veas en la ventana de Audacity dos clips iguales. En el ejemplo clásico se utiliza el tema “Bubbles” de Yosi Horikawa, pero puedes elegir la canción que más te guste.
Si tu canción es estéreo, en el segundo clip de audio haz clic derecho sobre el nombre de la pista y selecciona Split Stereo to Mono. Esto dividirá esa pista estéreo en dos pistas mono independientes. A continuación, elimina una de las pistas divididas, de forma que te quedes con un clip más “grueso” con sus 2 pistas dentro (el estéreo original) y otro clip “fino” con una sola pista mono. Visualmente, tendrás tres canales de audio: dos asociados a la pista estéreo y uno mono.
Cuando tengas esa estructura montada, llega el momento de exportar. Ve a File > Export > Export as OGG, elige el nombre del archivo y el directorio donde lo quieres guardar y pulsa en Guardar. Debería aparecer una ventana emergente con las opciones de mezcla avanzada, donde verás cómo se asignan las pistas a los canales de salida. Si tu canción de origen es estéreo, tendrás tres canales totales: dos para el estéreo y uno adicional para el canal háptico; si el tema es mono, solo habrá dos canales.
En esta ventana tienes que asegurarte de que cada pista se vincula a su propio canal, respetando la estructura que has creado. Si todo está correcto, confirma y pasarás a la pantalla de etiquetas del archivo OGG, que es donde se define la parte clave para la vibración en Android.
El paso final consiste en añadir una etiqueta específica: haz clic en Add, baja hasta la parte inferior de la lista de metadatos y, en el espacio en blanco bajo la columna Tag, escribe ANDROID_HAPTIC. En esa misma fila, en la columna Value, introduce el valor 1. De esta forma le estás indicando al sistema que ese archivo OGG incluye datos especiales de háptica. Una vez hecho, confirma la ventana y Audacity generará un archivo OGG con la pista de audio y el canal háptico integrado.
El resultado será un archivo que, al reproducirse en un dispositivo compatible, permite que el canal adicional sirva para controlar la vibración, abriendo la puerta a una experiencia en la que la música no solo se escucha, sino que también se siente físicamente.
Reproducir el archivo OGG con háptica en AndroidUna vez has creado el archivo OGG con datos hápticos, toca llevarlo al móvil. Transfiérelo mediante cable, nube o como prefieras y guárdalo en alguna carpeta accesible de la memoria interna. El siguiente paso es usar una app en Android que reconozca y reproduzca este tipo de archivo con su canal háptico.
Una de las opciones habituales es CX File Explorer. Aunque se trata principalmente de un gestor de archivos, también dispone de reproductor multimedia integrado capaz de manejar OGG. Basta con abrir la aplicación, navegar hasta la ubicación donde has guardado el archivo y tocar sobre él para reproducirlo. Si tu dispositivo reúne los requisitos (Android 12+ con háptica HD) y la app lo interpreta correctamente, deberías notar vibraciones sincronizadas con la pista.
En la práctica, esto significa que puedes tener canciones con un “canal secreto” dedicado a la vibración, que se activará al ritmo de la música. Es una forma muy original de dar vida al audio, tanto para disfrutarlo tú como para experimentar con contenidos más inmersivos en proyectos creativos, juegos o demos.
Si conoces otros reproductores o apps que admitan esta integración de OGG con datos hápticos, también pueden servir siempre que respeten la etiqueta ANDROID_HAPTIC y el canal adicional. A medida que más desarrolladores adopten este sistema, será más fácil encontrar apps que reproduzcan este tipo de contenido sin problemas.
La sensación que se consigue es tan llamativa que hay quien bromea diciendo que ahora puede tener una experiencia musical “muy intensa” gracias a las vibraciones. Más allá de las risas, está claro que este tipo de experimentos demuestran hasta dónde puede llegar la háptica cuando se combina con creatividad y un poco de paciencia configurando el audio.
Apps que convierten cualquier sonido en vibración hápticaSi no quieres complicarte creando archivos OGG específicos, otra solución muy práctica es usar una aplicación dedicada que se encargue de analizar el audio en tiempo real y traducirlo en patrones de vibración. Estas apps se inspiran en la experiencia de los mandos de consola, pero llevan esa idea directamente a tu smartphone.
Este tipo de aplicaciones prometen ofrecer en el móvil una respuesta háptica similar a la de un mando profesional, de forma que puedas sentir cada disparo, golpe, explosión o incluso pequeños detalles como pasos, rugido del motor de un coche o el ritmo de la música. El funcionamiento se basa en leer la forma de onda del sonido (waveform), identificar la intensidad y la frecuencia, y generar vibraciones acordes.
Una de las grandes ventajas es que funcionan incluso con juegos y apps que no traen soporte háptico de serie. Es decir, cualquier título sin vibración nativa puede ganar vida táctil a través del análisis de su audio. Lo mismo ocurre con música y películas: todo lo que suene, se puede convertir en vibración.
Normalmente estas apps permiten elegir la fuente de audio entre dos modos principales. Por un lado, el modo micrófono: la aplicación capta el sonido del entorno, como altavoces externos, la tele o incluso el propio altavoz del móvil. Es ideal si juegas en una pantalla grande o con un sistema de sonido aparte.
Por otro lado, está el modo de audio interno, perfecto para usar con auriculares, ya que evita el ruido ambiente y ofrece una vibración mucho más precisa. En este modo, la app escucha directamente lo que reproduce el sistema y puede reaccionar casi al instante a graves, subidas de volumen o cambios bruscos en la música.
Además, suelen incluir controles para ajustar la intensidad de la vibración a tu gusto, desde algo suave y discreto hasta un nivel bastante contundente, y la posibilidad de seleccionar qué rango de frecuencias quieres que dispare las vibraciones. Por ejemplo, puedes centrarte en las frecuencias graves (el “bajo”) para que el móvil solo tiemble cuando haya golpes fuertes, explosiones o bombos muy marcados.
El resultado es que tu teléfono se convierte en una especie de dispositivo háptico 3D que reacciona a cualquier sonido, reforzando la sensación de inmersión en juegos, canciones o películas. Es especialmente interesante para quienes buscan algo similar a lo que ofrece la vibración avanzada de los mandos de PS5 o mandos gaming de última generación.
Experiencia musical: sentir el bajo, el ritmo y la melodíaAplicar la vibración háptica a la música abre un mundo de posibilidades, especialmente si disfrutas de géneros donde el ritmo y los graves tienen un peso importante. Al usar estas técnicas, no solo escuchas la canción: también puedes notar físicamente sus golpes y cambios, lo que hace que la experiencia sea mucho más envolvente.
Cuando usas un archivo OGG con canal háptico específico, o una app que convierta el audio en vibraciones, puedes llegar a distinguir el pulso del bombo, el groove del bajo e incluso algunos matices de la melodía a través de las manos. Evidentemente, no vas a “tocar” cada nota con exactitud, pero el cuerpo sí percibe variaciones y patrones que complementan lo que oyes.
Este enfoque funciona especialmente bien con música electrónica, hip hop, pop con mucho bajo o bandas sonoras cinematográficas, donde las transiciones y los clímax generan cambios bruscos en la energía de la pista. Cada caída (drop), cada redoble y cada subida se traduce en nuevas formas de vibrar.
Muchas personas se sorprenden de lo bien que se puede “sentir” una canción gracias a la háptica, hasta el punto de que escuchar música con vibración se vuelve casi adictivo. Si ajustas bien la intensidad y el rango de frecuencias, o personalizas el ecualizador, puedes encontrar un punto en el que la vibración no moleste, sino que acompañe al tema y lo potencie.
Además, esta forma de conectar música y tacto tiene un componente creativo interesante, tanto para productores y DJs que quieran experimentar con nuevos formatos como para usuarios que simplemente quieren darle una segunda vida a sus playlists de siempre, esta vez con una capa extra de sensaciones.
Vibración háptica en el día a día: notificaciones, teclado y menúsAunque el foco suele estar en juegos y música, la vibración háptica también es clave en el uso cotidiano del móvil. Hoy por hoy, casi nadie se imagina un smartphone sin motor de vibración: es imprescindible cuando lo pones en silencio pero no quieres perderte llamadas o mensajes importantes.
Mucha gente, eso sí, acaba desactivando la vibración en ciertas funciones (como el teclado) para ahorrar batería, porque los motores más antiguos generaban vibraciones largas y poco refinadas. Con la llegada de motores hápticos de mayor calidad y más eficientes, esto está cambiando: cada vez resulta más agradable y menos molesto activar la vibración en más situaciones.
La nueva tendencia es usar la háptica para asociar patrones distintos de vibración a tareas diferentes: por ejemplo, una respuesta al copiar texto, otra al subir o bajar el volumen, otra al hacer una pulsación larga sobre un icono o al arrastrarlo por el escritorio. De este modo, sin mirar tanto a la pantalla, puedes percibir con claridad qué acción se ha realizado.
El teclado virtual es uno de los grandes beneficiados. Con un sistema háptico bien afinado, y combinado con un sonido adecuado, es posible engañar un poco al cerebro para que perciba algo similar a escribir en un teclado físico, con pequeñas “pulsaciones” que imitan la sensación de las teclas. Esto hace que teclear sea más cómodo y natural, especialmente en sesiones largas.
En definitiva, la vibración háptica se está convirtiendo en una herramienta esencial para que la interacción con el móvil sea más rica y variada, permitiendo que el dispositivo responda de forma diferente según lo que hagas y ofreciendo una experiencia táctil cada vez más cercana a la de otros dispositivos avanzados como los mandos gaming.
Vibración adaptativa en los Google Pixel y diferencias entre Android 14 y 15Los teléfonos Pixel de Google destacan por ofrecer una de las mejores experiencias hápticas de Android, y con las últimas versiones del sistema han ido un paso más allá con opciones como la Vibración adaptativa. Esta función ajusta automáticamente la intensidad de la vibración según el entorno en el que te encuentres.
Si tienes un Pixel 7 o superior con Android 15, esta característica viene desactivada por defecto, pero se puede habilitar fácilmente. Una vez activada, el sistema utiliza los micrófonos y otros sensores para analizar si estás en un lugar silencioso o ruidoso, o si el móvil está sobre una superficie concreta, adaptando la fuerza de las alertas en consecuencia.
Para activarla, solo tienes que ir a Ajustes, entrar en el apartado Sonido y vibración, desplazarte hasta “Vibración y vibración al pulsar” y localizar la opción llamada Vibración adaptativa. Al activar el interruptor, tu teléfono empezará a regular la vibración de forma inteligente sin que tengas que estar cambiando manualmente los niveles.
En Android 14 ya existía una variante más limitada de esta idea, llamada a veces Vibración adaptable en alertas, presente en algunos modelos como el Pixel 8. Sin embargo, su alcance era menor: se centraba en reducir la vibración cuando el teléfono estaba apoyado sobre una superficie con la pantalla hacia arriba, para que no resultase tan molesto ni resonara tanto.
Con Android 15, el sistema se ha vuelto más sofisticado y es capaz de modificar dinámicamente la intensidad de la vibración en función de distintos contextos. Además, Google asegura que no se registran ni almacenan datos de sonido con este fin, protegiendo la privacidad del usuario mientras se mejora la comodidad de uso.
Gracias a la combinación de un buen motor háptico y estas funciones inteligentes, los Pixel ofrecen una experiencia vibratoria muy afinada, ideal tanto para quienes quieren notificaciones discretas en un entorno tranquilo como para quienes necesitan vibraciones más potentes cuando están en la calle o en lugares ruidosos.
Háptica en móviles gaming y comparación con el mundo de las consolasEl terreno donde la háptica tiene más potencial es, sin duda, el de los videojuegos. En consolas ya se ha demostrado con mandos como el DualSense de PS5, que ofrece una retroalimentación háptica muy avanzada y gatillos adaptativos capaces de simular diferentes niveles de presión, tensión o resistencia según lo que ocurra en el juego.
En el móvil todavía no hemos llegado a ese nivel de complejidad, pero los fabricantes tienen muy clara la referencia. Algunos smartphones gaming, como los modelos de la serie Black Shark de Xiaomi, ya han incorporado gatillos físicos y motores de vibración más potentes y precisos, especialmente pensados para mejorar la experiencia de juego.
La idea es que acciones como apuntar, disparar, frenar, recibir un impacto o recorrer distintas superficies se traduzcan en vibraciones diferenciadas, rápidas y bien sincronizadas con la imagen. De momento, gran parte de estas funciones dependen de que los desarrolladores de juegos las integren de forma nativa, pero cada vez se ven más títulos que aprovechan bien el motor háptico del móvil.
En este contexto, las apps que convierten el audio en vibraciones juegan un papel interesante: permiten disfrutar de un cierto nivel de háptica avanzada incluso en juegos que no han sido diseñados para ello, basándose únicamente en el sonido del juego para generar una respuesta táctil convincente.
Es previsible que, con el tiempo, los móviles gaming incorporen sensaciones hápticas más ricas y variadas, aprovechando motores cada vez más precisos y una mayor colaboración entre hardware, sistema operativo y desarrolladores. Esto hará que jugar en el móvil se parezca mucho más a hacerlo con un mando profesional en una consola de última generación.
Gracias a todo este avance, tu smartphone puede pasar de ser un simple dispositivo de pantalla táctil a convertirse en un centro háptico capaz de hacerte sentir cada acción del juego, cada nota de la música y cada notificación importante, uniéndose así a la tendencia general de hacer la tecnología más inmersiva, sensorial y personalizada.
La combinación de mejores motores de vibración, funciones inteligentes como la vibración adaptativa de los Pixel, herramientas para integrar datos hápticos en archivos OGG y aplicaciones que transforman cualquier audio en patrones táctiles consigue que, con un poco de configuración, tu móvil sea capaz de seguir el ritmo musical y el pulso de tus juegos a través de la vibración háptica, llevándote a una forma de disfrutar el sonido que no se limita solo a lo que entra por los oídos, sino también a lo que notas en las manos.
Apple nos prometió una renovación de Siri que ya llega tarde. La beta de iOS 26.5 ha roto más el sueño (aunque quedan esperanzas)
Ha llegado la primera beta de iOS 26.5 y no hay sorpresas. Y es así porque, desgraciadamente, ya pocos contábamos con que la nueva Siri llegase en la que es la penúltima bala de iOS 26. Tras filtrarse un nuevo retraso (aunque oficialmente sigue prevista para este año), filtradores como Mark Gurman señalaban la posibilidad de verla en esta 26.5. Y no ha ocurrido.
Apple afirma, reafirma y confirma que llegará este 2026Hasta el mismísimo 31 de diciembre, Apple tiene margen de maniobra para no volver a incumplir sus promesas con Siri. Con iOS 18 ya la incumplieron y con ello se abrió una crisis de credibilidad inédita en la era Cook. Precisamente el CEO fue uno de los que primero confirmó que llegaría en 2026. Aunque sin dar un plazo exacto.
Apple ha sabido jugar bien sus cartas con eso de "2026". Es una forma de no pillarse los dedos asegurando un plazo más amplio a diferencia de lo que hicieron en su día al decir que llegaría en primavera de 2025. El problema es que estamos en la era de las filtraciones y, aunque de puertas hacia fuera no se dijese nada de forma oficial, hemos ido sabiendo los nuevos problemas con su desarrollo.
En Applesfera Apple estuvo a punto de liarla en China. Lanzó su IA "ilegal" y tuvieron que retirarla a los pocos minutosEn enero, y esto sí se hizo oficial, se confirmó la asociación con Google para que los modelos que impulsan a Gemini hiciesen lo propio con Siri y con el resto de funciones de Apple Intelligence. Aquello no cambió la hoja de ruta filtrada que apuntaba a que deberíamos estar ya usándola, dado que se esperaba para iOS 26.4 (versión que llegó hace una semana y sin rastro de Siri).
Ante aquella filtración, Apple decidió no confirmar los retrasos internos, pero sí mantener intacta su promesa volviendo a insistir en que llegará en 2026. Así que técnicamente siguen en plazo.
Mark Gurman fue quien filtró que Apple aún no la tenía lista y prefería esperar un poco más. Es probable que aún no tuviesen moldeada la integración de Gemini como motor. El caso es que el filtrador apuntó a dos versiones clave: iOS 26.5 y iOS 27. Y ya podemos tachar una, dado que en la primera beta de iOS 26.5 no hay tampoco rastro de ella.
Todas las miradas apuntan a junio Cartel oficial de la WWDC26El 8 de junio será la fecha en la que arranque la WWDC26. Es el evento para desarrolladores de Apple que se iniciará con una keynote en la que presentar a todo el público sus nuevas versiones del sistema operativo. Y, salvo sorpresa, la IA será protagonista.
Se espera que, por fin, anuncien que la nueva Siri empezará a estar disponible en las betas de iOS 27, las cuales se lanzarán para desarrolladores ese mismo 8 de junio y para beta testers públicos a partir de julio. De paso, es posible que confirmen también algunos detalles ya filtrados como el nuevo enfoque de Apple en IA, permitiendo que Siri sea la puerta de acceso a otros modelos como los de Claude o ChatGPT.
En Applesfera Acaban de fotografiar un cristal del iPhone 18. Todo apunta a un buen tijeretazo en la Isla DinámicaDe ese modo, el público recibiría a la nueva Siri en septiembre. Sería con la versión final de iOS 27.0 y justo a la par que se estarían anunciando los nuevos iPhone 18 Pro y el esperado iPhone plegable. Eso sí, se espera que la compatibilidad permanezca intacta respecto a lo anunciado en 2024, dando acceso a ella a los iPhone 15 Pro y modelos posteriores. Por supuesto, llegaría también a iPad y Mac.
¿El adelanto en iOS 26.6? {"videoId":"xa0p3mw","autoplay":true,"title":"Cómo un DISPOSITIVO con IA me ahorró 1 mes de tomar notas: Así fue mi experiencia con PLAUD NOTE PRO", "tag":"Webedia-prod", "duration":"1611"}En un mundo ideal, la nueva Siri estaría disponible desde hace un año, tal y como se prometió originalmente. En un mundo menos ideal, pero también interesante, Apple saldría en la WWDC26 diciendo que la nueva Siri mejorará con iOS 27, pero que este mismo verano podrá probarse ya con iOS 26.6. Si está lista para la 27, debería estarlo para la 26.6, dado que la compatibilidad será idéntica.
Sin embargo, esto es más una hipótesis basada en un deseo que en una posibilidad real. De hecho, no hay nada filtrado al respecto, aunque personalmente pienso que, dentro de tanta mala noticia sobre el asistente, sería una gran noticia que pudiese probarse antes.
iOS 26.6 se antoja como una de las últimas actualizaciones de esta versión, prevista para julio o agosto si atendemos al calendario de versiones anteriores. Sin embargo, suelen ser actualizaciones "de paso" que únicamente sirven para traer parches de seguridad y mayor estabilidad, dejando ya las novedades funcionales y visuales para la siguiente gran versión. De ahí que, aunque sea posible ver la nueva Siri, realmente tengamos pocas esperanzas.
En Applesfera | Cómo instalar una beta de iOS 26.5 en el iPhone: paso a paso para hacerlo de una manera segura y oficial
En Applesfera | Nuevo iPhone 18 - Todo lo que creemos saber sobre él
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Apple nos prometió una renovación de Siri que ya llega tarde. La beta de iOS 26.5 ha roto más el sueño (aunque quedan esperanzas)
fue publicada originalmente en
Applesfera
por
Álvaro García M.
.
Llega la primera beta de iOS 26.5: estas son todas sus novedades y la gran ausencia que seguimos echando en falta
Apple ha lanzado la primera beta de iOS 26.5 para desarrolladores, y aunque la lista de cambios no es tan extensa como la que vimos en iOS 26.4, hay cosas interesantes: más funciones exclusivas para Europa que siguen cumpliendo con la DMA, el cifrado de extremo a extremo para mensajes RCS que vuelve a intentarlo después de quedarse fuera en la versión anterior, y la preparación del terreno para la llegada de publicidad a Apple Maps.
Lo que no trae, una vez más, es la renovación de Siri. La gran promesa de Apple Intelligence sigue sin materializarse en una actualización de iOS 26, y en Applesfera llevamos tiempo explicando por qué esto era lo más probable. Todas estas novedades y las que se sumen en el ciclo de beta de iOS 26.5 llegarán previsiblemente a finales de mayo o principios de junio, pero los desarrolladores ya pueden explorar estas novedades desde hoy. La beta pública debería estar disponible en cuestión de días.
La nueva Siri sigue sin aparecer en iOS 26.5Esta es, una vez más, la gran ausencia. Los rumores apuntaban a iOS 26.4 como el momento en que llegaría la renovación completa de Siri, pero no fue así. Luego quedaba iOS 26.5 como última oportunidad antes del verano, y tampoco ha llegado. La interfaz sigue siendo la misma, las funciones siguen siendo las que ya conocíamos.
{"videoId":"x9ndj38","autoplay":true,"title":"Así funciona Apple Intelligence Apple", "tag":"", "duration":"314"}Ahora bien, en Applesfera llevamos tiempo diciendo que esto era lógico. Y es que con la WWDC confirmada para el 8 de junio y iOS 27 ya a la vuelta de la esquina, tendría poco sentido que Apple lanzase una de sus novedades más grandes del año en una versión que va a tener una vida útil de apenas un par de meses. Todo apunta a que la nueva Siri será uno de los grandes titulares del evento de junio. La esperanza era que quizás llegase algo pequeño, aunque fuera para ir rodando la función con usuarios reales, pero de momento nada. Toca esperar a la WWDC.
Y hablando de Apple Intelligence, la IA de Apple apareció por error en China al actualizar a iOS 26.5, sin que el gobierno chino haya dado su aprobación regulatoria todavía. Fue un lanzamiento accidental, ya han retirado la opción de los ajustes. Apple lleva meses trabajando con Alibaba para cumplir los requisitos del regulador chino, pero el visto bueno sigue sin llegar.
Apple Intelligence en China en los primeros minutos del lanzamiento de iOS 26.5 beta 1 (Imagen: L0vetodream en X) Europa protagoniza la beta de iOS 26.5La parte más sustanciosa de iOS 26.5 beta 1 está reservada para los usuarios europeos. Apple sigue trabajando en los requisitos de interoperabilidad que exige la Ley de Mercados Digitales, y esta versión añade una novedad que no habíamos visto en betas anteriores: las Live Activities para accesorios de terceros.
Dicho de otra manera, si todo va según lo previsto, los accesorios compatibles podrán recibir tres tipos de información desde el iPhone.
- El primero es el emparejamiento por proximidad: igual que con los AirPods, bastará con acercar el accesorio al iPhone para emparejarlo con un solo toque, sin pasos intermedios ni menús adicionales.
- El segundo son las notificaciones: los smartwatches de terceros podrán recibir y mostrar notificaciones del iPhone, una función hasta ahora exclusiva del Apple Watch
- Y el tercero, la novedad de esta beta, son las Live Activities: los accesorios podrán mostrar en tiempo real el estado de apps como navegación, pedidos o temporizadores, igual que ya hace el Apple Watch.
El problema es que esto lo hemos visto antes. Apple probó el emparejamiento por proximidad y las notificaciones en las betas de iOS 26.3 e iOS 26.4, y en ambas ocasiones las retiró antes del lanzamiento final. No hay garantías de que esta vez sea diferente, aunque el hecho de que Apple siga ampliando estas funciones beta a beta es una señal de que el trabajo avanza.
El cifrado RCS vuelve a intentarloEsto también lo vimos en iOS 26.4: Apple introdujo el cifrado de extremo a extremo para mensajes RCS entre iPhone y Android en las betas, pero no llegó a la versión final. En iOS 26.5 vuelve a estar presente, activado por defecto, y esta vez las notas de la versión ya no advierten de que la función pueda no llegar al público general. Es una buena señal.
Si finalmente se aplica, las conversaciones entre iPhone y Android quedarán cifradas y no podrán ser interceptadas por terceros. Hay un interruptor para gestionarlo en Ajustes > Mensajes.
Apple Maps: lugares sugeridos y publicidad en caminoApple Maps recibe dos cambios que van de la mano, aunque hay que matizar desde el principio: tanto los anuncios, como los lugares sugeridos, están pensados para mercados fuera de la Unión Europea. Los usuarios europeos, al menos por ahora, no veremos ninguno de estos cambios.
Para el resto del mundo, llega "Lugares sugeridos", una nueva sección que aparece al tocar el buscador y que muestra recomendaciones basadas en lo que está de moda cerca de ti y en tus búsquedas recientes. Es una función que Apple anunció hace unas semanas y que ya se puede explorar en esta beta.
Y de la mano llegan los anuncios en Maps, que Apple tiene previsto activar este verano. El propio código de la beta ya incluye el aviso que verán los usuarios:
Maps puede mostrar anuncios locales basados en tu ubicación aproximada, los términos de búsqueda actuales o la vista del mapa mientras buscas.Los anuncios llevarán una etiqueta visible y aparecerán tanto en los resultados de búsqueda como en la sección de lugares sugeridos.
Pequeños cambios que también sumaniOS 26.5 incluye además una serie de ajustes más discretos que merece la pena mencionar. Al conectar un Magic Keyboard, Magic Mouse o Magic Trackpad al iPhone mediante USB-C, el dispositivo establecerá automáticamente la conexión Bluetooth sin que tengas que hacer nada más, algo que hasta ahora requería un paso manual.
Si en algún momento has cambiado o estás pensando en cambiar de iPhone a Android, ahora hay nuevas opciones al exportar los datos: puedes elegir qué adjuntos de mensajes incluyes en la transferencia, con opciones de ninguno, los últimos 30 días, el último año o todos.
En el App Store, las notas de la versión mencionan nuevas opciones de facturación para desarrolladores, con planes de suscripción mensual con compromiso de 12 meses. Los detalles aún están por concretar, pero podría suponer un cambio en cómo se presentan las suscripciones dentro de las apps.
Apple Books, por su parte, tiene en el código referencias a un resumen anual de lectura para 2026 con títulos y medallas al estilo de Spotify Wrapped, pensado para los lectores más activos. Y por último, iOS 26.5 añade un nuevo diseño de teclado para el inuktitut, una lengua indígena canadiense.
Cuándo llega iOS 26.5 y cómo probarloApple ha lanzado iOS 26.5 Beta 1 para desarrolladores y la beta pública debería estar disponible en cuestión de días. La versión final llegaría previsiblemente a finales de mayo o primeras semanas de junio de 2026, siguiendo el calendario habitual de actualizaciones de primavera de Apple.
Si eres desarrollador y quieres explorar estas novedades desde hoy, los pasos son los de siempre:
- Entra en developer.apple.com e inicia sesión en "Account"
- Ve a Ajustes > General > Actualización de software
- Selecciona "Actualizaciones beta" y elige la versión de desarrollador de iOS 26
Como siempre, recuerda que las betas pueden tener errores y comportamientos inesperados. Lo más prudente es instalarla en un dispositivo secundario o hacer una copia de seguridad completa antes de actualizar.
En Applesfera | WWDC26: fecha y novedades que esperamos del gran evento de Apple en el que se presentará iOS 27
En Applesfera | Cómo instalar una beta de iOS 26.5 en el iPhone: paso a paso para hacerlo de una manera segura y oficial
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Llega la primera beta de iOS 26.5: estas son todas sus novedades y la gran ausencia que seguimos echando en falta
fue publicada originalmente en
Applesfera
por
Guille Lomener
.
Apple Intelligence sigue siendo ilegal en China y Apple lo lanzó ayer por error. No duró ni 15 minutos
Ha llegado iOS 26.5 en forma de beta y con ello lo que sería una de las noticias del año para usuarios de China: Apple Intelligence. El conjunto de funciones de IA de Apple se presentó en junio de 2024, llegó en inglés a Estados Unidos a finales de ese año y al resto del mundo en la primavera de 2025 (excepto la nueva Siri). Sin embargo, China no disponía de ello por cuestiones legales.
Pero lo que ya varios usuarios chinos celebraban terminó por confirmarse como un error por parte de la compañía californiana. Y es que, pese a que no se descarta su llegada en la versión final, a fecha de hoy sigue siendo una funcionalidad ilegal. Y todo viene porque Apple, aunque quisiera, no puede ir sola en China.
Apple ya tiene socio para China {"videoId":"x9xm9vi","autoplay":true,"title":"Cómo China ha alcanzado a EEUU en la carrera de la IA en tan poco tiempo", "tag":"", "duration":"544"}Más allá de problemas de desarrollo propios que puedan aparecer, lo cierto es que hacer llegar Apple Intelligence a China no ha sido algo que dependa directamente de Apple. Las leyes del país obligan a que las empresas extranjeras no puedan introducir servicios como estos si no es con un socio chino.
Para Apple esto es como tragar un sapo, ya que cualquiera de las soluciones tiene connotaciones negativas en su estrategia. Si no lanza nada, tendrá una importante desventaja competitiva. Pero asociarse a una empresa local implica ceder parte de sus secretos comerciales a un tercero, así como reestructurar su sistema de seguridad para garantizar la privacidad del usuario.
En ese último aspecto, Apple cuenta con unos modelos de inteligencia artificial que se ejecutan principalmente dentro del dispositivo, lo que ya de serie las hace privadas. Para las tareas más complejas que exigen de acudir a la nube cuentan Private Cloud Compute, que es el nombre que dan a unos servidores que, tal y como declararon en la WWDC24, cuentan con medidas de seguridad certificadas por auditores externos.
En Applesfera Apple lleva años de retraso en la carrera de la IA. Se acaba de filtrar un cambio de rumbo y parece el más inteligentePese a todo, hace tiempo que sabemos que Apple asumió el reto de ir con una empresa china. Fueron varios los nombres de empresas que estuvieron en las quinielas, como DeepSeek y Alibaba Group, con quienes llegaron a entablar negociaciones. Finalmente parece que usarán el modelo Wenxin Yiyan de Baidu.
Eso sí, por ahora no se ha confirmado oficialmente y tampoco se sabe con exactitud qué papel jugará Baidu y hasta qué punto será una colaboración similar a la anunciada con Google. En este último, el acuerdo es para el resto del mundo y pasa por usar modelos como los que impulsan a Gemini en todas las funciones de Apple Intelligence, pero bajo los servidores propios de Apple.
Apple aún no tiene la aprobación del gobiernoLas entidades reguladoras chinas que tienen que dar su visto bueno a la asociación de Apple con Baidu no se han pronunciado por ahora al respecto. Y aunque los analistas creen que no pondrán objeciones, a día de hoy no tienen el permiso para lanzar Apple Intelligence en China. Ni siquiera en una beta como la de iOS 26.5.
Apple Intelligence en China en los primeros minutos del lanzamiento de iOS 26.5 beta 1 (Imagen: L0vetodream en X)Es por eso por lo que a los pocos minutos de lanzarse la beta, en la cual sí se incluía Apple Intelligence en China, se acabó retirando. Los usuarios chinos reportan no tener ya acceso a ninguna de las funciones y ni siquiera al panel de ajustes en el que ya figuraba el título de "Apple Intelligence y Siri". Ahora ya vuelve a aparecer solamente como "Siri".
Cabe señalar que Apple Intelligence sí funciona en chino, aunque no en China. De hecho, lo tienen desde el momento en que también se lanzó en español y otros idiomas, con iOS 18.4. Sin embargo, se desactivará al estar en territorio chino.
Se desconoce cuándo se pronunciarán las autoridades chinas al respecto de estas herramientas, pero lo cierto es que podría ser inminente. De ese modo, es posible que en próximas betas ya esté disponible. Que Apple lo introdujese anticipadamente en esta primera beta es una señal de que está a punto de lanzarla. La versión final para todo el público se espera para principios-mediados de mayo.
En Applesfera | Nuevo iPhone plegable - Todo lo que creemos saber sobre él
En Applesfera | Nuevo iOS 27 - todo lo que creemos saber sobre el futuro sistema operativo para el iPhone
(function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); -
La noticia
Apple Intelligence sigue siendo ilegal en China y Apple lo lanzó ayer por error. No duró ni 15 minutos
fue publicada originalmente en
Applesfera
por
Álvaro García M.
.
Cómo configurar autorespuestas inteligentes en tu correo con IA local
Si te pasas el día entero pegado al correo, sabes lo frustrante que puede ser repetir las mismas respuestas una y otra vez. Con la llegada de la inteligencia artificial ejecutada en local, ahora es posible montar un sistema de autorespuestas inteligentes que trabaja por ti, sin depender siempre de servicios en la nube y manteniendo tus datos bajo control.
El objetivo de esta guía es que entiendas, paso a paso, cómo configurar autorespuestas inteligentes en tu correo usando IA local, qué opciones tienes según tu plataforma (Gmail, Outlook u otras), cómo encajar estas piezas con herramientas de automatización y qué debes tener en cuenta a nivel de seguridad, costes y escalabilidad, tanto si eres freelance como si gestionas el soporte de una empresa.
¿Qué es un asistente de correo con IA y por qué importa?Un asistente de correo electrónico con IA es básicamente un cerebro automático que se conecta a tu bandeja de entrada y se encarga de leer mensajes, entenderlos y ayudarte a gestionarlos de forma mucho más rápida. A diferencia de un cliente de correo tradicional, no solo organiza carpetas o aplica filtros: redacta respuestas, resume hilos eternos, clasifica correos por prioridad y aprende de tu estilo con el tiempo.
Este tipo de asistentes se apoya en técnicas de procesamiento de lenguaje natural y aprendizaje automático para interpretar lo que dice cada mensaje, detectar la intención (por ejemplo, una queja, una duda frecuente o una solicitud comercial) y actuar en consecuencia. Ese “acto” puede ir desde sugerirte un borrador hasta enviar una respuesta automática sin que toques el teclado.
En un contexto en el que el correo sigue siendo el canal central de comunicación profesional, sobre todo en empresas, disponer de un asistente inteligente marca la diferencia: reduce la sobrecarga de la bandeja de entrada, evita que se pierdan seguimientos importantes y recorta de forma drástica el tiempo que dedicas a tareas repetitivas.
¿Por qué el correo sigue siendo clave incluso con IA?A pesar de la fiebre por los chats corporativos y las plataformas colaborativas, el correo mantiene su papel como soporte formal y universal para la comunicación. La mayoría de contratos, propuestas, comunicaciones con clientes y proveedores, y un buen porcentaje del soporte al usuario siguen pasando por email.
El problema es que el volumen no deja de crecer, lo que se traduce en bandejas saturadas, plazos de respuesta más largos y muchas oportunidades perdidas por simples olvidos o por falta de tiempo. Aquí es donde entra la IA local y en la nube: ayudando a filtrar el ruido, destacar lo importante y automatizar las tareas que no requieren creatividad humana.
¿Cómo funciona un asistente de correo con IA (local y en la nube)?Detrás de un sistema de autorespuestas inteligentes hay varios componentes que cooperan para leer, entender y responder correos de manera automática. Aunque el usuario solo vea “respuestas mágicas” apareciendo, por debajo se orquesta un flujo bien definido.
Lo primero es la conexión con tu proveedor de correo (Gmail, Outlook, servidores IMAP o soluciones empresariales), que permite a la herramienta de IA acceder a los mensajes entrantes y extraer datos clave como remitente, asunto, cuerpo del mensaje y adjuntos relevantes.
Después entra en juego el modelo de IA, que mediante algoritmos de PLN identifica la intención y el contexto del correo. Con esa información, puede generar un borrador de respuesta, clasificar el mensaje, marcarlo como urgente o derivarlo a otra persona dependiendo de reglas que hayas definido previamente.
Por último, un motor de automatización se encarga de enviar la respuesta, aplicar etiquetas, crear recordatorios o incluso lanzar flujos más complejos (como actualizar un CRM o abrir un ticket de soporte) sin necesidad de intervención manual, dando vida real a esas autorespuestas inteligentes.
Opciones para automatizar correos con IA: nube vs IA localPara diseñar autorespuestas inteligentes puedes combinar soluciones en la nube con modelos ejecutados en tus propios servidores o equipos, según lo que necesites a nivel de privacidad, coste y control. La clave está en equilibrar comodidad, seguridad y flexibilidad.
Las plataformas en la nube tipo ChatGPT, Gemini, Claude o DeepSeek son muy cómodas de usar, se integran con muchas herramientas y ofrecen modelos de lenguaje muy potentes. Son ideales cuando priorizas rapidez de implantación, calidad de redacción y escalabilidad sin tener que preocuparte por la infraestructura.
Si tu prioridad es que los datos no salgan de tu entorno (por ejemplo, en sectores regulados o con información muy sensible), los modelos ejecutados en local o en tu propio servidor privado son la mejor opción. Aquí entran en juego soluciones de IA open source y motores de inferencia que puedes desplegar on-premise, integrándolos igualmente con tu correo mediante APIs o conectores personalizados.
Automatizar el envío de correos con IA: conceptos básicosAutomatizar el envío y la respuesta de correos con inteligencia artificial implica algo más que programar envíos masivos. El objetivo es enviar el mensaje adecuado, en el momento oportuno y con el tono correcto, sin que tengas que escribirlo cada vez de cero.
Las plataformas modernas de email marketing y automatización CRM incorporan módulos de IA para segmentar, personalizar y optimizar el momento de envío. Analizan aperturas anteriores, clics en enlaces, comportamiento de compra y datos de navegación, y a partir de ahí calculan cuándo y con qué contenido es más probable que el destinatario interactúe.
En un escenario más operativo, centrado en soporte o ventas, los flujos automatizados permiten que cada acción del usuario dispare un correo relevante: alta de cuenta, confirmación de pedido, recordatorio de pago, seguimiento de una incidencia o invitaciones a reuniones, todo ello con textos generados o mejorados por IA.
Elegir la herramienta adecuada de automatización con IALa elección de la herramienta depende de si quieres algo ligero y directo sobre tu correo habitual o una solución más completa que conecte varias aplicaciones y fuentes de datos. No hay una respuesta única, pero sí varios patrones que se repiten.
Para uso personal o pequeños equipos, las funciones con IA integradas en Gmail, Outlook y clientes avanzados como Shortwave o Superhuman suelen ser suficientes: ofrecen respuestas inteligentes, sugerencias de redacción, bandeja prioritaria y atajos para gestionar hilos largos con resúmenes claros.
Cuando buscas procesos más avanzados, entran en juego plataformas de automatización como Zapier, Make o n8n, que permiten conectar tu correo con modelos de IA (tanto en la nube como en local) y con herramientas de negocio como CRMs, sistemas de tickets, Slack o aplicaciones a medida.
En entornos de marketing y ventas, suites como HubSpot, ActiveCampaign o Mailchimp con módulos de IA permiten programar campañas masivas con segmentación inteligente, contenido dinámico y pruebas automatizadas de asuntos y copys para mejorar la tasa de apertura.
Configurar flujos de trabajo automatizados de correoUna vez tienes la herramienta, el siguiente paso es definir flujos que traduzcan tu estrategia de comunicación en reglas claras que la IA pueda ejecutar sin supervisión constante. Estos flujos son la columna vertebral de tus autorespuestas inteligentes.
Un caso típico es el de los correos de bienvenida: en cuanto alguien se suscribe a tu lista o crea una cuenta en tu plataforma, se le envía automáticamente un mensaje de recepción, quizá seguido de una secuencia de onboarding personalizada según su perfil, con textos generados o ajustados por modelos de lenguaje.
En soporte y ventas, los flujos de seguimiento permiten que las interacciones previas desencadenen respuestas posteriores: si un cliente hace clic en cierta oferta, si responde con una duda o si no contesta en un plazo concreto, la IA puede preparar y enviar el mensaje siguiente, o marcarlo para revisión humana si detecta complejidad o conflicto.
También es frecuente automatizar recordatorios y notificaciones con IA: avisos de próxima reunión, vencimiento de factura, renovación de servicio o confirmación de asistencia a un evento, todo ello con textos adaptados al historial específico de cada usuario.
Personalización y segmentación inteligente con IALa verdadera magia de estas soluciones está en su capacidad para adaptar el contenido del correo a cada persona, en lugar de disparar mensajes genéricos. La IA puede analizar grandes volúmenes de datos y sacar patrones que tú, a mano, tardarías horas en ver.
Entre las señales que se suelen utilizar están la ubicación geográfica, el historial de compras, las páginas visitadas, la interacción previa con campañas, el dispositivo desde el que se conecta o el rol profesional. Con todo ello, se pueden crear segmentos dinámicos y generar textos que se “mueven” en tiempo real según el usuario.
Herramientas especializadas en copy con IA son capaces de optimizar líneas de asunto y cuerpos de mensaje para maximizar aperturas y clics, probando diferentes variantes y aprendiendo de los resultados. En un enfoque de IA local, esa optimización se puede replicar con modelos alojados en tu propia infraestructura y experimentación continua.
Programar correos en el momento óptimo con machine learningEl cuándo se envía un correo es casi tan importante como el qué dice. Los algoritmos de machine learning detectan patrones en tus estadísticas de envíos y en el comportamiento de tus usuarios para elegir la franja temporal más adecuada para cada destinatario.
En lugar de lanzar un boletín a todo el mundo a la misma hora, la plataforma puede ajustar de forma individualizada el momento del envío, de modo que cada persona lo reciba cuando es más probable que esté atenta al correo. Esto se nota especialmente en campañas B2C o internacionales, donde horarios y hábitos varían mucho.
Si utilizas IA local, puedes replicar este enfoque almacenando datos de aperturas y respuestas en tu propio sistema de analítica y entrenando modelos sencillos que estimen la probabilidad de apertura por usuario y franja horaria, integrando después esas predicciones en tus flujos de automatización.
Activar y aprovechar la IA integrada en GmailGmail incluye varias funciones impulsadas por IA que ayudan a reducir el tiempo dedicado a redactar, ordenar y limpiar la bandeja. Aunque no son “locales” en el sentido estricto, son un buen punto de partida para entender lo que aporta la automatización inteligente.
La Redacción Inteligente o Smart Compose sugiere frases mientras escribes tus correos, anticipando saludos, despedidas y expresiones frecuentes en función de tu estilo y del contexto del mensaje. Se activa desde la configuración general de Gmail, en el apartado correspondiente, y se puede desactivar si no te convence.
Las Respuestas Inteligentes o Smart Reply muestran opciones de respuesta rápida al final de determinados correos entrantes, basadas en el contenido del mensaje. Son ideales para correos breves donde basta un “Perfecto, gracias” o “Lo reviso y te digo”, sin necesidad de escribirlo a mano cada vez.
Además, Gmail incorpora una bandeja prioritaria que ordena los correos según su importancia percibida, separando lo urgente de lo que puede esperar. Este sistema se alimenta tanto de IA como de tu propio uso (a qué prestas atención, qué archivas, qué respondes rápido) para ir afinando con el tiempo.
El filtro de spam y correos maliciosos también se apoya en IA avanzada. Aunque suele venir activado por defecto, puedes entrenarlo marcando manualmente mensajes sospechosos como phishing o spam, lo que ayuda a que el sistema aprenda y proteja mejor tu bandeja.
La “IA de Gmail”: componentes principalesAunque no existe una única “IA de Gmail” con un nombre cerrado, el ecosistema de Google integra varias tecnologías que, juntas, le dan gran parte de su capacidad de automatización y asistencia en el correo.
Por un lado está Gemini para Gmail, el modelo conversacional de Google (antes conocido como Bard), que se integra con Google Workspace y puede usarse para resumir correos, generar borradores y ayudarte a redactar mensajes más complejos desde el propio entorno de trabajo.
Por otro lado están las funciones específicas de Smart Compose y Smart Reply, que aprovechan modelos de lenguaje entrenados para sugerir frases completas o respuestas cortas, personalizadas en base a tu historial de escritura y tus conversaciones previas.
El sistema de detección de spam y amenazas se apoya en algoritmos de IA que analizan millones de señales para bloquear correos no deseados, intentos de phishing y malware, reduciendo drásticamente lo que llega a tu bandeja principal.
Finalmente, la integración con Google Assistant y Gemini en Workspace permite gestionar el correo con comandos de voz, solicitar resúmenes de hilos largos o pedir que se redacten propuestas y respuestas directamente desde tu espacio de trabajo digital.
Cómo generar un correo automático con IA paso a pasoCuando hablamos de autorespuestas inteligentes, no basta con un simple mensaje de “estoy fuera de la oficina”. El objetivo es que un sistema de IA sea capaz de recibir cada correo, comprenderlo y elaborar una respuesta adecuada sin necesidad de estar pendiente de la bandeja todo el rato.
Para ello, primero necesitas una aplicación que actúe como puente entre tu cuenta de correo y el modelo de IA elegido. Plataformas como Zapier, Make o la opción open source n8n permiten detectar emails entrantes y enviar su contenido al motor de IA, sea en la nube o desplegado en local.
El flujo suele empezar con un disparador o trigger de nuevo correo, que se activa cuando llega un mensaje que cumple ciertas condiciones: un asunto específico, un remitente concreto, la presencia de ciertas palabras clave en el cuerpo o el uso de una dirección dedicada al soporte automatizado.
Una vez el correo es capturado, se envía su contenido al modelo de IA, que lo analiza y genera una respuesta adaptada al contexto. Aquí puedes elegir entre modelos como ChatGPT, DeepSeek, Gemini o Claude en la nube, o modelos open source ejecutados en local si quieres mantener la información dentro de tu infraestructura.
Con la respuesta generada, la propia plataforma o tu script de automatización se encarga de reinyectar el mensaje en el sistema de correo, enviándolo al remitente original o, si detectas que el caso es delicado, dejando el borrador listo para revisión humana antes de pulsar “Enviar”.
Personalizar la IA según tu estilo y el tipo de usuarioPara que tus autorespuestas inteligentes no parezcan frías o robóticas, es fundamental que el modelo reciba instrucciones claras sobre tu tono, tu forma de comunicar y tus políticas de atención. Esto se puede hacer de varias maneras.
Lo más habitual es definir un conjunto de directrices de comunicación que se incluyen en el prompt que se envía al modelo cada vez que se genera una respuesta. Ahí puedes especificar si prefieres un tono formal o cercano, cómo dirigirte a clientes habituales, qué temas evitar o cómo tratar solicitudes sensibles.
También es muy útil aportar respuestas modelo y ejemplos reales de correos que te gusten, para que la IA los utilice como referencia de estilo. Con modelos locales avanzados puedes incluso entrenar o ajustar el modelo con tu propio corpus de emails históricos, para que imite de manera más fina tu forma de escribir.
Por último, puedes variar el estilo según el tipo de remitente, estableciendo reglas que indiquen a la IA cuándo debe ser más técnica, más comercial o más directa, en función de la categoría del usuario o del contexto del mensaje.
Supervisar, mejorar y escalar tu sistema de autorespuestasUn sistema de autorespuesta con IA no debería dejarse en piloto automático sin control. Es clave disponer de mecanismos para revisar lo que la IA está haciendo y corregir el rumbo cuando sea necesario.
Conviene almacenar un historial de correos entrantes, respuestas generadas y acciones de los usuarios (por ejemplo, si responden agradeciendo o mostrando confusión) para detectar patrones de error, casos no cubiertos o tonos que no encajan con tu marca. Esa información sirve para ajustar prompts, reglas de escalado o incluso la elección del modelo.
También merece la pena delimitar muy bien cuándo la IA puede responder sola y cuándo debe escalar a un humano. Por ejemplo, puedes dejar que resuelva dudas frecuentes sobre envíos y facturas, pero obligar a revisión manual en quejas complejas, solicitudes de reembolso delicadas o temas legales.
A medida que el sistema gana confianza y tus equipos lo conocen mejor, puedes ir ampliando el alcance de la automatización, integradolo con otras herramientas de negocio como CRM, plataformas de mensajería interna o paneles de BI para tener métricas detalladas.
Casos de uso reales de asistentes de correo con IALas autorespuestas inteligentes no son solo para grandes corporaciones; se adaptan a escenarios muy variados en empresas de todo tipo, desde profesionales independientes hasta equipos globales.
En productividad ejecutiva, la IA ayuda a priorizar bandejas de entrada con cientos de correos diarios, etiquetando lo urgente, sugiriendo borradores rápidos y recordando seguimientos que podrían perderse entre notificaciones.
En atención al cliente, los agentes de correo con IA permiten responder más rápido a dudas frecuentes, escalar casos complejos con resúmenes claros y mantener una voz de marca consistente aunque haya varios agentes humanos detrás del buzón.
Para ventas y prospección, los flujos automatizados generan respuestas personalizadas a leads entrantes, proponen seguimientos en función de la interacción y ayudan a calificar oportunidades de forma más objetiva, dejando a los comerciales libres para las conversaciones de mayor valor.
Para gestión de proyectos, estos asistentes pueden extraer tareas clave de hilos de correo extensos, crear recordatorios de plazos y mantener la documentación al día, vinculando mensajes y decisiones con las tareas de tu sistema de gestión.
Las herramientas de asistente de correo con IA más destacadasEn el mercado actual hay un abanico amplio de soluciones que combinan funcionalidades de asistencia inteligente, automatización y redacción dentro o alrededor del correo electrónico.
Algunas aplicaciones, como Shortwave, se enfocan en ofrecer búsqueda potente, resúmenes automáticos y flujos de trabajo con IA para tratar el correo casi como si fuera un sistema de mensajería estructurado, priorizando velocidad y claridad.
Otras, como Microsoft Copilot para Outlook, se integran profundamente en ecosistemas existentes (Microsoft 365 en este caso) para proporcionar redacción asistida, agendado inteligente, organización de bandeja y acceso contextual a documentos y datos corporativos.
En el entorno de Google, Gemini para Gmail actúa como asistente de redacción y organización, ayudando a redactar correos complejos, resumir hilos largos y destacar lo importante en cuentas con mucho tráfico.
También existen clientes y servicios como Superhuman, Notion Mail, Proton Scribe, Edison Mail o SaneBox que añaden capas de clasificación inteligente, privacidad reforzada, filtrado de spam avanzado y experiencias de uso muy optimizadas para usuarios exigentes.
Construir un agente de correo con IA para empresas en pocos pasosSi lo que buscas es ir más allá de lo que ofrecen las soluciones estándar y montar un agente de correo de IA ajustado a tus procesos, puedes construir una arquitectura propia combinando bandejas inteligentes, frameworks de orquestación y modelos de lenguaje.
Un enfoque habitual en entornos empresariales consiste en usar una bandeja gestionada por un servicio especializado en hilos de email, un orquestador como LangChain para definir el comportamiento del agente y un modelo de lenguaje avanzado (en la nube o local) para generar las respuestas.
En este tipo de diseño, cada correo entrante se clasifica en una categoría predefinida (por ejemplo, FAQ, estado de pedido, queja, reembolso, escalar, otros) y el sistema cuenta con reglas claras sobre cuándo responder de forma automática y cuándo marcar el caso para revisión de un operador humano.
Para recibir los correos en el agente puedes configurar webhooks que envían un evento a tu servidor cada vez que llega un mensaje. Tu backend extrae remitente, asunto y cuerpo, llama al agente IA para que clasifique y redacte, y luego responde vía API del proveedor de correo o deja el ticket para escalado.
En fase de desarrollo resulta práctico utilizar herramientas como ngrok para exponer tu entorno local y hacer pruebas con correos reales. Para producción, puedes desplegar en plataformas como Vercel, Heroku o Railway, añadiendo autenticación, logging, reintentos y limitación de peticiones para garantizar estabilidad y seguridad.
Si quieres que el agente sea realmente útil, conviene conectarlo a una base de conocimiento propia mediante un índice vectorial: documentaciones, FAQs, guías internas y otros recursos que el modelo pueda consultar antes de responder, de modo que se base en tu contenido y no solo en su entrenamiento genérico.
Seguridad, costes y explotación de IA en entornos corporativosCuando llevas la IA al corazón de tus comunicaciones, es imprescindible cuidar la seguridad, el cumplimiento normativo y el control de costes, especialmente si tratas con datos sensibles de clientes o información confidencial.
A nivel de seguridad, deberías cifrar claves y tokens mediante variables de entorno y sistemas seguros de gestión de secretos, proteger los endpoints de tus webhooks con autenticación y verificación de firmas, e implementar auditorías de acceso para saber quién ve qué datos y cuándo.
En lo relativo a costes, tiene sentido combinar modelos más ligeros y económicos para tareas masivas (como clasificación) con modelos más potentes solo para casos puntuales y complejos, además de cachear resultados frecuentes y usar reglas deterministas para consultas muy sencillas.
Para muchas empresas resulta útil apoyarse en servicios profesionales de ciberseguridad, pentesting y consultoría de IA que revisen la arquitectura, validen el cumplimiento de normativas aplicables y propongan mejoras para escalar el sistema sin sorpresas.
Todo este ecosistema se puede complementar con infraestructura cloud en proveedores como AWS o Azure, soluciones de inteligencia de negocio y paneles de análisis (por ejemplo, con Power BI) que te ayuden a medir la efectividad de tus autorespuestas, la tasa de resolución automática o el ahorro de tiempo conseguido.
Ultimas consideracionesLa combinación de automatización con IA, desarrollo de aplicaciones a medida y servicios de análisis de datos permite convertir estas autorespuestas inteligentes en un pilar estratégico de tu soporte y tus operaciones, más allá de ser un simple “bot de correo”.
Al final, configurar autorespuestas inteligentes con IA local o híbrida consiste en aprovechar todo este conjunto de tecnologías para que tu bandeja de entrada deje de ser un pozo sin fondo y se convierta en un espacio de trabajo organizado, donde la inteligencia artificial se encarga de la rutina, tú te centras en lo realmente importante y tus clientes reciben respuestas rápidas, coherentes y seguras las 24 horas del día. Comparte la guía y más usuarios conocerán del tema.
